当前位置: CNMO > 新闻 > 新闻 > 消息 > 正文

OpenAI表示:人工智能的优化工作与社会科学密不可分

CNMO 【编译】 作者:Lisa,韩媛 韩媛 2019-02-21 10:55
评论(0
分享

  【CNMO新闻】人工智能安全研究,需要社会科学家来确保人工智能在涉及人类时能够成功,这是OpenAI研究人员在一篇新论文中提出的论点的核心。OpenAI是一家总部位于旧金山的非营利组织,由科技名人里德·霍夫曼和彼得·泰尔资助。

  这篇论文的作者写道:大多数人工智能安全研究人员都专注于机器学习,我们认为这并不足够。为了填补这一空白,我们需要在人类认知、行为和伦理方面有经验的社会科学家的帮助。

  他们认为,这些科学家与机器学习研究人员之间的密切合作,对于提高人工智能的一致性、确保人工智能系统按照预期可靠运行的任务至关重要。他们建议这些合作采取实验的形式,让人们扮演人工智能代理人的角色。

OpenAI
OpenAI

  在论文描述的一个场景中,两名人工智能辩手在法官的观察下辩论他们喜欢的任何问题,在一方做出回应之前,会给另一方充足的时间来陈述自己的观点。这些知识随后被应用到一场人工智能辩论中,在这场辩论中,两台机器回避了修辞上的攻击。

  这篇论文的作者解释说:“如果我们想要理解一场由机器学习和人类参与者参与的辩论,我们就用人来代替机器学习参与者,看看整个人类游戏是如何进行的。”

  这类社交测试不涉及人工智能系统,也不需要了解算法的内部工作原理。相反,他们需要实验设计方面的专业知识,这就需要涉及社会科学的许多领域,包括实验心理学、认知科学、经济学、政治学和社会心理学,以及神经科学和法律等相邻的领域。

  研究人员写道,将先进的人工智能系统与人类价值观恰当地结合起来,需要解决许多与人类理性、情感和偏见等心理学相关的不确定性。我们相信,社会科学家和机器学习研究人员之间的密切合作是非常有必要的。

  为此,OpenAI的研究人员最近在斯坦福大学的行为科学高级研究中心组织了一个研讨会,OpenAI表示,将计划聘请社会科学家来共同研究这个问题。

分享

加入收藏

网友评论 0条评论
用其他账号登录:
请稍后,数据加载中...
查看全部0条评论 >
火热围观
潮机范儿

Copyright © 2007 - 北京沃德斯玛特网络科技有限责任公司.All rights reserved 发邮件给我们
京ICP证-070681号 京ICP备09081256号 京公网安备 11010502036320号