谷歌提出人工智能的五个安全规则_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 谷歌提出人工智能的五个安全规则

谷歌提出人工智能的五个安全规则

 2016/6/23 5:33:00    程序员俱乐部  我要评论(0)
  • 摘要:不久前谷歌与OpenAI公司、斯坦福大学和伯克利大学联合发表一篇题为《AI安全的具体问题》的论文,猜想研究人员在研发和使用AI过程中可能遇到的具体问题。谷歌研究(GoogleResearch)的ChrisOlah)周二则在一篇博文中阐述了开发出更智能、更安全人工智能的五大规则。Olah在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”Olah提出的五个规则是:避免负面效应
  • 标签:谷歌 人工智能 智能

  不久前谷歌与 OpenAI 公司、斯坦福大学和伯克利大学联合发表一篇题为《AI 安全的具体问题》的论文,猜想研究人员在研发和使用 AI 过程中可能遇到的具体问题。 谷歌研究(Google Research)的 Chris Olah)周二则在一篇博文中阐述了开发出更智能、更安全人工智能的五大规则。

http://static.cnbetacdn.com/article/2016/0622/5600c03d660756c.png

  Olah 在博文中指出:“这些都是具有前瞻性的、长期的研究问题——这些现在看起来可能是小问题,但对未来系统则至关重要。”

  Olah 提出的五个规则是:

  避免负面效应:AI 在完成一组任务时不应该被周围环境打扰。

  避免奖励黑客: AI 应该妥当地完成任务,而不是借助一些迂回的方法。

  可扩展的监督: AI 不需要接收不断的反馈或有效的输入。

  安全探索:AI 在学习时不应伤害自身或环境。

  鲁棒性到分布式的转变: AI 应该能够识别出全新的环境,并在新环境中有效地完成任务。

发表评论
用户名: 匿名