我们需要担心的不是机器人,而是开发者_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 我们需要担心的不是机器人,而是开发者

我们需要担心的不是机器人,而是开发者

 2017/11/9 15:54:25    程序员俱乐部  我要评论(0)
  • 摘要:腾讯科技讯,据外媒报道,据物理学家史蒂芬-霍金(StephenHawking)和特斯拉CEO伊隆-马斯克(ElonMusk)的说法,人工智能机器人终有一天会取代人类,成为地球的主宰。但是,综观人工智能和机器人近些年取得的进展,它们对于社会构成的最紧迫、最真实的威胁其实存在于其他方面。具体来说,这种威胁不是指人工智能可能会超越它们现在服务的目的(例如管理对冲基金或招聘人才)以及反抗它们的主人。相反,这种威胁在于人工智能极大地代表了其主人的价值观和利益。事实上
  • 标签:我们 开发 开发者 机器人

  腾讯科技讯,据外媒报道,据物理学家史蒂芬-霍金(Stephen Hawking)和特斯拉 CEO 伊隆-马斯克(Elon Musk)的说法,人工智能机器人终有一天会取代人类,成为地球的主宰。但是,综观人工智能和机器人近些年取得的进展,它们对于社会构成的最紧迫、最真实的威胁其实存在于其他方面。

  具体来说,这种威胁不是指人工智能可能会超越它们现在服务的目的(例如管理对冲基金或招聘人才)以及反抗它们的主人。相反,这种威胁在于人工智能极大地代表了其主人的价值观和利益。

  事实上,由于机器人和人工智能还没有显示出丝毫的自决或独立,因此它们显然还不像霍金所说的那样是“新的生命形式”。相反,它们只是创造和利用它们的人的延伸。它们是帮助组织执行某些活动的智能工具。

  正因为它们是其操作者的延伸,所以它们可能会对社会构成现实的威胁。机器人是由某些具有特定价值观和利益的人创造和使用的。这意味着这些人的行动不可避免地会反映和推广这些价值观和利益。而这些价值观和利益不一定被所有组织和个人认同。这些机器人的高效性将能够给有条件使用它们的人创造明显的优势,让他们按照自己的想法来改变这个世界。而这是那些没有条件开发和使用机器人的人做不到的。

  机器人学会了人类的偏见

  至于人工智能如何增加社会、经济和政治不公平,你只需要看看人工智能和机器学习算法是如何显示出偏见的。

  例如,在 2016 年 5 月,ProPublica 网络媒体的一份研究报告指出,美国多个州使用的累犯评估算法就明显对非裔美国人有偏见,将他们标识为“更高危人群”。

  又如,在 2017 年 4 月,《科学》杂志上发表的一份研究论文称,当机器人被要求向互联网学习词汇联想时,它们获得了涉及女性和非裔美国人的“类似人类的语义偏见”。

  类似的偏见是人工智能和机器人学习它们所获得的数据的结果。而它们获得的数据通常来自于设计和利用它们的人:那些站在社会层级上更高位置的、具有特权的男性白人。

  正因如此,人工智能面部识别软件往往难以识别有色人种的面部,人工智能和机器人的运行方式更偏向于促进其制造者和所有者的利益。

  机器人为谁代言?

  机器人的工作是非常高效的。到 2027 年,它们将会渗透到 2470 万个工作岗位上去。这意味着它们将会在我们工作和生活的方方面面打上其制造者的印记。它们将会让数百万个工人失业,它们将会给有能力采用它们的组织巨大的商业竞争优势。这样一来,生产和拥有机器人的国家和阶层将会进一步增强它们的影响力

  正因如此,现在有关是否授予机器人权利(甚至公民身份)的讨论就令人感到很不安。机器人和人工智能已受其主人的财产权保护,是不能被随意践踏的。

  因此,授予它们“权利”不能简单地理解为授予它们不被摧毁的消极权利,而是授予它们不受干扰地追求自身目标的积极权利。

  换而言之,授予这样的权利等同于给其主人的目的、使命和价值观以特殊的保护。这些人使用人工智能和机器人为自己目标服务的能力将会得到进一步增强。

  最后,有关价值观的话题涉及到另一个在讨论人工智能时经常提到的富有争议的话题。从欧洲议会到研究机构,人们通常都会说我们需要确保人工智能机器人学习和维护人类的价值观。然而,现在的问题是:这些机器人学习和维护的是谁的价值观?谁能够为所有人类代言?

  不管真正普遍的价值观是否能够被灌输给人工智能,类似的讨论证明机器人的行动总会产生这样或那样的道德、社会和经济影响,它们只能是某些价值观的代言人。

  令人不安的是,机器人主要被一个由企业和工业家组成的阶层所制造和控制,因此它们的高效性将会大大有利于这个阶层的价值观和利益。

发表评论
用户名: 匿名