为什么马斯克有关AI的警告可能是正确的?_最新动态_新闻资讯_程序员俱乐部

中国优秀的程序员网站程序员频道CXYCLUB技术地图
热搜:
更多>>
 
您所在的位置: 程序员俱乐部 > 新闻资讯 > 最新动态 > 为什么马斯克有关AI的警告可能是正确的?

为什么马斯克有关AI的警告可能是正确的?

 2017/8/27 16:08:46    程序员俱乐部  我要评论(0)
  • 摘要:网易科技讯8月26日消息,据CNBC网站报道,特斯拉和SpaceX公司的首席执行官埃隆·马斯克(ElonMusk)曾多次表示,随着人工智能(AI)的应用越来越广泛,社会需要更加关注其安全问题。马斯克最近在推特上写道:“如果你不担心人工智能的安全性,那么现在你应该担心了。”软件解决方案公司SAP的首席学习官(CLO)珍妮·迪尔伯恩(JennyDearborn)对这观点表示赞同。事实上,她认为
  • 标签:什么 为什么 正确

马斯克说 AI 是人类最大风险要求政府干预和监管

  网易科技讯 8 月 26 日消息,据 CNBC 网站报道,特斯拉和 SpaceX 公司的首席执行官埃隆·马斯克(Elon Musk)曾多次表示,随着人工智能(AI)的应用越来越广泛,社会需要更加关注其安全问题。

  马斯克最近在推特上写道:“如果你不担心人工智能安全性,那么现在你应该担心了。”

  软件解决方案公司 SAP 的首席学习官(CLO)珍妮·迪尔伯恩(Jenny Dearborn)对这观点表示赞同。

  事实上,她认为,至关重要的是要开展好有关人工智能知识以及如何更好利用这项技术的教育。

  她告诉 CNBC:“人工智能将无处不在。这将是我们社会中最普遍的一种现象,而这种现象不会被人们直观地看到。但它将存在一切事物的背后。”

  迪尔伯恩称,人工智能将影响我们所做的一切,包括扫描证件、滚动网页、使用应用程序和家庭传感器系统,以及日常生活的许多其他方面。结果,人工智能将不断收集数据和个人信息。迪尔伯恩解释说,企业可以利用这些信息,应用算法来了解你的行为。

  她说:“我们需要利用人工智能让人类更强大,而不是取代人类。我们需要让更多的人在如何利用人工智能上发出自己的声音,这样我们就不会反过来被人工智能所利用。”

  但在人工智能上谁会利用我们呢?我们为什么要保持小心呢?迪尔伯恩称,在人工智能领域的前沿有三家公司:谷歌、Facebook 和亚马逊。她说,(如果人类被人工智能所利用)它们“将受益最大”。

  迪尔伯恩表示:“对于人工智能渗透到人们生活的程度,人们需要有所了解。这样,他们就不会在某天醒来说:‘我一直都是被利用的棋子’。”

  她以 Fitbit 等健康追踪设备为例:一家医疗保健公司可以利用健身应用提供的数据来了解人们的健康习惯。她说:“那么,如果有一天,对于每天步行少于 1 万步的人,它决定增加他的保险费用,人们该怎么办?”

Fitbit Charge 2

  迪尔伯恩认为这是一种极端但不是不可能发生的情形。她问道:“谁来做出这个决定?”。她说,如果我们不参与有关人工智能的讨论,那这些大公司将拥有全部话言权。

  她担心,人们会为了方便起见而愉快地泄露自己的隐私。她指出:“他们说,‘我可以接受’,但如果(一家公司的所作所为) 越过红线怎么办呢?”

  迪尔伯恩称:“现在,大多数公司都比政府拥有更大的权力。”今后,会有大量关于人们隐私、个人自由和红线的讨论。因此,“开展这方面的教育非常关键。”

  她表示,我们应该决定我们希望这个新经济会是什么样子,了解我们自己在其中扮演的角色,参与对话并成为知情的公民。这样,在人工智能如何“设计和以何为导向”上,社会大体上可以做出明智的决定。

  马斯克有类似的观点,他说:“人工智能对人类文明的存在构成了根本性的风险,这与汽车事故、飞机相撞、药物错配、食品安全的影响方式不同——后者只会对社会造成局部的损害,但人工智能有可能对整个社会造成威胁。”

  迪尔伯恩提出了自己的解决方案:“我们应该教育好年轻人,让他们对我们要去的地方持批评态度。”她支持年轻人进入科技行业,事实上,她说,对我们生活产生最大影响的重大决策经常来自于科技行业,而不是政府。

  她说:“如果你想从事卫生保健行业,就选择以医疗保健为重点的科技类专业;如果你想成为一名神经系统的科学家,那就选择以神经系统其为重点的科技类专业。”

  迪尔伯恩补充说,我们最大的责任是弄清楚社会将如何利用人工智能。

  她给出了一个例子:谷歌一直在测试无人驾驶汽车。但是,如果一辆无人驾驶汽车即将发生碰撞,它必须在拯救驾驶员和撞向人群,或避开人群但让载有驾驶员的汽车发生碰撞这两项选择做出一个数学决策,那该怎么办?

Google's self-driving car, seen at a conference in Paris on June 30, 2016

  尽管她承认这是一个极端的例子,迪尔伯恩称,人们很快就必须对这类问题做出回答。因此,让更多来自不同背景的人群参与有关人工智能开发和应用方式的讨论很重要。

  她说:“这就像创造一个政府结构或社会秩序。你需要确保构建这些系统的人们拥有平等的代表性和多样性。”。

  她说,现在的科技领域以白人男性为主,他们同时制定了有关我们的道德和社会原则的规则。

  迪尔伯恩称:“在这方面,我们不能采取自由放任的方式。这些都是伦理准则和红线,不能让营利性公司自行做出这些决定。”

发表评论
用户名: 匿名