智能" width="600" height="400" />
英文原文:Don’t Fear Artificial Intelligence
Kurzweil 写了五本人工智能(Artificial Intelligence,简称 AI)方面的书,有一本是纽约时报的畅销书《How to Create a Mind》。
两位伟大的思想家看到了 AI 的危险。下面谈谈怎样让 AI 安全。
著名物理学家史蒂芬·霍金【注1】最近发出了警告,如果人工智能超过了人类智能,就对人类文明的存在造成了威胁。数字货币、私人太空飞行和电子汽车的先驱 Elon Musk,也表示了类似的担忧。
如果 AI 成为了存在的威胁,那么它不会是第一个。在我孩提时代的、1950 年人防演习期间,我坐在桌子底下。从那以后,我们就遇到了可比较的恐惧,比如生物恐怖主义者创造了一种人类无法抵抗的新病毒。火能够温暖我们、也能烧掉我们的村庄,技术总是一把双刃剑。
典型的反乌托邦未来主义的电影,总是有一到两个主人公或团体在为了控制人工智能而战。AI 正被集成到当今世界。AI 不是一只手或两只手;它是 10 亿或 20 亿只手。持有智能手机的非洲孩子,比起 20 年前的美国总统,已经能够更加智能地访问知识了。随着 AI 更加聪明,它的用途仍然在增长。实际上,每个人的智力在近 10 年内已经被 AI 放大了不少。
我们在人群中仍然有冲突,每个群体都被 AI 放大了,这已有先例。但是,暴力呈现着深远的、指数级的减少,我们可以从中感到安慰,正如 Steven Pinker 的 2011 年的书《The Better Angels of Our Nature》中提到的:为什么暴力减少了。根据 Steven Pinker 的观点,虽然地点不同导致统计数据不同,但是战争的死亡率与六个世纪以前相比,已经下降了数百倍。从那以后,谋杀降低了十倍。人们对此感到吃惊。暴力在上升的印象,起源于另一种趋势:关于世界上负面的信息,有着指数级的详实程度——它是被 AI 支持的另一种发展。
我们能够部署一些策略来保持新兴的、像 AI 安全之类的技术。考虑到生物技术,或许已经领先 AI 数十年了。在 1975 年召开的关于重组 DNA 的阿希洛马会议评估了其潜在危险,并规划了战略以确保该领域的安全。从那以后,最后的方针已经被行业做了改进,运转非常好:在过去的 39 年,已经没有重大问题了,偶然的或故意的。我们现在看到了达到临床实践的药物治疗取得的巨大进步,远远没有出现预期的问题。
对于 AI 的道德规范的考虑,可以退回到艾萨克·阿西莫夫(Isaac Asimov)1942 年的短篇小说《环舞》(Runaround)【注2】的机器人三大定律【注3】,8 年后,艾伦·图灵在 1950 年发表的论文“计算机器与智能”中的 AI 领域。今天 AI 从业者的普通看法就是,我们要完成人类级别的 AI 仍然需要数十年。我更加乐观地把时间压在了 2029 年,但是不管怎么说,我们还有时间来规划道德标准。
已经有大学和企业在努力推动 AI 安全策略和方针了,有的已经步入正轨。与阿希洛马会议的方针类似,一个想法就是,清晰地定义每个 AI 程序的使命,建立加密的安全保护以阻止未授权用户。
末了,我们能够确保 AI 安全的最重要方法就是致力于人类管理和社会制定。我们已经到了人-机文明的时代。未来避免消极冲突的最好方式,就是继续发展我们社会理想,它极大地减少了暴力。
如今,AI 正在推进疾病诊断、寻找治疗方法、开发可再生清洁能源、帮助清洁环境、向全世界的人们提供高质量的教育、帮助残疾人(包括史蒂芬·霍金的声音)以及在无数种其它方式上贡献着力量。未来数十年,我们有机会在处理人类的巨大挑战上迈开一大步。在控制这种危险时,我们在道义上有责任去实现这个诺言。这将不会是我们第一次在这方面取得成功。
— END —
译文: 《不要害怕人工智能 》 腊八粥