《文明》系列游戏以高自由度和真实性著称,玩家领导一个文明从史前时期发展到现代文明,每一步决策都会影响未来走势。和游戏里一样,现实中很多技术也会对未来产生影响,比如人工智能对人类的威胁。
最近有研究人员把人工智能引入到了《文明 5》中,看看在游戏中,人工智能到底会不会毁灭人类。
剑桥大学生存风险研究中心(CSER)致力于探索各种可能毁灭人类的潜在威胁,除了人工智能,气候变化、流行病都是他们的研究目标。
这次 CSER 基于《文明 5》发布了一个 MOD,游戏的胜利条件变为打造出「超级 AI」,加入了新的建筑单位「AI 实验室」,新的奇迹「深蓝」和「AI 风险」机制。
original="http://imgslim.geekpark.net/uploads/image/file/07/ae/07ae12dae1e037cfa2fd003aaa3c48e1.png" data-image-enhancer="larger than 645" />图片来源:Steam
随着玩家开始建造更多的 AI 实验室,AI 风险会上升,达到一定数量就会产生邪恶 AI,最终人类毁灭,Game Over。为了降低 AI 风险,玩家需要拿出一部分资源建造「AI 安全实验室」,在技术进步的同时做好管控,这样才能走向胜利。
图片来源:Steam
在《文明 5》MOD 中,人工智能最初是可以带来好处的,最终可以升级成超级 AI,帮助玩家成为统治者。但如果 AI 的安全研究投入过少,邪恶的 AI 就会毁灭人类,游戏失败。这给我们带来一点启示,那就是在发展科技的同时也不能忽视管控。CSER 想通过游戏来引起人们的思考,让更多人重视 AI 安全。
《文明 5》并不能作为一个严肃的研究工具,它最大的优势在于,游戏中的各个因素会相互影响,玩家能以上帝视角观察每个决策对世界带来的变化。在游戏过程中发现危机、寻找解决方法,这是它最大的意义。
MOD 下载页面:Steam
头图来源:Steam