谷歌已经开发了一套先进的人工智能系统,能够自主学习并控制视频游戏,这套系统不需要任何指令,只要接受简单训练即可操作游戏。彭博社 详细报道 了这一项目,它是总部设在伦敦的人工智能创业公司 DeepMindAI 的研究成果,包括来自 Atari 2600 游戏机上的 49 款游戏,这些游戏可能为许多用户提供了第一手的视频游戏体验。 谷歌在去年初的一笔交易中收购了 DeepMind AI。
出于多方面的原因,这绝对是谷歌取得的一项了不起的成就,但最令人印象深刻的是,这项人工智能技术不仅在大多数情况下达到了与人类玩家相同的智能水平,而且有时还超过了专业级玩家的最高得分。例如,在其学习的 49 款游戏中,谷歌的人工智能系统在 29 款游戏中的得分都超过了专业级玩家,在 43 款游戏中的得分超过了基础的计算机玩家。
谷歌和 DeepMind 并不只是寻求通过这个项目让人工智能系统的得分超过所有拱廊游戏的最高得分——他们的长期目标是开发一种能按照一套标准来解决问题的基础架构,这对于谷歌未来可能用到人工智能技术的任何项目都非常有帮助,包括自动驾驶汽车。据彭博社报道,谷歌给予这个项目以高度评价,称“这是人类首次开发出的能够直接从经验中学习的单一系统”,未来的应用潜力无可限量。
不过,这个人工智能项目仍然处于初级阶段。谷歌认为还得历经数十年的努力才能取得最终的目标: 即开发一种自身具有智力的通用型机器,可以对不同的环境作出回应 。尽管如此,它仍然是一套不需要大量训练和指导就能学习预定任务的技术,即使从 IBM 超级计算机“沃森”等先进人工智能系统的角度讲,这都是一次巨大的技术飞跃。
谷歌人工智能技术的下一步是理解 Doom 时代的 3D 虚拟世界,从而让人工智能距离掌握现实世界中类似任务的目标更近一步,比如说开车。还有一个细节同样让我们大开眼界:谷歌对其人工智能系统进行专门训练,令其可以通过操作性条件作用的虚拟形式来更好理解其学习的 Atari 游戏——对成功模仿了既定行为的电脑进行“奖励”。