在美国西部登陆 Facebook 帐号,你的资料就很可能被一台由杜松和俄勒冈中部沙漠地区夹杂鼠尾草气息的空气而冷却的电脑调出。
在人口大约为 9000 人的小镇 Prineville,Facebook 存储了数以亿计的海量数据。一排排的电脑被安放在四座巨大的,总计八十万平方米的建筑里。它们整齐地排放着,好像要让来自西北的干冷风吹拂过每一台电脑。每当用户登录,点赞或者是发送 LOL 的时候,这些闪着蓝绿色光的服务器都会发出沉闷的低吼。
Facebook 最近刚加入一些新机器到 Prineville 的服务器大军中。同时,公司也装载了新的大功率服务器,旨在加速对软件翻译、更聪明的虚拟助手以及文字识别等人工智能技术的训练。
Facebook 新的 Big Sur 服务器是围绕本来为图片处理而开发的大功率处理器——GPU 来设计的。这些处理器加强了最近人工智能的一个技术飞跃——深度学习。由于 GPU 使得如何训练软件的旧观念被运用到更广大更复杂的数据集中,软件可以变得惊人的“善解人意”,特别是在理解图片和文字方面。
Kevin Lee,Facebook 一位致力于服务器工作的工程师表示,他们在帮助 Facebook 的研究员们通过以运行更快、使用更多数据的方式来训练软件。”这些服务器是人工智能和机器学习研究的专用硬件。GPU 可以记录一张照片,把它们分成无数小像素,然后同时处理。”
每 8 个 GPU 就配置一台 Big Sur 服务器,Facebook 使用的是擅长于图像识别的半导体供应商 Nvidia 制造的 GPU。Lee 没有确切表明到底配置有多少服务器,但是据他所说,有数千块 GPU 在工作着。公司的 Prineville,Ashburn 和 Virginia 的数据中心都安装了 Big Sur 服务器。
因为 GPU 极其耗能,与数据中心里其他服务器不同,Facebook 不得不把它们排放松散,以免产生过热点,给冷却系统带来麻烦,以至于耗能更多。现在每个七英尺高的架子里都只能放下八个 Big Sur 服务器,而这些架子过去可以容纳 30 个只负责做一些用户数据处理等日常工作的 Facebook 常规服务器。
在运行大数据中心和运用 GPU 来进行机器学习研究这些方面,Facebook 不是唯一一家。海内外的巨头,比如微软、谷歌以及百度等也运用 GPU 来进行深度学习的研究。
社交网络是非比寻常的。它开创了 Big Sur 服务器设计、其它服务器设计,以及建立 Prineville 数据中心的新纪元。公司把这些设计和计划捐献给了一个非盈利项目——开放计算项目(Open Compute Project)。这个项目由 Facebook 于 2011 年发起,旨在鼓励计算机公司互相协作,设计出低耗高效的数据中心硬件。这个项目至今已经帮助了数家亚洲硬件公司,抢占了一些传统供货商如戴尔和惠普的市场。
Facebook AI 研究项目的主管 Yann LeCun 说道,当今年早些时候 Big Sur 服务器宣布使用的时候,他相信该技术通用之后,会有更多组织建造强有力的机器学习基础设施,然后加速此领域的发展进程。
不过,未来机器学习服务器建造的计划可能不会以 GPU 为核心,如今很多家公司在致力于新芯片的设计。相比于 GPU 来说,这种芯片是特别为深度学习的算法而制作的。
今年五月,谷歌宣布其已经开始使用自己设计的 TPU 芯片来驱动产品中的深度学习软件,如语音识别。在训练之后,这一代的芯片似乎更适合于运行算法,而不是像 Big Sur 服务器一样,最初的训练步骤是为了加速。但是,谷歌已经开始第二代芯片的研究。Nvidia 和其它几家新公司包括 Nervana 也在开发为深度学习定制的芯片。
普渡大学副教授 Eugenio Culurciello 表示,深度学习的有效性意味着这种芯片将会被广泛应用。“市场对这种芯片已经有巨大需求了,而且这种需求只增不减。”
当被问到 Facebook 是否在开发定制芯片时,Lee 表示,公司正在“研究中”。