据 GIGAOM 报道,昨日,Facebook 人工智能研究院(FAIR)开源了一系列软件库,以帮助开发者建立更大、更快的深度学习模型。开放的软件库在 Facebook 被称作模块。用它们替代机器学习领域常用的开发环境 Torch 中的默认模块,可以在更短的时间内训练更大规模的神经网络模型。
这些模块为适用英伟达的 GPU 进行了优化。一部分可以用来训练大型计算机视觉系统。部分模块也可以用来训练处理不同类型数据的模型。既可以进行文本识别、图像识别,也能用于语言模型的训练。部分模块将大型卷积神经网络模型的训练速度提升了 23.5 倍。
尽管这些模块在速度和规模上都有所提升,但 FAIR 的研究员 Soumith Chintala 表示,它们不会对当前已经在使用的模型产生非常大的影响。它的主要优势在于,处理像 Facebook 面对的巨大规模数据处理时,可以让研究人员使用一些过去不太可能使用的模型。
Facebook 正与英伟达合作,重构一些英伟达用于处理网络规模级数据的深度学习编程软件库。为了让 GPU 更好地支持深度学习研究,英伟达也在简化 GPU 编程难度。所以,尽管 Facebook 使用的数据规模超过了目前许多主流的深度学习研究,它或许能与英伟达一起找到更好的处理方案。
此次软件库的开放意味着 Facebook 开始在更大的范围内开放深度学习资源。此前,他们曾经开放过数据中心和网络规模软件。Chintala 表示,接下来 Facebook 会持续地开放代码,而不会像过去那样只在偶尔取得突破性进展的时候开放部分代码。
深度学习的应用场景日益丰富,从相册处理到无人驾驶汽车都可以用到深度学习的模型。代码开源也变得越来越重要。Facebook 加入了 Torch、Caffe、和创业公司 Skymind 推出的 Deeplearning4j 开放框架。此前 Goolge 也曾开源了基于深度学习的工具 word2vec 和一些支持深度学习的数据集。
[本文参考以下来源:gigaom.com, research.facebook.com]