6 月 20 日,谷歌近期发表的一篇学术论文,该论文或将为机器学习的未来提供蓝图。谷歌的这篇论文题为“机器学习一个模式足矣(One Model to Learn Them All)”,为打造一种能够很好地处理多任务的单一机器学习模式提供了样板。
谷歌公司的研究人员将这种模式称为“多任务模式(MultiModel)”。这种多任务模式基于多种任务进行训练,包括翻译、语言解析、语音识别、图像识别和目标检测等。尽管训练结果与现有的方法相比还没有大幅进步,但却能够表明,基于多种任务来训练机器学习系统可能会有助于提升整体性能。
例如,多任务模式在基于力所能及的所有行动来进行训练时,即相对于用单一行动进行训练,此刻多任务模式下的机器翻译、语音和解析等准确性都能够得到提升。
谷歌的这篇论文可能会为研发能够更加广泛应用、更加精准的未来机器学习系统提供样板。这一系统未来的应用广泛程度有准确度都可能大大超过当前市场存在的狭义解决方案。更为重要的是,这些技术(或其分支)或许会有助于减少打造可靠机器学习算法时所需的训练数据量。
这主要是由于谷歌研究团队的研究结果已经表明,当多任务模式基于其力所能及的各种任务进行训练时,执行任务的准确性会在训练数据减少的情况下而提高。这一点至关重要,因为在某些领域,积累足够多的大规模训练数据是非常困难的。
然而,谷歌目前并没有宣布自己已经掌握了那种能够即刻学会所有任务的熟练算法。正如多任务名称的含义那样,多任务网络包括了针对不同挑战而定制的系统,以及帮助向那些专家算法直接输入的系统。谷歌的此番研究的确表明,该公司采取的方法将对未来研发解决各个领域问题的类似系统产生帮助作用。
值得指出的是,这方面的研究仍要进行大量的试验。谷歌的研究结果还没有得到验证,目前也很难弄清这项研究如何才能很好地拓展到其它领域。“谷歌大脑(Google Brain)”团队已经发布了多任务代码,以此作为 TensorFlow 开源项目的一部分,因此,其他人也可以用这种代码进行试验,并挖掘更多的结果。
另外,谷歌还有一些改进的明确途径。谷歌研究团队指出,他们没有花费过多的时间来优化系统的部分固定参数(即机器学习中的“超级参数(hyperparameters)”)。他们还表示,经过越来越多的调整和改进,未来多任务模式的准确性也会进一步提高。