谷歌的机器学习专用芯片让AI速度更快、更高效

作者:admin  发表时间:2017-11-09  浏览:108  海淘动态

近期,谷歌(微博)正在开发专用机器学习芯片TPU。在人工智能硬件的军备竞赛中,这是谷歌的最新一步举措。TPU是英文张量处理单元的缩写。TPU的设计可匹配谷歌的开源机器学习库TensorFlow使用,从2015年开始就被用在谷歌的数据中心中。本月早些时候,谷歌首次公布了这种设备的性能数据。谷歌表示,当前一代TPU的设计支持推理运算,即利用经过训练的神经网络去完成某些功能,例如通过谷歌Now识别语音命令。对于这些任务,谷歌表示,TPU的速度要比同一代GPU和CPU快15到30倍,而能效要高出30到80倍。自60年代以来,CPU(中央处理器)是几乎所有计算机的核心。然而,这种芯片并不适合当代机器学习算法,尤其是深度学习的计算要求。到00年代末,研究人员发现,显卡非常适合这类任务的并行计算要求。因此,GPU(图形处理单元)成为了神经网络设计时的事实标准。不过,随着谷歌对机器学习技术的进一步开拓,该公司希望开发订制的硬件产品,以满足专门需求。负责该项目的首席工程师诺姆·朱庇(Norm Jouppi)在博客中表示:对TPU的需求从6年前出现,当时我们开始在产品中越来越多的地方使用对计算资源需求庞大的深度学习模型。使用这些模型带来的计算开销令我们担忧。考虑一种场景:如果用户每天使用谷歌语音搜索3分钟时间,我们使用基于当前处理单元的深度神经网络来支撑语音识别系统,那么我们必须将谷歌数据中心的数量增加一倍!英伟达则认为,这样的比较并不恰当。谷歌将TPU与服务器级别的英特尔Haswell CPU和英伟达K80 GPU进行了对比。然而自那时以来,英伟达GPU已经走过了两代产品。英特尔没有对此置评,但Haswell处理器早已是3代之前的产品。英伟达在博客中表示:英伟达Kepler GPU的架构源于2009年,帮助外界了解用GPU加速深度学习计算的可能性。然而,这款GPU并未针对这类任务进行优化。英伟达提供了最新的测试数据。该公司指出,最新的P40 GPU速度能达到TPU两倍。不过重要的是,TPU的能耗仍好于英伟达的新款GPU,而谷歌很可能也已准备好用新一代的TPU去优化设计。TPU并不会颠覆芯片市场。谷歌不计划向竞争对手销售TPU芯片,而TPU将完全专注于推理运算。在训练过程中,谷歌仍大量使用英伟达GPU。因为,谷歌没有对英伟达的说法进行反驳。全球只有少数几家公司有资源和意愿,从头开始在一个全新的领域开发产品,而谷歌是其中之一。不过,谷歌也是全球最主要的处理器采购者之一。因此,如果谷歌认为只有自主设计才能满足需求,那么将是一个引起芯片厂商警觉的信号。确实,这正是谷歌的想法之一。NetworkWorld的史蒂夫·帕特森(Steve Patterson)表示:谷歌发表这篇研究论文是为了引起机器学习圈子和芯片厂商的讨论。目前是时候提供现成的解决方案,用于规模执行推理运算。分析师卡尔·弗伦德(Karl Freund)表示,距离这类产品的推出或许并不遥远。考虑到市场的快速发展,以及对更强大性能的渴望,我认为芯片厂商将不可避免地推出专用于机器学习的芯片。英伟达不太可能让出当前的市场主导地位。今年晚些时候,英特尔将推出首款基于Nervana机器学习技术的芯片。去年8月,英特尔收购了Nervana。一些移动芯片公司也将试水这一市场。ARM的Dynamiq微架构帮助客户在芯片中直接集成人工智能加速器,从而将原生的机器学习功能引入智能手机等设备中。高通的Project Zeroth项目已经发布软件开发工具包,可以在搭载骁龙处理器的智能手机和无人机等设备中运行深度学习程序。谷歌发布TPU或许只是为了确保这些公司向着正确的方向发展。(编译/昱烨)
海客讨论(0条)

头像

0/300

微博发布

部分图片内容来自于网友投稿

476.39ms