BT

如何利用碎片时间提升技术认知与能力? 点击获取答案

谷歌公布了TPU(优化了TensorFlow的ASIC)的更多细节

| 作者 Dylan Raithel 关注 8 他的粉丝 ,译者 足下 关注 1 他的粉丝 发布于 2016年7月4日. 估计阅读时间: 2 分钟 | CNUTCon 了解国内外一线大厂50+智能运维最新实践案例。

继Google CEO Sundar Pichai早些在Google I/O大会上公布了TPU(Tensor Processing Unit, 张量处理单元)的研发之后,最近Google的硬件工程师Norm Jouppi又公布了TPU的若干细节

TPU为了更好的用TensorFlow(TF)来实现机器学习功能而特意优化了ASIC,降低了计算精度以减少完成每个操作所需要的晶体管数量。目前为止Google还没有提供性能测试数据,但Google声称这些优化有助于提高芯片每秒钟处理的操作数量。

Google表示这个项目几年前就已经开始了,而且它的技术领先了当前业界水平整整七年,但Google并没有向社区提供可供分析的数据。Jouppi说只需22天就可以完成这种芯片从原型测试到数据中心部署的完整流程。这也是Google将研究成果应用于实际生活的又一个例子。

大家关心的问题集中于TPU与大家熟悉的东西之间有何异同,比如Nvidia的Telsla P100等芯片,或者PaaS提供者Nervana提供的机器学习服务等。Google公布的信息中表示TPU也许可以与Nvidia四月份发布的Tesla P100芯片相类比。

最近有消息说Google在自行研发和生产芯片,并分析了对Intel等业界龙头公司的潜在影响。Jouppi提到Google实际上想要引领的是机器学习领域,并且要让客户享受到这些变革带来的好处,但他这一次没有给出更细节的计划及内容。

在原贴的评论中有人提到TPU有可能会取代Nvidia的P100TX1,以及IBM的TrueNorth,但没有给出详细的评测数据和对比。Google已经将TPU用于许多内部项目,如机器学习系统RankBrain、Google街景、以及因为在二月份的围棋比赛中击败韩国大师李世石而声名鹊起的AlphaGo等。但Google没有给出将TPU应用于外部项目的计划。

查看英文原文Google Details New TensorFlow Optimized ASIC


感谢张龙对本文的审校。

给InfoQ中文站投稿或者参与内容翻译工作,请邮件至editors@cn.infoq.com。也欢迎大家通过新浪微博(@InfoQ@丁晓昀),微信(微信号:InfoQChina)关注我们。

评价本文

专业度
风格

您好,朋友!

您需要 注册一个InfoQ账号 或者 才能进行评论。在您完成注册后还需要进行一些设置。

获得来自InfoQ的更多体验。

告诉我们您的想法

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我
社区评论

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

允许的HTML标签: a,b,br,blockquote,i,li,pre,u,ul,p

当有人回复此评论时请E-mail通知我

讨论

登陆InfoQ,与你最关心的话题互动。


找回密码....

Follow

关注你最喜爱的话题和作者

快速浏览网站内你所感兴趣话题的精选内容。

Like

内容自由定制

选择想要阅读的主题和喜爱的作者定制自己的新闻源。

Notifications

获取更新

设置通知机制以获取内容更新对您而言是否重要

BT