图形分解功能。GPU之所被设计出来,就是用作图形分解的。
由于必需反对图形分解功能,GPU芯片减少了大量体积,这就意味著它在一定程度上要比专用芯片更为陈旧。Google在最近的一篇博客中声称,其TPU在推理小说性能上要比现代GPU和CPU慢15-30倍,同时功耗还要较低30-80倍。
(Nvidia回应反驳道,谷歌是在拿TPU和原有的GPU展开较为。)事实上,这种对比并不几乎公平。GPU是通用型芯片,可继续执行绘图运算工作,用途多元。
TPU则归属于ASIC,也就是专为特定用途设计的类似规格逻辑IC,由于只继续执行单一工作,速度更慢也在情理之中。TPU和GPU之间除了性能对决,更加多代表的是ASIC和通用型芯片这两种设计思路间的博弈论。除了Nvidia和谷歌,另众多芯片巨头Intel也重新加入了这场博弈论。
不久前,Intel以多达4亿美元的价格并购了AI芯片初创企业Nervana,并声称将在2020年之前将深度自学训练速度提高100倍。Nvidia回应,Tesla V100是它在深度自学领域更为专业化,并需要与这些自定义化芯片竞争的有力证据。
Nvidia GPU工程部高级副总裁Jonah Alben在谈及芯片竞赛时说:“当你考虑到包含一款用作深度自学训练的杰出芯片的所有要素时,你不会找到比特率、输出/输入和数学运算能力都很最重要。而在所有的这些方面,我们都是专家。只要我们都用完全相同的油漆刷作画,就告诉究竟谁更加强劲了。”(公众号:)指出,尽管谷歌在自定义化AI芯片领域走在了最前茅,但Nvidia仍将在未来很多年里维持竞争力。
Gartner的分析师马克·洪(Mark Hung)说,“目前为止,没任何一款AI芯片构建了大规模销售。尽管对Nvidia来说,潜在的危险性一直不存在,但在这些公司大规模销售AI芯片前,并会对Nvidia导致确实的威胁。”这些将要来临的AI芯片与Nvidia之间的明争暗斗指出了一点,深度自学计算出来对更强计算能力的市场需求日益充沛。
几年前GPU步入大爆发,正是因为它将深度自学网络的训练时间从几个月延长到了几天。早在20世纪50年代就早已问世的深度自学,由于有强劲的计算能力作为后盾,此刻再一愈演愈烈出有了它的创造力。但是随着更加多企业企图将深度自学带入它们的产品和服务,对更慢的芯片的市场需求将没有止境。
Alben说:“以我所闻,人类必须无限量的深度计算能力。就越相似无限就越好。
”版权文章,予以许可禁令刊登。下文闻刊登须知。
本文来源:南方双彩-www.jiawanghui.com
Copyright © 2001-2024 www.jiawanghui.com. 南方双彩科技 版权所有备案号:ICP备69637241号-7网站地图