淘宝饮品直播加“猛将”,拉飞哥首秀实现“一个小目标”
06-17
雷锋网出版社,Moor Insights & Strategy的高级分析师Karl Freund以??为题,分三部分阐述了他对深度学习芯片的观察。
前两篇文章《芯片巨头们年的AI芯片之争会如何?》《年全球最值得关注的AI芯片初创公司》分别解读了巨头和创川公司的AI芯片。
在本系列的最后一篇文章中,作者 从训练和推理市场的角度阐述了 NVIDIA 如何在竞争更加激烈的市场中保持领先地位。
我们先从Nervana的历史说起。
首先,我们来看看英特尔和Nervana之间的故事。
在被英特尔收购之前,Nervana声称其产品性能将比GPU至少高出10倍。
然后有趣的事情发生了,NVIDIA 的 TensorCores 让所有人大吃一惊,因为 TensorCores 的性能不是 Pascal 的 2 倍,而是 5 倍。
然后,NVIDIA 通过 NVSwitch 再次将性能提高了一倍,使其能够提供令人惊叹的高性能(价格为 400,000 美元,非常昂贵)8-GPU DGX-2 服务器,击败了大多数(如果不是全部)竞争对手。

对手。
同时,NVIDIA CuDNN 库和驱动程序的性能大约提高了一倍。
它还构建了一个基于 GPU 的云,让使用 GPU 变得非常简单,只需单击并下载约 30 个用于深度学习和工作负载的优化软件堆栈容器。
所以,正如上一篇文章中提到的,英特尔10倍的性能优势已经消失,Nervana不得不重新回到绘图板,英特尔承诺在年底前推出新芯片。
英伟达基本上证明了0多名基础扎实的工程师可以超越50名顶尖工程师(雷锋网注意到Nervana被收购时有50人的团队)。
没有人应该对此感到惊讶,对吧? 0工程师团队的优势进入了这一年,竞争对手再次声称他们正在开发的芯片比Nvidia GPU具有10甚至倍的性能优势。
需要说明的是,NVIDIA拥有0名工程师的团队,并与全球顶尖研究人员和最终用户建立了合作关系。
现在,他们正在为NVIDIA下一代7nm芯片寻找最佳设计,在我看来,这将是NVIDIA产品从“带AI的GPU芯片”到“带GPU的AI芯片”的转变。
图 1:NVIDIA 的 DGX-2 超级计算机一体机可以在可连接到 NVSWITCH 的 16 个 VGPU 上为 NVIDIA 工程师提供 2 个 PETA-OPS AI 性能。
下面的分析虽然简单,但有助于找到关键问题的答案。
我们先从谷歌TPU开始,这是一款性能优异的ASIC。
我看到分析师估计每个TPU芯片集成了大??约2-25亿个晶体管。
Volta V 采用 12 纳米制造工艺,拥有约 1 亿个晶体管,是台积电可以制造的最大芯片。
随着 NVIDIA 使用的制造工艺从 12nm 变为 7nm,该芯片可包含大约 1.96 (1.4x1.4) 个晶体管。
因此从理论上讲,如果 NVIDIA 不添加图形逻辑单元(这是不可否认的),它将另外拥有 1 亿个晶体管,这大约是 TPU 中逻辑数量的十倍。
假设逻辑差两倍。
在这种情况下,NVIDIA 工程师仍然拥有 5 倍的逻辑单元可用于 AI 功能。
现在,NVIDIA可能会全力以赴提高性能,而不是降低成本或功耗。
在培训市场,这就是用户想要的——更短的培训时间。
关于 NVIDIA 可能会做出哪些改进,有很多意见,包括片上内存或处理器中的更多 TensorCore。
我的观点是,NVIDIA 毫无疑问拥有可用于芯片创新的储备,就像 TensorCores 一样。
我采访过很多 AI 芯片初创公司,但我最尊敬的那些公司告诉我,不要低估 NVIDIA,也不要认为 NVIDIA 局限于 GPU 思维。
NVIDA DLA 和 Xavier,无论是 ASIC 还是 SoC,都证明 NVIDIA 可以构建各种加速器,而不仅仅是 GPU。
因此,许多初创公司的首席执行官决定不走 NVIDIA 路线,而是首先进入推理市场。
我认为NVIDIA在培训市场的劣势不会长期存在。
它目前的问题可能是芯片成本高,但对于AI训练,客户愿意付出这个代价。
此外,在推理市场上,NVIDIA 的 Xavier 芯片也是令人印象深刻的。
深度学习的寒武纪大爆发有利于可编程性让我们回到寒武纪大爆发的想法。
NVIDIA指出,我们仍处于AI算法研究的早期阶段。
例如,用于图像处理的卷积神经网络 ASIC 可能(而且几乎肯定会)在其他网络(例如 GAN、RNN 或尚未发明的神经网络)上表现非常差。
然而,如果 NVIDIA 能够解决迫在眉睫的内存墙问题、GPU 的可编程性,再加上 NVIDIA 工程师的生态系统,GPU 应该能够相当快地适应新形式的神经网络处理。
NVIDIA通过NVLINK创建了8-GPU和GB高带宽(HBM)内存网络,以非常高的价格解决内存问题。
我们必须等待下一代 GPU 才能看到它是否以及如何解决延迟和带宽问题,这将需要约 10 倍于 HBM 性能的内存。
边缘和数据中心推理市场具有多样化的需求,并且有望快速增长,但我怀疑大规模推理市场将是一个特别有吸引力的市场。
毕竟,随着越来越多的企业关注并抢占这个市场,产品最终的利润空间可能会相当薄。
现在,有些推理很简单,但有些推理却很困难。
后者市场将保持较高的利润率,因为只有配备具有并行处理能力的CPU(如Nervana)、GPU、DSP和ASIC的复杂SoC才能提供自动驾驶等所需的性能。
英特尔工作人员 Naveen Rao 最近在 Twitter 上发文称,Nervana 推理处理器可能基于 10nm SoC,集成 Ice Lake CPU 核心。
NVIDIA 已经通过其用于自动驾驶的 Xavier SOC 引领了这种方法。
Xilinx 正在采取类似的方法,其 Versal 将在今年晚些时候推出。
任何想要采取这种方法的初创公司都需要具备两个特征:1)非常高的能源消耗率,2)创新的产品路线图,使他们能够领先一步。
结论综上所述,我强调以下几点: 1、人工智能的未来需要专用芯片,专用芯片的市场将变得巨大。
2、全球最大芯片公司希望赢得未来AI芯片大战。
虽然英特尔正在迎头赶上,但不要低估它的能力。
3. 资金雄厚的初创公司有很多,其中一些会取得成功。
如果您想投资其中一款,请确保他们不会低估 NVIDIA 的功能。
4.未来五年,中国将在很大程度上摆脱美国的人工智能技术。
5、NVIDIA拥有0多名工程师,其专为AI设计的下一代高端GPU可能会让我们大吃一惊。
6、推理芯片市场将快速增长,特定应用领域也存在市场空间。
FPGA,尤其是Xilinx的下一代产品,可能会在这一领域发挥重要作用。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态