用这款软件看看APP在用户背后做了什么
06-21
众所周知,随着生成式AI的普及,NVIDIA正在数据中心领域大杀四方,这也帮助他们取得了更好的性能。
该公司公布的数据显示,截至7月30日的第二季度,英伟达营收为1000万美元,环比增长88%,同比增长3%。
然而,英伟达当前的许多性能预期都是基于当前的芯片和硬件。
不过,有分析师预测,如果算上企业AI及其DGX云产品,这个数据中心的市场规模将至少是游戏市场的3倍甚至4.5倍。
瑞银分析师Timothy Arcuri也表示,英伟达目前来自DGX云计算的收入约为10亿美元。
但在与客户交谈后,他相信该公司每年可以从该部门创造高达 1 亿美元的收入。
他给出的理由是,英伟达仍然可以为DGX云上添加额外的产品,包括预训练模型、HGPU的访问等等。
他表示,目前这些* GPU 仍然“非常难以”获得,可以根据需要进行扩展和缩小,并与现有的云或本地基础设施“基本上无缝”集成。
因此,NVIDIA最近公布了包括H、B、X、B40、X40、GB、GX、GBNVL、GXNVL等新组件的产品路线图,这对于NVIDIA未来的发展非常重要。
数据中心路线图 根据servethehome披露的路线图,Nvidia的一大变化是他们现在将基于Arm的产品和基于x86的产品分开,其中Arm处于最前沿。
作为参考,普通客户现在甚至无法购买 NVIDIA Grace 或 Grace Hopper,因此在 2019 年路线图的堆栈中显示它是一个重要的细节。
以下是NVIDIA提出的路线图:在Arm方面,NVIDIA计划在2020年推出GHNVL,2019年推出GBNVL,然后在2019年推出GXNVL。
我们已经看到x86 NVL系列与NVIDIA HNVL一起推出,但这些都是Arm-基于的解决方案。
然后是 GHNVL,于 推出。
紧随其后的是 GBNVL,然后是 GXNVL。
还有一个非 NVL 版本。
当 NVIDIA 宣布双配置的新 NVIDIA Hopper GB HBM3e 型号(最终可能成为 GHNVL)时,我们用 GB/GB 内存覆盖了 GH(非 NVL)。
据介绍,双配置的内存容量是当前一代产品的 3.5 倍,带宽是当前一代产品的 3 倍,其中产品具有 2 个 Arm Neoverse 核心、8 petaflops 的 AI 性能和 GB 的最新 HBM3e 内存技术。
GB将是2019年的下一代加速器,GX将是2019年的下一代加速器。
针对x86市场,Nvidia预计将在2020年推出H,它将在Hopper架构上进行更新,并拥有更多的内存。
B和B40是下一代架构组件,其次是2018年的X和X40。
考虑到B40和X40处于“企业”轨道,而当前的L40S是PCIe卡,这些很可能是PCIe卡。
在网络方面,Infiniband和以太网都将在2020年从Gbps发展到1.6Tbps,然后在2020年达到1.6Tbps。
鉴于我们在今年年初研究了 Broadcom Tomahawk 4 和交换机,并在今年看到了合作伙伴的 5G Broadcom Tomahawk 5 交换机,感觉 NVIDIA 的以太网产品组合在以太网方面明显落后。
Broadcom 2020 年的 G 系列似乎与 NVIDIA 2018 年的升级保持一致,NVIDIA 于 2020 年中期发布了 Spectrum 4,大约在 21-22 个月前发布了 Tomahawk 5。
在业界,芯片的发布时间和投入生产之间通常存在很大的差距。
可见,在Infiniband上,NVIDIA是孤军奋战。
从该路线图来看,我们没有看到 NVSwitch/NVLink 路线图。
其他人工智能硬件公司应该对 NVIDIA 的企业人工智能路线图感到震惊。
在人工智能训练和推理领域,这意味着在 2020 年更新当前的 Hopper,然后在 2020 年晚些时候过渡到 Blackwell 一代,并在 2020 年采用另一种架构。
在 CPU 方面,我们最近看到了令人兴奋的更新节奏, x86 方面的核心数量战争大幅增加。
例如,从 2020 年第二季度初到 2020 年第二季度,英特尔* 至强核心数量预计将增加 10 倍以上。
NVIDIA 似乎在数据中心领域紧跟这一趋势。
对于制造芯片的人工智能初创公司来说,考虑到 NVIDIA 新路线图的步伐,现在这是一场竞赛。
对于英特尔、AMD 或许还有 Cerebras 来说,随着 NVIDIA 销售大型??高利润芯片,目标将会改变。
它还将基于Arm的解决方案放入*竞赛中,这样不仅在GPU/加速器端,而且在CPU端也能获得高利润。
以太网似乎是一个值得注意的落后者,这感觉很奇怪。
精准的供应链管控 根据半分析,英伟达之所以能够在拥挤的AI芯片市场中脱颖而出,除了在硬件和软件上的布局外,对供应链的控制也是英伟达确保安全的重要因素。
它当前的位置。
原因。
英伟达过去多次表明,他们可以在短缺期间发挥创造力来增加供应。
英伟达愿意承诺不可取消的订单,甚至预付款,导致了巨大的供应。
目前,Nvidia 有 5000 万美元的采购承诺、产能义务和库存义务。
Nvidia 还拥有额外 38.1 亿美元的预付费供应交易。
仅在这方面,没有其他厂商可以匹敌,因此他们将无法参与正在兴起的人工智能浪潮。
从英伟达成立之初起,黄仁勋就一直在积极布局其供应链,以推动英伟达的巨大增长野心。
在回忆起他与台积电创始人张张的早期会面时,黄仁勋表示:“2009年,当张张和我见面时,英伟达当年的营收为 10,000 美元。
我们有人,然后我们见面了。
你们可能不相信这个,但是张忠谋过去经常打销售电话,对吧?你会进来拜访客户,我会向张忠谋解释英伟达做了什么,你知道,我会解释我们的芯片尺寸需要多大,还有。
它每年都变得越来越大,你会定期回到英伟达,让我再讲一遍这个故事,以确保我需要那么多晶圆,我想,明年我们开始与台积电合作。
是 1.27 亿,从那时起,我们几乎每年都增长 %,直到现在。
”张忠谋一开始并不相信英伟达需要这么多晶圆,但黄仁勋坚持了下来,并利用了当时的游戏产业。
巨大的增长。
英伟达通过大胆推出产品而取得了巨大成功,而且往往都取得了成功。
当然,他们必须时不时地减记价值数十亿美元的库存,但他们仍然从超额订购中获得积极的好处。
如果某件事有效,为什么要改变它? 最近,Nvidia 拿走了 SK 海力士、三星和美光 HBM 的大部分供应。
这是GPU和AI芯片正在追逐的另一个核心。
Nvidia 已向所有 3 个 HBM 供应商下了非常大的订单,并且正在挤压除 Broadcom/Google 之外的其他供应商的供应。
此外,Nvidia 还买下了台积电的大部分 CoWoS 供应。
但他们并没有就此止步,他们还出去考察并购买Amkor的产能。
Nvidia 还利用 HGX 板或服务器所需的许多下游组件,例如重定时器、DSP、光学器件等。
拒绝英伟达要求的供应商通常会受到胡萝卜加大棒的组合对待。
一方面,他们可以从英伟达那里获得看似难以想象的订单。
另一方面,它们也面临着由Nvidia现有供应链设计的问题。
他们仅在供应商至关重要并且无法被设计出来或多源时才使用提交和不可取消性。
每个供应商似乎都认为自己是人工智能的赢家,部分原因是英伟达从他们那里下了很多订单,他们都认为自己赢得了大部分业务,但实际上,英伟达的增长速度如此之快,甚至连英伟达都认为自己赢得了大部分业务。
这超出了他们的想象。
回到上面的市场动态,虽然 Nvidia 的目标是明年数据中心销售额超过 1 亿美元,但只有 Google 拥有足够的上游产能来拥有超过 10,000 美元规模的有意义的单位。
即使AMD最新的产能调整,他们在AI方面的总产能仍然非常有限,最多只有几十万台。
精明的商业计划 Nvidia 正在利用 GPU 的巨大需求,利用它们向客户进行追加销售和交叉销售,这已不是什么秘密。
供应链多方消息人士人士对semianalysis表示,NVIDIA正在根据多种因素优先考虑企业,包括但不限于:多方采购计划、计划生产自己的人工智能芯片、以及购买NVIDIA的芯片。
DGX、网卡和交换机。
Semianalysis指出,CoreWeave、Equinix、Oracle、AppliedDigital、Lambda Labs、Omniva、Foundry、Crusoe Cloud和Cirrascale等基础设施提供商面临的分配产品数量比大型科技公司更接近其潜在需求。
作为亚马逊。
事实上,Nvidia 的捆绑销售非常成功,尽管之前是一家非常小的光收发器供应商,但根据 semianalysis 十亿美元的出货量,他们的业务在第一季度增长了两倍,明年的价值有望超过 10%。
这远远快于 GPU 或网络芯片业务的增长速度。
而且,这些策略都是经过深思熟虑的,例如目前在 Nvidia 系统上实现具有可靠 RDMA/RoCE 的 3.2T 网络的唯一方法是使用 Nvidia 的网卡。
这主要是因为Intel、AMD、Broadcom缺乏竞争力,仍然停留在G上。
据Semianalysis称,Nvidia正在趁机管理其供应链,使其G InfiniBand网卡的交货时间明显低于G以太网网卡。
请记住,两个 NIC (ConnectX-7) 的芯片和电路板设计是相同的。
这主要取决于 Nvidia 的 SKU 配置,而不是实际的供应链瓶颈。
这迫使公司购买 Nvidia 更昂贵的 InfiniBand 交换机,而不是使用标准以太网交换机。
当您购买具有 NIC 模式的 Bluefield-3 DPU 的 Spectrum-X 以太网网络时,Nvidia 会例外。
事情还不止于此,只要看看 L40 和 L40S GPU 的供应链有多疯狂就知道了。
Semianalysis透露,Nvidia正在推动L40S的销售,以便那些OEM厂商能够赢得更多的H分配,而这些OEM厂商也面临着购买更多L40S的压力,从而获得更好的H分配。
这与 Nvidia 在 PC 领域玩的游戏相同,笔记本电脑制造商和 AIB 合作伙伴必须购买大量 G/G(中低端 GPU),才能从稀缺、利润率更高的 G/G 上获得丰厚回报。
发行版(高端和旗舰 GPU)。
台湾供应链中的许多人认为 L40S 比 A 更好,因为它具有更高的 FLOPS。
需要明确的是,这些 GPU 不适合 LLM 推理,因为它们的内存带宽不到 A 的一半,并且没有 NVLink。
这意味着,除了非常小的模型之外,以良好的总拥有成本在它们上运行法学硕士几乎是不可能的。
高批量大小具有不可接受的令牌/秒/用户,使得理论上的 FLOPS 在实践中对于 LLM 毫无用处。
Semianalysis 表示,OEM 厂商也面临着支持 Nvidia 的 MGX 模块化服务器设计平台的压力。
这有效地消除了设计服务器的所有艰苦工作,但也使其商品化,创造了更多竞争并压低了 OEM 利润。

戴尔、HPE、联想等企业明显抵制MGX,但AMD、广达、华硕、技嘉、和硕、华擎等台湾低成本企业却争先恐后地填补空白,带来低成本的“企业“人工智能”商业化当然,这些涉足L40S和MGX游戏的OEM/ODM也获得了Nvidia主线GPU产品的更好配置,虽然NVIDIA面临着芯片厂商和系统厂商自研芯片的攻击,但这些布局似乎让Nvidia受益匪浅。
短期内他们仍将是AI时代最成功的“铲子卖家”。
参考链接【本文由投资界合作伙伴微信公众号授权:半导体行业观察本平台独家。
提供信息存储服务。
】如有疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-21
06-06
06-17
06-17
06-17
06-21
06-17
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态