京东:三季度归属母公司净亏损28亿元,去年同期净利润76亿元
06-18
论操作的俏皮,硅谷恐怕没有哪位CEO能与黄仁勋相比。
去年,黄仁勋向微软、谷歌、亚马逊等云计算厂商提出了一个计划:这些厂商有很多配备NVIDIA GPU的服务器,NVIDIA会租用这些服务器,然后让NVIDIA的工程师对它们进行“优化”,然后使用NVIDIA将其名称出租给普通AI公司并赚取差价。
简单来说,过去微软会直接向中小企业出售云服务,但现在英伟达作为中间人介入。
当然,根据NVIDIA官方的说法,此举是为了“向云计算厂商展示在数据中心配置GPU的正确方法”[1]。
服务器还是原来的服务器,但是经过NVIDIA的“优化”之后,客户已经从微软优化到了NVIDIA。
但对于这样一个令人难以置信的提议,除了亚马逊之外的所有主要云计算厂商实际上都同意了。
今年3月,NVIDIA正式推出云计算服务DGX Cloud。
事实证明,经过NVIDIA 工程师的优化后,DGX Cloud在训练大型模型时表现更好;在此基础上,NVIDIA还破例允许短期租赁。
短短半年时间,NVIDIA就赢得了软件公司ServiceNow等大客户。
科技公司愿意与NVIDIA进行炫耀操作的真正原因可能是因为NVIDIA掌握着大模型时代最稀缺的资源——H。
目前,几乎所有公司都没有足够的计算能力。
就连 OpenAI 创始人 Altman 在听证会上也无奈表示:“如果人们少用 ChatGPT,我们会很高兴,因为我们的 GPU 供应非常短缺[2]。
”买多少H甚至可以成为决定AI成功的关键因素。
这也让英伟达有了“持H控诸侯”的底气。
1.计算机的“稀土”。
一般来说,科技公司会购买云计算厂商的服务来满足自己的算力需求。
今年3月份以来,微软Azure、亚马逊AWS等云计算厂商也推出了HGX H的租赁服务。
HGX H是由4或8个H组成的服务器。
但目前供需失衡严重,HGX H是由4台或8台H组成的服务器。
云计算厂商的库存远远不能满足市场的胃口。
微软在H1财报中特别更新了一个风险因素:如果无法获得足够的AI芯片,其云计算业务可能会中断。
很多初创公司需要排队等待3-12个月。
一旦竞争对手领先他们,他们可能会损失数百、数百亿的估值。
无数“H穷人”被迫发挥主观能动性,看看谁的路更狂野。
一位企业家在接受《纽约时报》采访时,将H比作“稀土”。
此前,他去要求美国国家科学基金会投资他,只是因为该基金会的一个项目正好有几个空缺的H。
在硅谷,人工智能企业家互相打招呼的方式已经变成了“我认识一个打着H的家伙”——那些不知道的人还以为他们在买卖毒品[4]。
GPU Utils曾计算过H潮背后的具体需求数据,对于需要自己训练大型模型、追求奇迹的公司来说,没有几万个H就不好意思出门。
Inflection AI,由前DeepMind联合创始人创立Suleiman,成立仅一年,已购买22,000 H;至于像Meta这样财力雄厚的公司,很可能会采购10万甚至更多。
对于微软Azure等云计算厂商来说,每家也至少需要3万H。
剩下的私有云总共也会消耗10万H左右。
经过计算发现,大型科技公司和少数明星初创公司的需求在美国已达到约 430,000 [5]。
如果算上其他初创企业、研究机构、大学甚至富裕国家的追捧,以及黄牛、黑市等不可控因素,实际需求很可能远远大于这个数字。
不过,据英国消息称,H今年的出货量约为55万辆[6]。
H让人产生饥饿感的核心原因之一是其近乎垄断的市场地位。
面对大模型训练的高效率需求,H在大多数情况下是最佳方案。
MPT-30B是第一个使用H训练的开源LLM(大语言模型),实际训练仅耗时11.6天;相比之下,使用上一代 A 进行训练需要 28.3 天 [7]。
如果改用参数规模更大的AI,比如B的GPT-4,效率差异会更加明显。
在赛马和赌注的时代,时间就是一切。
另外,H在模型推理方面也比A高效得多。
虽然H的初始价格约为33,000美元,但目前二手市场价格已上涨至40,000-50,000美元。
不过,如果将H和A的性能除以各自的价格,可以发现H的性价比其实比A要高。
具体训练和推断MPT-30B黄仁勋表示,“多买点” GPU,你省的钱越多(买得越多,省得越多)”,这似乎是合理的。
正因为如此,即使美国限制H/A对华出口,国内科技公司依然争先恐后地购买阉割版的H/A——尽管阉割版芯片之间的数据传输速度只有阉割版的一半前者,意味着需要安装在大型机型上。
花更多时间训练。
除了巨大的需求之外,H短缺的另一个原因是产能严重不足。
H芯片需要使用SK海力士的HBM内存和台积电的CoWoS封装——两者都太贵,而且之前没有大范围上市,而且准备的产能也不多。
由于产能提升需要时间,一些分析师预测H的短缺至少将持续到明年第一季度,而另一些分析师则认为要到明年年底才能缓解[9]。
H内部结构 H的盛况让黄仁勋在短短一年内经历了过山车般的经历。
去年第二季度,由于消费市场低迷和矿业公司倒闭,英伟达交出了一份失败的财报,“GPU卖不出去,救救我们”的表情包一度随处可见。
一年后,黄仁勋成功向资本市场展示了什么是“逆雷暴”,营收同比飙升%,大幅超出最乐观分析师的预测。
*换来大量的赞扬,黄仁勋心里知道,英伟达头上始终悬着一把利剑。
2. 不可避免的战争 今年8月,传奇工程师吉姆·凯勒对媒体评论道:“我不认为GPU是运行AI的一切。
世界讨厌垄断[11]。

”虽然这次演讲并没有给自家的AI芯片打广告之嫌,但这也是业界的共识。
事实上,购买H最多的大型科技公司基本上都不是很“轻松”:微软、谷歌、Meta都或多或少地尝试过开发自己的AI芯片。
这让英伟达面临着极其尴尬的境地:在AI芯片领域,未来几乎肯定会出现自己与“大客户”之间的争夺战。
大型科技公司选择研发自己的AI芯片,最初源于一个非常简单的需求——省钱。
最典型的就是谷歌。
早在今年,谷歌就曾推出自研芯片计划。
当时,OpenAI的首席科学家Ilya还在谷歌工作,创建了一套颠覆性的AI模型。
这一模式诞生于Ilya“奇迹源于努力”的理念。
只要输入足够、正确的数据,它就能更好地完成翻译、语音识别等任务。
然而,到了实际应用时,谷歌却遇到了困难:如果将AI服务安装在超过10亿部安卓手机上,即使每个人每天只使用3分钟,谷歌也将需要两倍的计算能力当前数据中心的情况。
当时,谷歌已经建设了15个数据中心,每个数据中心耗资数亿美元。
“超级翻倍”显然是不现实的。
最终,谷歌开发出了性能更强、功耗更低的TPU,极大提升了单个数据中心的算力供给,以更经济的方式解决了算力问题。
TPU的出现让黄仁勋如坐针毡,他开始“革新GPU”,很快在性能上实现了超强。
他的最新成果是H。
不过,H的价格太贵了。
如果H按重量出售,每盎司的价格将是黄金的一半;即使对于地球上最富有的科技公司来说,这笔“英伟达税”也是一个天文数字。
不过H的实际制造成本并不高。
根据金融咨询公司Raymond James的计算,H的成本约为美元,仅占初始价格的1/10。
黄仁勋含泪赚了10次[12]。
自研芯片的经济效益是毋庸置疑的,但除此之外,还有一个好处:垂直整合创造差异化。
堆叠计算能力并不是简单地给汽车添加汽油。
需要考虑软件适应性、自身业务需求等一系列问题。
例如,AI使用的深度学习框架有很多流派。
谷歌使用TensorFlow,Meta使用PyTorch,百度使用PaddlePaddle。
硬件需要根据不同的框架进行适配。
专门定制的AI芯片可以更好地满足您自身AI业务的需求。
因此,Meta今年重启了自研芯片计划,为PyTorch框架定制了全新的MTIA芯片。
对于大公司来说,芯片的核心考虑因素不是计算能力,而是“单位美元提供的计算能力”,即成本。
谷歌的TPU和特斯拉的Dojo已经证明定制服务的成本是可以接受的。
眼下,“反抗的火花”已经点燃。
据外媒报道,大型科技公司的云计算团队已经开始频繁说服客户改用自研芯片,而不是英伟达的GPU。
到目前为止,NVIDIA 无疑是赢家,但没有人知道这种平衡何时会被打破。
不过,面对这场不可避免的战争,英伟达也有后备计划。
3.使用H控制诸侯。
NVIDIA打的第一张卡叫做CoreWeave。
CoreWeave成立于2007年,最初是一家以太坊挖矿公司,后来转型为云计算业务。
据CoreWeave创始人介绍,该公司年营收为1万美元,仅为微软Azure的1/1,在硅谷几乎没有存在感。
然而2019年,CoreWeave突然一夜成名,先后签约了Inflection AI和Stability AI两大客户。
其年收入预计将达到5亿美元,一年内增长16倍。
此外,微软甚至决定在未来几年斥资数十亿美元购买其服务;其中,仅2019年的订单就达20亿美元。
改变CoreWeave命运的人是NVIDIA。
今年4月,NVIDIA参与投资CoreWeave;但相比美元,NVIDIA还给了它一种更稀有的资源——H. CoreWeave是全球第一家推出HGX H租赁服务的云计算公司,比微软Azure早一个月。
这个安排其实是黄仁勋的本意。
H近乎垄断的市场地位和严重的短缺给了Nvidia额外的一层权力:它可以自由决定谁将被优先考虑。
与我和 Big Tech 之间的塑料友谊相比,CoreWeave 和 NVIDIA 是真正的革命战友。
因此,Nvidia削减了对大型科技公司的H供应,转而将这一产能交给了CoreWeave等“自己的兄弟”——他们已经确保不会开发自己的芯片。
从结果来看,这一策略不仅避免了囤货现象,也确实抢到了大型科技公司的蛋糕:比如上文提到的Stability AI,一直将亚马逊AWS视为年底第一云服务商;然而,到了今年3月,苦于算力不足的Stability AI却悄然打开了CoreWeave的大门。
事实上,CoreWeave并不是NVIDIA手中唯一的卡。
这位手上有H的投资人还投资了同样是云计算公司的Lambda Labs,以及从事大型模型和应用开发的三家明星初创企业。
在每亩生产10万个大型模型的时候,H是比美元还珍贵的硬通货,也为NVIDIA创造了一个宝贵的窗口期:让尽可能多的公司使用H,建立尽可能多的生态系统尽快,并且“交朋友”更多。
” 那么这个窗口能持续多久呢? 4、结语 英伟达的一系列“性感操作”引起了美国反垄断机构的关注。
同时,目前全球抢H的局面恐怕也不会持续太久。
如上所述,由于台积电和SK海力士的储备产能不足,H产能受到限制;随着新生产线的逐步投产,短缺现象将逐步得到缓解。
此外,强劲的需求可能不会持续。
事实上,越来越多的科技公司和研究机构正在选择开源大型模型。
随着市场上优质的开源模型越来越多,初创企业和研究机构不再需要自己训练,而是可以直接下载开源模型并根据自己的业务需求进行开发或推理。
Meta 发布开源大模型 Llama 后,来自斯坦福、卡内基梅隆等大学的研究人员联手基于其创建了开源大模型 Vicuna,下载量很快就突破了 10000 次。
在可见的未来,算力的主要使用场景很可能从训练转向推理——届时,H将不再孤军奋战。
因为与追求最大效率的训练场景不同,AI推理实际上更注重成本效益。
另一方面,以大模型为代表的生成式AI目前面临的问题是,面对高昂的算力成本,除了英伟达之外,还没有人赚到钱。
2017年推出CUDA平台时,NVIDIA以其超越行业的远见推动了AI的快速进步。
如今,英伟达的骄人业绩似乎是一种拷问:它是否从AI的推动者变成了AI进步的阻力? 【本文由投资界合作伙伴元川研究院授权发表。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-21
06-17
最新文章
三只松鼠:门店扩张已全面暂停
Nvidia 已准备好“统治”AI
【创业24小时】2023年11月16日
【创业24小时】2022年10月20日
倒计时一天,浙江这座小镇要火了!
沃图网络获数千万A轮投资,加大投入海外网红营销SaaS平台建设
泰山天使基金部分退出拉手半年回报180倍
西格数据完成1000万元A+轮融资,国发创投领投