乐纯生物科技完成新一轮融资,君联资本领投
06-17
微软将在下个月(11月14日)的年度技术大会上正式推出自家的*AI芯片。
这款专为AI研发设计的芯片在功能上与Nvidia的GPU芯片(H)类似。
它专为训练和运行大型语言模型的数据中心服务器而设计。
NVIDIA的GPU芯片目前用于微软的数据中心服务器。
微软推出这款AI芯片的目的就是为了尽快摆脱对Nvidia GPU的依赖。
由于Nvidia GPU的价格高昂,对于微软来说已经变得难以承受。
从投资产出比(ROI)计算,微软的生成式AI产品亏损严重。
随着微软AI芯片的正式发布,其与OpenAI之间的竞争将完全公开化,变得更加积极和直接。
01 微软生成式AI产品亏损 GitHub Copilot是微软首款生成式AI产品(2018年推出),可以帮助开发者编写、调优和转换程序代码。
由于它大大缩短了开发者的编程时间,目前拥有超过 10,000 名用户,其中约一半直接在 Copilot 上编程。
Microsoft 对每个个人用户每月收费 10 美元,对企业版每个帐户每月收费 20 美元。
GitHub Copilot 为微软带来了超过 1 亿美元的年收入。
然而,大型生成式AI模型的高昂成本对于年营收超过1亿美元的微软来说难以承受。
10,000 个用户中每个用户每月 10 美元的 Copilot 服务费无法支撑 Copilot 的高额运营成本。
据知情人士透露,今年年初,微软Copilot每个用户的平均每月损失超过20美元,部分用户甚至损失高达80美元。
亏损的原因是成本高,而造成成本高的一个关键因素就是英伟达的GPU芯片。
通常,像微软这样的人工智能巨头通过数据中心训练和运行自己的大型模型,并在云端向用户交付(订阅付费)人工智能产品。
OpenAI 的 ChatGPT 也在 Microsoft 的 Azure 云上进行训练、运行和交付。
微软和OpenAI都一致认为,在大型模型的训练和运行中,完全依赖Nvidia的GPU芯片的成本将“高得惊人”。
由于需要进行专门的AI计算,这些数据中心的服务器大部分都配备了NVIDIA GPU芯片。
8块这样的GPU的价格在20万美元左右。
OpenAI的ChatGPT依赖于这些昂贵的NVIDIA芯片,今年年初其日常运营成本高达约70万美元。
如果将其大型AI模型部署在Bing、Office、GitHub等产品中,微软将需要投入数百亿美元的硬件基础设施成本,其中AI芯片占很大比例。
为了“弥补”这一输入与输出的差距,包括微软在内的各路AI玩家都在竭尽全力。
微软和谷歌都在计划如何提高人工智能产品的定价。
Zoom推出了简化版的AI产品,Adobe则限制了每月的用户数量,并根据用户的实际使用情况收取特定费用。
自研芯片、更高的定价……这些都不是解决方案,但现实是,人们对AI商业化的期望太高,但商业化模式仍不明确。
当前生成式人工智能的商业化无法应用大规模网络效应,而大规模网络效应曾帮助谷歌、亚马逊和 Facebook 各自获得独特的优势。
这并不意味着使用的人越多,成本就越低。
几乎每次使用生成式人工智能产品都需要单独调用产品背后的复杂计算。
用户和使用量越多,支撑这些计算背后的硬件基础设施的成本就越高,而固定收费(费率)的服务费自然难以抵消这些高昂的成本。
02 NVIDIA“咄咄逼人” 每个自称拥有大型AI模型的公司CEO都无时无刻不在抱怨无法获得足够的NVIDIA GPU芯片。
这些芯片优先部署在NVIDIA主要客户微软、亚马逊和谷歌的数据中心服务器中。
OpenAI 的 ChatGPT 引发的生成式 AI 浪潮,导致大大小小的公司对 GPU 芯片的需求急剧增加,将 NVIDIA 推向前所未有的高度——除了与客户达成价值数百亿美元的新订单外,NVIDIA 还市值超过1万亿美元。
甚至有人说,英伟达这个在淘金热中卖铲子的人,现在要“夷平”淘金者。
英伟达曾要求租用部署在其云服务提供商大客户数据中心的GPU芯片服务器,然后转让给大客户的竞争对手使用——微软、谷歌、甲骨文都同意了这个“不平等提议”,亚马逊 AWS 不同意。
此外,英伟达在向初创云服务公司“赠送”芯片时,还要求这些初创云服务公司将其云客户“介绍”给英伟达。
英伟达此举意在沿着“GPU芯片-服务器-数据中心-云”的路径接触更多的企业级用户,与他们建立更紧密的客户关系,最终销售自己的AI相关软件。
其中一些软件是专门为帮助企业客户管理和开发大型数据集而设计的,与微软的同类产品形成直接竞争。
目前,使用 Nvidia AI 软件构建大型模型的公司包括 Adob??e、Getty Images 和 Shutterstock。
在英伟达最新的季度财报中,这家激进的公司表示,向参与开发人工智能或虚拟现实应用程序的公司销售软件可以带来 1 亿美元的潜在收入。
除了这种软件“批发”模式外,NVIDIA还做“私人定制”。
通过云(合作伙伴、自有),我们为一些具有较强业务专业知识的客户公司提供业务定制的生成预训练模型(GPT)。
此类客户包括生物制药公司 Amgen 和保险公司 CCC Intelligence Solutions。
英伟达对微软的威胁不仅仅是眼皮底下的高成本芯片,还有与未来业务增长相关的AI商业收入。
03 生成式AI竞赛下半场。
根据市场研究公司Gartner今年9月初发布的《新兴技术年度成熟度曲线》,生成式AI目前正处于预期夸大期,“其发展前景仍受到很大的不确定性”。
Gartner 研究副总裁 Melissa Davis 如此评价。
新兴技术的年度炒作周期。
资料来源:Gartner 业内人士表示,OpenAI、Anthropic等生成式人工智能初创公司的高估值反映了市场对人工智能高度夸大的预期。
预计未来企业将更加严格地考虑生成式AI投资的成本。
2019年,企业对生成式人工智能的投资可能会减少。
推出GPT-4的OpenAI在9月底与外部投资者讨论股票销售时,将其估值定义在1亿至1亿美元之间,是今年年初的三倍。
在获得亚马逊 40 亿美元投资后,OpenAI 最直接的竞争对手 Anthropic 计划以 1 亿美元的估值从谷歌和其他投资者那里再融资 20 亿美元。
今年3月,其估值仅为40亿美元。
事实上,Anthropic是从OpenAI“衍生”出来的。
2016年,OpenAI调整了组织架构,在现有架构内成立了“有限利润公司”。
它将营业利润目标置于技术研究之上,这导致一群研究人员离开并创立了 Anthropic。
然而,“殊途同归”。
两家公司今年向投资者报告高估值的充分理由是他们对商业收入的信心。

Anthropic 预计到今年年底其收入将达到 2 亿美元。
作为先行者,OpenAI已经开始真正赚钱了。
GPT-4发布后,OpenAI的年化收入现已达到10亿美元,而ChatGPT发布前一年(2019年11月),这个数字仅为1万美元。
微软AI商业产品的高额亏损、OpenAI和Anthropic对营收增长的高期望以及NVIDIA努力拓展业务边界。
这些表面的背后实际上是大型人工智能模型竞争格局的变化。
从之前的“芯片-算法-训练数据”三位一体,各种生产投入(生产工具、生产材料)水平的蛮力、大力努力创造奇迹,已经成为大型AI模型商业化的迫切形势,促使玩家从各行各业对我们更追求的是投入产出比,即芯片效率比、模型算法优化、产品商业化时的10亿用户。
对于“亿级用户”来说,先发优势可能会起到关键作用。
尽管OpenAI首次推出ChatGPT后一个月内就吸引了1亿用户,但微软、谷歌、亚马逊在在线办公、搜索、购物等垂直领域已经积累了10亿用户。
被高度重视的OpenAI和Anthropic需要更加努力。
【本文由投资界合作伙伴《中国企业家》杂志社授权发表。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-17
06-18
06-18
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态