两天之内迅速上线,国内外口罩、防护服均已调配……海尔COSMOPlat支援前线背后的故事
06-18
“使用 ChatGPT-4 写电子邮件就像要求兰博基尼送披萨。
”这句话听起来有点夸张,但却说明了目前生成式AI在应用层遇到的巨大问题:成本太高,尤其是在AI产品与市场契合度(PMF)没有那么高的情况下。
近日,分析公司CCS Insight发布预测报告称,生成式人工智能领域明年将接受现实检验。
具体来说,技术炒作将逐渐消退,运营成本将持续上升,监管呼声将越来越多。
有迹象表明生成式人工智能的增长即将放缓。
就在报告发布的前一天,《华尔街日报》的一篇文章(Tom Dotan & Deepa Seetharaman)在副标题中指出,包括微软和谷歌在内的一些公司正在尝试各种策略,只是为了让 AI 产品能够真正赚钱。
制成。
石岛整理补充了这篇文章,结合CCS Insight报告,试图梳理生成式AI面临的困难,并给出相应的判断。
以下为正文。
1 每月数千美元的返利,数以万计的用户导致成本失控。
GitHub Copilot是微软基于ChatGPT推出的AI编程产品。
被程序员称为“开发者神器”,目前拥有超过10000名用户。
如果按照互联网时代的商业逻辑,GitHub Copilot 每月 10 美元的会员费就已经赚得盆满钵满了。
但据文章作者介绍,这种流行的AI应用却让微软吐血了。
今年前几个月,GitHub Copilot 平均每月还款给每位用户 20 美元,部分用户收到的金额高达 80 美元。
算了算,自 GitHub Copilot 推出以来,微软每个月损失数万美元。
如果情况不变,一年的损失将超过1亿美元。
不知道的人以为微软已经转行做慈善了。
生成式AI“冤屈”联盟成员包括谷歌、亚马逊、Adobe、Zoom等,为了避免失血,Adobe直接对用户每月的使用量设置了上限。
除了收取每月 6 美元起的常规会员费外,谷歌还将向 AI 助手的用户额外收取每月 30 美元的费用;微软将在每月13美元的基本费用基础上向微软AI版的用户收取费用。
多收 30 美元/月。
此外,有业内人士透露,两大巨头还将“充实”,使用更便宜的小机型。
为什么生成式人工智能在繁荣时期仍然亏损? 主要问题是成本失控。
首先,购买硬件需要钱。
AI计算芯片是大型模型的引擎。
微软早期投资 OpenAI 的数百万美元,大部分都花在了构建 AI 超级计算机和购买 AI 芯片的硬件上。
据悉,GPT-4模型需要超过30,000个A芯片。
否则,NVIDIA是当前AI时代当之无愧的赢家。
难怪MAAMA已经开始卷筹码了。
其次,更智能的大型模型的成本是需要更多的计算能力。
作者指出:企业需要花费数年时间和数亿美元来训练一个成熟的AI产品。
a16z曾发布报告称,单次GPT-3训练的成本在50万美元到1万美元之间。
就连电费也是天文数字。
据估计,今年 1 月份,平均每天有约 10,000 名独立访客使用 ChatGPT。
对应的芯片需求为3万多颗NVIDIA AGPU,每天的电费约为5万美元。
最重要的是,AI应用不具备互联网应用的规模经济。
计算能力是有成本的,每一次计算都要花费更多的钱。
据SemiAnalysis首席分析师Dylan Patel统计,OpenAI光是运行ChatGPT每天的投资成本就可能高达70万美元。
这导致使用人工智能产品的用户越多,或者说用户使用人工智能产品的次数越多,提供服务的企业需要支付的成本就越高。
如果只向用户收取固定的月费,公司将面临潜在的成本损失,就像微软在 GitHub Copilot 上遭受血腥损失一样。
2 用户没有理由为生成式人工智能付费。
当然,钱是挣来的,不是存下来的。
毕竟OpenAI这个日亏70万美元的吃金猛兽,现在估值已经可以达到1亿美元了。
近日,The Information 还透露,OpenAI 预计明年将通过销售 AI 软件及其算力获得超过 10 亿美元的收入。
但 OpenAI 在商业模式上的巨大成功并不具有普遍性。
目前,许多生成式人工智能产品的吸金能力显然有限。
Insight的杰出工程师Carm Taglienti指出:人工智能项目失败的原因99%都与客户过高的期望有关。
但这句话也揭示了一件事:目前的人工智能还不够智能,无法解决用户希望解决的问题。
根据红杉资本的判断,当前的人工智能市场已经从“第一幕”——从技术出发,转向“第二幕”——从客户出发。
这个阶段要求生成式AI必须具备解决人类问题的能力。
换句话说,当人们对新兴技术的热情消退时,他们会思考自己需要什么样的人工智能服务,并质疑为什么要为人工智能付费? 这正如亚马逊网络服务首席执行官 Adam Selipsky 在文章中指出的那样:目前,许多用户开始对运行 AI 模型的高昂成本感到不满。
事实上,红杉资本的报告也显示,无论是首月用户留存率,还是当前用户日均使用情况,以大模型为代表的生成式AI的使用情况并不乐观。
与普通产品85%的最大留存率和日/月活跃度相比,体验ChatGPT后愿意继续使用ChatGPT的用户比例为56%,每天打开的用户比例仅为14%。
这可能意味着至少很多用户还没有找到必须使用生成式AI产品的理由。

从A级到B级,大模型并不是万能的。
你构建的人工智能产品必须与你试图解决的任务密切相关。
就连 OpenAI 的 CTO Mira Murati 也指出:企业用户并不总是需要最强大的模型,有时他们只是需要一个更实惠、适合其特定用例的模型。
(详情参见【师道】文章)从解决问题的角度来看,当前的通用大型模型存在使用成本高、推理延迟大、数据泄露、专业任务精度不够等问题。
相比之下,一些规模较小、专业化的长尾模型具有更准确、更便宜、更快的优点,正好满足客户企业的需求。
总而言之,早期初创企业投资者去年投入了 22 亿美元,如果人工智能的实际应用达不到预期,随之而来的失望将导致投资削减。
为企业构建生成式人工智能工具的公司 Writer 的首席执行官梅·哈比卜 (May Habib) 表示,估值上升反映了人们对人工智能前景的热情,但高管们很快就会更加谨慎地看待。
成本问题。
他认为明年投资者不会那么热衷于生成式人工智能。
3. 生成式人工智能*的问题是向用户证明其价值。
高昂的开发成本,加上难以盈利的应用,无论如何也不会让投资者高兴。
只有英伟达和一些云服务提供商可能会感到高兴。
但事情真的有那么糟糕吗?或许。
文章指出:随着时间的推移,生成式 AI 预计会变得更便宜,就像云存储和 3D 动画等许多技术一样。
同时,新芯片和其他创新也可能降低处理成本。
但即使生成式人工智能的年增长即将像 CCS Insight 预测的那样放缓,但从长远来看,生成式人工智能肯定会增长。
就像阿马拉定律一样:我们倾向于高估一项技术的短期效果,而低估其长期效果。
这让我想起了互联网早年,当时一位著名经济学家宣称:到2009年,一切都会变得清晰,互联网对经济的影响不会比传真机更大。
也许,生成式人工智能正处于“尴尬的青春期”。
它最大的问题不是找到用例、需求或分布,而是证明它在解决用户问题方面的真正价值。
正如福特汽车公司创始人所说的经典名言:“如果我问顾客想要什么,他们的答案将是一匹更快的马。
”无论如何,技术必须领先于市场,因为消费者看不到那么远。
【本文为经投资界合作伙伴微信公众号授权发布:本平台仅提供信息存储服务】如有疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-17
最新文章
3月,腾讯《王者荣耀》在全球App Store和Google Play吸引了2.57亿美元,同比增长63%
生鲜传奇宣布完成数亿元B+轮融资
裁员20%?红杉中国回应:胡说,员工总数不降反升
第二次影视创新“闯”短剧世界:看、留、跳都是钱
ASML:从飞利浦弃儿到光刻之王
宁康瑞珠获数千万元A轮融资 横琴金投、翰颐资本投资
智能金融服务生态平台科客完成A+轮融资
拼多多九鼎:信息披露无懈可击,竞争对手才是“浇水”的