2024年医药行业将走向何方?
06-18
5月21日上午,阿里云例行峰会意外发布大幅降价消息:统一钱文GPT-4主模型推理输入价格降至0.5元/万代币,下降了97%。
阿里云降价公告|来源:阿里云 此次大幅降价的消息瞬间引发了业界的广泛关注和讨论,但几个小时之内就发生了连锁反应。
百度智能云正式宣布文信大模型主力型号ERNIE Speed(上下文长度8K、K)、ERNIE Lite(上下文长度8K、K)免费。
虽然这两种模式与阿里巴巴宣布降价的模式并不完全对应,但这一举动却让不少人开始喊话中国大型模型公司的API商业模式。
3小时后就消失了吗? 文心大模型的两个主力模型全部免费。
事实上,早前字节跳动就曾宣布,豆宝通用模型推理的投入价格为0.8元/百万代币。
尽管这些价格背后在并发度、模型能力等方面存在着诸多不同的细节,甚至根据创业者的实际计算,但当它们实际运用到业务中时,各家公司的成本降低幅度并不像宣传的那么夸张。
但至少在纸面上,字节跳动、阿里巴巴、百度已经正式宣布每百万代币的推理输入金额为0.8元、0.5元、一周内免费报价。
甚至有业内人士开玩笑说,下一个跟进的厂商可能要补贴客户使用API??。
到底是什么原因导致如此短的时间内发生如此巨大的变化呢?这是营销妙招吗?或者说大模型API调用的商业模式真的就这样消解了吗? 01 价格战背后,大模型API调用的商业模式 事实上,在ChatGPT刚发布的时候,大家对于大模型直接作为服务调用的商业模式抱有很大的期待。
毕竟,与上一波AI瘦腿项目交付方式相比,大模型带来了更通用的AI能力,被称为标准化服务,这是有道理的。
以OpenAI为例,其商业化方式主要有两种,一种是像ChatGPT Plus这样20美元/月的会员订阅模式,另一种是开发者API调用服务。
在这两项标准化服务的推动下,2019年12月31日,The Information透露,OpenAI的年度经常性收入(ARR)已达到16亿美元。
但即便是强如OpenAI的模型能力,这一数额的收入相对于其数百亿美元的研发成本来说仍然是九牛一毛。
图片来源:视觉中国 事实上,目前只提供了模型API,离场景落地AI应用还有很长的路要走。
大多数AI应用仍然需要基于通用模型API来馈送数据并在场景中进行微调。
等待优化模型引擎。
看到这一瓶颈后,国内大型模型厂商在过去的一年里也做出了一系列探索,降低AI应用的门槛,以扩大大型模型的使用范围。
以百度智能云为例。
去年,它陆续推出了模型开发工具Model Builder和AI应用开发工具AppBuilder,以及不同的更具性价比的模型。
然而,模型调用的增长似乎仍然有限。
今年4月,百度智能云推出生态,联合有渠道、有场景的供应商服务客户,旨在进一步提升文信大模型的标准化API调用量。
从这些迹象来看,显然各大厂商并没有真正准备好放弃API调用的商业模式,但这种商业模式还没有真正获得大规模的资金,这是一个现实的问题。
上周,百度发布的最新数据显示,大型模型文信每天处理 1 亿条文本,另一大厂商字节跳动每天处理 1 亿条文本。
不过,这其中很大一部分是各大厂商内部业务呼唤AI应用和商业探索。
可以看到,尽管模型厂商进行了多次尝试,但标准化模型API并没有出现确定性的增长。
这是本周各大厂商车型推理降价的主要前提和背景。

了解了当前模型API调用的需求之后,就不难理解这波降价了——降价并没有真正损失多少收入。
更好激活市场、赚钱,推动很多企业开始“免费试用”。
尽早开始尝试将人工智能引入业务流程。
事实上,这波降价连锁反应的真正源头并不是阿里云,也不是字节跳动。
这是一家比大厂商降价更早的初创公司。
5月6日,国内初创公司欢房旗下大型模型公司DeepSeek开源了第二代MoE模型:DeepSeek-V2,其参数更多、能力更强、成本更低。
由于DeepSeek的技术优势,在全球大模型圈得到了广泛好评。
在其模型能力接近一线闭源模型的前提下,也将推理成本降低至1元/百万代币。
换句话说,成本是 Llama3 70B 的七分之一,GPT-4 Turbo 的七十分之一。
而且,DeepSeek v2仍然能够盈利,这显然是模型架构、系统和工程方面的一系列进步所带来的成本降低的结果。
这一信息引起了业界对于实际模型应用的广泛讨论,也在海外引起了不小的波动。
半导体和人工智能独立研究机构SemiAnaysis表示,其性能已接近以大型号GPT-4为代表的第一梯队。
,同时,推理价格相当低,这是一股不可小觑的中国力量。
DeepSeek v2宣布售价为1元/百万代币后,立即引发了一场大型型号价格战。
智浦、面笔、字节、阿里巴巴、百度,以及今日后续的科大讯飞、腾讯云相继宣布型号推理降价。
对于各家公司不同的降价策略,有人质疑一些降价机型吞吐量低,而高性能机型却没有降价。
而且有很多详细的条款,会让企业最终使用起来比广告上的便宜。
从这个角度来看,降价更多是模型厂商出于市场和品牌考虑而进行的一波内卷。
归根结底,能够形成价格战的连锁反应的是,目前各大车型的能力都放在了可用的场景中,差距还没有拉开。
用户甚至可以使用免费的开源产品。
一位SaaS厂商的创始人告诉极客公园,“我用谁并不重要,因为他们最后运行的都是一样的。
当你看时间线时,这些厂商提供的最终模型API服务的概率是99.9%类似于今天的云,如果通用模型API不能深度适配场景,你还是要基于开源模型做专门的深度训练,使用场景数据,就不会连接通用的。
模型 API。
”最终的客户需求其实是一个端到端的要求,能用的、能看到效果的东西,而不是模型调用。
02 大模型,巨头和初创公司有不同的游戏,当然是模型的还原。
推论价格本身也是技术发展的必然结果,有一系列工程、架构、系统手段可以不断优化。
在今天凌晨的微软Build开发者大会上,纳德拉也举了一个例子来解释这一趋势。
他表示,在过去的一年里,GPT-4的性能提升了6倍,但成本却降低到了之前的1/12,相当于性能/成本提升了70倍。
图片来源:视觉中国 “困难的是探索模型能力的上限。
至于模型推理的代价,一定有办法降低。
” Minimax创始人严俊杰上周在做客极客公园直播时表达了这一技术趋势。
他表示,将模型推理价格降低到可用,这在学术界已经发生过3次了,并不困难。
模型技术的完善是API调用业务模型持续成长的前提。
事实上,仔细看看今天宣布降价的型号产品,也是同样的道理。
真正大规模、高性能、支持高并发的模型推理还是要收费的,而且降价幅度有限。
但从长远来看,API模型最终考验的是模型能力。
如果技术不能拉开差距,那么价格也肯定拉不开差距。
最终,模型调用的价值将会被稀释。
虽然仍然是重要的基础设施,但价值会有所不同。
从油到水。
从另一个角度来看,通用模型API在今天可能并不是迫切需要的。
正如Lepton.ai创始人贾扬清在朋友圈表达自己的观点一样,“从整个AI行业的角度来看,我想说降价是一个简单的策略,一巴掌就能搞定”面对,但真正的To B业务的成功是比较困难的。
”如今,当企业使用人工智能时,它并不是由成本驱动的。
“今天并不意味着昂贵的 API 不再被任何人使用,而是因为他们需要弄清楚如何使用它们来产生商业价值。
” 从这个角度来看,如何将大模型能力推广到企业业务中,很大一部分任务可能会重新落到传统SaaS厂商(在产品进行AI升级后)手中,他们需要充当“干线物流”。
”智能生产力+“前置仓”,输送到各个场景。
随着模式API直供模式的高度卷入,巨头们实际上把目光投向了能够交付价值的SaaS。
微软今天宣布 GitHub Copilot 订阅者已经拥有 10,000 名付费用户。
谷歌最近也在与CRM营销巨头Hubspot讨论以最高1亿美元收购其的可能性,因为前者可能会利用这次收购来加强其在AI领域的产品整合。
对于巨头来说,要想实现规模化营收,无论是模型技术还是实际场景都必须掌握。
但归根结底,模型能力与其他能力的距离,才是API模型能否产生价值的“华山路”挑战。
对于大型模型初创公司来说,也是一个“双向路”的情况,即要么拿出比大公司更好的模型技术,要么从模型走向产品,直接创造价值。
智能能力不会免费,但如何大规模创造价值,巨头和初创公司仍在寻找答案。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
06-18
06-17
06-17
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态