7.89%!美国商务部下调我国光伏企业反倾销税率
06-08
登录领w代币! 1元w代币!一次又一次的降低! !仅0.元/孔!是的,熟悉的互联网价格战“味道”已经悄然进入大车型的战场。
科技蓬勃发展一年,大型模型公司早已无法克制地扰乱经营状况。
5月,多款大型号产品宣布密集降价策略。
严格来表示,堪称大模型行业“拼多多”的DeepSeek率先挑起了价格战。
5 月 6 日,DeepSeek 官网推出“高性价比”大模型,将旗下大模型 DeepSeek-V2 价格下调至每百万代币输入 1 元,输出 2 元(32K 上下文),能力对标GPT-4. llama 3-70B,价格只有GPT-4的近1%。
登录DeepSeek开放平台的开发者将获得10,000个代币。
智谱是第一个拒绝的。
5月11日,智谱AI将其入门级大型号GLM-3-Turbo(上下文长度k)的价格从0.元/千tokens调整为0.元/千tokens。
此外,开放平台新注册用户将获得由万tokens升级为万tokens的奖金(包括10,000 GLM3-Turbo和10,000 GLM4)。
GLM-3 Turbo Batch批处理API将进一步便宜50%——0./千代币,对于万tokens来说是1元。
5月15日,在火山发动机力大会上,豆宝将原本在水下的价格战高调地带到了台面上。
会上,火山引擎总裁谭岱宣布,豆宝主力机型在企业市场的价格仅为0.0元/千币。
它可以以 0.8% 的价格处理 1,000 个代币,比业界便宜 99.3%。
观众们的兴奋程度堪比听到??大主播在直播间大喊:“家人,我们大型号降价了!”随着DeepSeek的主动以及几家核心厂商的跟进,局面也彻底打开。
大型模型商业竞争进入“量价”新阶段。
比较价格时,将百度和阿里作为“活靶子”。
有趣的是,在比较价格的时候,大家都以百度文信和阿里通易作为标的。
无论是DeepSeek、智谱还是豆宝,都以文鑫和统易作为比价的标尺。
当然,这也反映出这两款车型确实在中国大型车型中占据了非常重要的地位,甚至是借鉴对象。
虽然只谈价格不谈性能无异于“耍流氓”,但对于价格敏感的客户来说,价格基本上是唯一的决定因素。
智谱在宣布新款大型车型时,做了一张直观的价格对比图。
GLM-3-Turbo的价格是阿里qwen-turbo的八分之一,百度ERNIR 3.5的十二分之一。
当然,在比较ChatGPT时,不能抛开性能而只比较价格。
同样,豆宝在发布豆宝通用模型Pro价格时,也引入了百度和阿里巴巴的标杆模型进行价格对比。
基本上行业价格等于ERNIE和Qwen的平均价格。
还有更激进的,直接邀请国内外主流车型进行集体比价。
针对被当做靶子、是否参与价格战的质疑,百度在下午豆宝宣布全面降价时回应称:“文信大模型日均处理Tokens文本已达1亿条,并强调认为大机型的使用不能只看价格,更要看综合效果。
“为了让客户更好地体会到低价格的实际意义,各大机型厂商都在努力做到‘脚踏实地’。
地球”。
1块钱在现实世界可能连一个包子都买不了,但在智谱,你可以写一万本小红书(以字数算);在豆宝,你可以看三本书《三国演义》;在DeepSeek中,普通开发者只需收费50元就可以使用几年。
他们不仅出售它们,而且免费赠送。

登录DeepSeek开放平台的开发者将获得10,000个代币作为礼物。
智谱似乎要与DeepSeek较量,立即宣布新注册开放平台用户的赠送限额将提高3%。
开放平台新注册用户将获得“万tokens”升级为“万tokens”(含入门级1万元额度、企业级1万元额度)。
有开发者表示:“如果只是自己开发、测试,就无法全部使用,兴奋点都是他们的,我们就负责占便宜。
”面墙智能直接喊出了“不降价,0元无限量”的活动。
不过,这是因为该模型本身是免费开源的,并且部署在终端侧,利用终端设备的计算能力,无需调用云端API。
有开发者向硅星表达了自己的感受:“以前我们是在收服务器、存储空间,现在是在收代币。
如果不出意外,几家主流模型厂商都会效仿,未来三年我们可能就不需要购买代币了。
“谁是最便宜的大模特?”那么问题来了,谁是最便宜的大型号呢?硅星根据各厂商的官方信息,整理了一些大型号API的价格,并直观地进行了价格对比。
废话不多说,我们直接上图表(这可能是市面上最全面的价格对比图了): 从图表来看,从文章整理的情况来看,如果按绝对值计算,豆宝pro32k是价格最低的目前市场上模型规模较大,但DeepSeek-V2的上下文文本长度为k。
相比较而言,可以说是性价比最高的大型号了。
价格战对于每一代互联网用户来说都是熟悉的。
降价策略通常被视为吸引更多用户、增强用户粘性和市场份额的有效手段。
但与此同时,他们往往也逃不开“拿”。
钱换增长”的恶性循环。
谭代说:“用损失换取收入是不可持续的,所以我们从来不走这条路。
” DeepSeek v2发布时,其员工也表示:它基本上完全依靠模型结构创新(MLA+DeepSeekMoE)+超强大的Infra,并且“现在的价格是大规模服务的价格,不亏损,还有利润”利润率超过50%。
”价格低、利润低?它是如何完成的?影响大模型推理成本降低的因素有很多。
比如技术进步和优化就是直接原因。
很多开发者惊叹Magic Square如何兼顾模型效果和成本。
首先,源于DeepSeek自身的硬实力,也就是我们俗称的“有牌”。
据欢泉官方信息显示,其欢泉AI智能超算集群配备了1万张NVIDIA高性能A计算卡。
硬件和计算资源或许也是DeepSeek能够维持低价的原因。
也是国内少数拥有万卡的非大企业之一。
二是架构和算法的创新。
这和豆袋的低价是一样的。
谭代介绍:“火山引擎有很多技术优化方法,可以降低大型模型的成本。
此外,在工程上,可以通过分布式推理的形式更好地利用底层计算能力;此外,在混合方面调度,不同的负载可以混合调度,成本会大大降低。
“我们都知道,当一个行业进入价格战阶段,就意味着产品正在走向同质化。
在大车型发展的初期,技术上的差异尚不明显,但低廉的价格确实可以带来更广泛的普及。
这对于国产大车型来说是福还是祸?客观地讲,大模型API的价格战和推理价格的下降很可能会促进AI应用的广泛普及和创新,因为较低的成本使更多的企业和开发者能够负担得起这项技术,并有更多的实验空间。
不过,降价能否帮助大型机型厂商带来更多新用户和付费用户,仍值得怀疑。
虽然短期内较低的价格可以吸引更多用户尝试和采用大型人工智能模型,但从长远来看,技术能力的提升和创新才是保证大型模型应用普及和可持续发展的根本。
从互联网技术的发展中,我们可以清楚地看到技术创新和改进对行业的深刻影响。
这也适用于大型模型的开发。
正如移动互联网的流行不仅仅是因为手机价格的降低,一个重要的原因是苹果推出了iPhone,将多点触控等技术引入到手机中,带来了新的人机交互方式和使iPhone软件生态系统的建立成为可能。
当价格战结束时,大概率只有少数龙头企业受益。
一个无法有效控制成本的企业如果盲目加入价格竞争,无疑会失去自身优势,陷入别人设定的竞争节奏。
最终,又会出现新一轮的行业洗牌。
只有价格“滚动”、技术“滚动”、产品“滚动”、全方位“滚动”,才能找到新的出路。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-08
06-17
06-17
06-18
06-17
06-17
06-18
06-17
06-18
最新文章
首先告诉我什么是智能汽车!
盲盒明星卡的暴利与泡沫:2元卡卖700万,直播卖卡月入百万
黑色星期五轰轰烈烈地回来了,结果这些中国企业扛起了全场
锂电池隔膜疯狂扩产:兴源材料欲夺回C位?
当我考上缅语专业时:凌晨三点我还在走廊里背单词,毕业后,我不仅仅是一名翻译者
被遗弃,被收获?老年人上网到底有多难?
海外日报 -今年,我国自主研发游戏海外实际销售收入实现两位数增长;三星电子正式成立机器人业务团队36氪海外·15分钟前
腾讯音乐:爱、相信、坚持