解决工业领域信息安全问题,“木连科技”完成近亿元B轮融资
06-17
“我们曾经预测到今年可以实现稳定盈利,但这个预测在今天已经没有什么参考价值了。
”当谈到智谱AI何时能够盈利时,智谱AI首席执行长张鹏笑称,他并不担心智谱AI的技术能力或产品实力。
然而,预测未来,需要考虑很多外部因素,包括AI产业大环境的变化,甚至芯片、算力市场的趋势,这些都不是简单敲头就能猜到的。
1 月 16 日,智谱AI在首届 DevDay 会议上发表讲话。
发布了新一代大型基础模型GLM-4,可以根据用户意图自动调用工具的GLM-4 All Tools,以及智谱AI版的“GPTs”——GLMs。
智谱AI公布了对GLM-4的一系列评测,并将分数与大语言模型的上限GPT-4(LLM)进行了比较,称GLM-4在能力上接近GPT-4。
此外,GLM-4模型支持更长的上下文,自动选择模型的多模态能力,同时实现更快的推理速度和更高的并发性。
GLM的个性化代理定制能力被认为是直接针对GPT的。
目前国内只有两家公司敢说自己的大型号可以媲美GPT-4。
智谱AI和百度。
尽管两家公司在规模和商业模式上有很大差异,但在大型AI模型的跑道上,大家似乎都有一个共同的追赶目标,那就是OpenAI。
然而,对于专注于AI大模型的中国企业来说,单纯在技术路线和模型能力上向OpenAI靠拢似乎并不足以应对日益加速的AI大模型市场。
无论是投资人、大型模型公司,还是应用公司,大家对国内AI企业的关注点都集中在大型模型的商业化上。
大型车型的商业化是否濒临灭绝? 智谱AI2019年累计融资超过25亿元,是国内AI大模型赛道融资表现最好的公司之一。

与上一波国内AI热潮中的领先AI公司相比,商汤科技在2019年融资窗口期间获得了超过40亿元人民币的融资。
从融资水平来看,今天的智谱AI显然不如当年的商汤科技。
但从技术角度来看,智谱AI重点投资的AI大模型技术显然比当年的主流AI技术更昂贵。
事实上,整个国内人工智能融资市场年内并没有表现出活跃的表现。
2019年国内人工智能赛道融资状况|数据来源:IT橙子 AI行业投资热情下降的原因有很多。
一方面是受经济下行和国际形势影响。
尽管人工智能几乎是2020年全球最热门的话题,但在中国,由于各赛道外资缺乏,人工智能投资活跃度较去年大幅下降。
另一方面,一些经历了上一波人工智能热潮的资本投资者并没有获得特别理想的回报。
许多领先的人工智能公司直到今天还没有形成稳定的盈利模式。
这也直接导致投资者对AI领域越来越感兴趣。
要小心。
投资者资金紧张,对AI企业的要求自然也就提高了。
长期以来自由放任的烧钱模式正面临挑战。
一些投资者开始关注AI公司何时能够形成自己的“造血能力”。
一些AI大模型初创公司高管表示,虽然投资者普遍对AI大模型比较宽容,但与数百个模型奋战一年后总会遇到压力。
一位关注AI大模型的投资人告诉虎嗅,投资人的属性会影响大模型公司的走向。
虽然不少金融投资者看好AI大模型,但也非常看重大模型公司盈利的“报告”和“时间”。
“表”很受关注。
如今,在一些大型AI模型公司的PPT中,商业“故事”的比例正在持续增加。
B端业务推动了大模型的正向商业循环。
对于AI大模型公司来说,什么商业化最快的途径是什么?自然触达B端企业客户 “互联网、金融、运营商是目前大型AI模式公司的主要客户。
”张鹏表示,这些行业的龙头企业普遍对大型AI投入较大。
原因是他们既有资金又有数据,这是大型AI模型成长的最佳土壤,智谱AI还专门为金融行业客户开发了定制的行业技术模型FinGLM。
国内大部分AI企业的规模化模型战略都牢牢瞄准了B端,这在一定程度上与B端客户相对“容易赚钱”有关。
“B端的支付意愿比C端好很多。
”张鹏表示,智谱AI从一开始就主要面向B端。
除了支付意愿高之外,B端市场对于未来大型AI模型的发展也有一定的利好。
一方面,企业用户可以投入更多资源与大型模型公司联合开发实施。
例如财务资源、数据资源等;此外,企业客户有明确的业务需求和痛点,可以通过定制化的AI解决方案来解决。
例如,自动化客户服务、数据分析、市场预测等;同时,企业客户拥有丰富的行业数据,有助于模型训练和定制。
另一方面,与企业客户合作通常意味着长期关系。
这为AI模型的持续优化和升级提供了稳定的环境。
最后,企业级应用通常涉及高价值的决策和运营,这为AI技术的应用提供了更大的价值空间和回报潜力。
B端市场为大型AI模型的快速落地提供了更加理想的环境。
在帮助大型模型公司输出技术价值的同时,也能为AI技术的持续发展提供动力和方向。
B端大机型的商业化细分。
横向对比国内专注大型AI模型的企业可以发现,大量知名度较高的企业都是专注于B端的云厂商。
比如百度智能云、阿里云等,它们也是智谱AI等大型模型公司目前的顶级竞争对手。
然而,云厂商和大型初创公司的业务和目标存在很大差异。
尽管云厂商在大型AI模型上投入巨资,但他们的主要目标并不是通过大型模型赚钱,而是利用大型模型抢夺新客户,从而抢占云市场地位。
一位百度智能云内部人士向虎嗅透露,大机型的主要盈利点是促进云服务的销售,这与微软、谷歌的策略类似。
对于云厂商来说,一旦客户选择了他们的服务,就很难迁移出去。
如今,大型人工智能模型将成为吸引和留住客户的有效手段。
与云厂商相比,大型初创公司似乎更关注AI本身。
虽然云厂商和纯AI大模型公司都在宣扬模型即服务(MaaS)的概念,但云厂商的MaaS注定要和自己的IaaS、PaaS、SaaS相结合。
例如,百度文心大模型更关注如何整合其现有的应用和服务,推动AI应用的多元化,提高用户体验和服务效率。
相比之下,智谱AI的MaaS更倾向于为开发者和合作伙伴提供工具和平台。
另外,在服务和运营方面,大模型公司的优势在于技术和运营更加灵活,可以兼容更多的部署形式。
它不仅提供技术解决方案,还重视开源和生态合作。
各大AI模型公司也都有自己的技术壁垒。
比如智谱AI的GLM-B就是由清华大学计算机系改造而来。
其高精度通用知识图谱和数据与知识两轮驱动的认知引擎,在技术储备和数据上优于业界其他模型。
最新的All Tools平台,包括CodeGeeX和CogView等产品,提供强大的多模式和多任务功能。
智谱AI在垂直领域的技术落地和资源积累方面也具有一定的优势。
与智谱AI一样诞生于清华的另外3家大型AI模型公司是面墙智能、灵芯智能、深研科技。
他们的主要业务面向B端客户。
清华在AI产业落地中积累的技术、资源和经验,显然为这些大样板企业提供了有力的帮助。
虽然短期来看,智谱AI等大型模型公司在AI大模型领域与云厂商展开竞争,但其市场定位和策略存在明显差异。
在市场的长期发展中,这些差异将促使它们形成明显的市场分离。
智谱AI可能更注重技术和平台的提供,而百度则更注重产品和服务的整合。
领先大型模型公司的商业化现状。
目前,智谱AI在商业化方面的表现在国内市场上基本处于领先地位。
在1月16日的智谱AIDevDay上,智谱AI邀请了马蜂窝、分众传媒、蒙牛集团、金山办公四家客户分享他们在大型AI模型方面的实践经验。
GLM系列模型的典型应用企业张鹏在主题演讲中提到了12家不同领域的重点客户,并表示GLM系列模型目前已在多个行业实现了产业化。
目前已有100多家企业客户,其中不乏众多。
家深应用客户。
对于中国一家大型AI模式独角兽公司来说,拥有十几家企业客户是不是太多了? 横向对比中国“百模之战”中的其他大型模型厂商,该企业客户的表现相对较好。
年中,商汤科技宣布旗下大型模型“讨论”已与100多家客户建立合作。
同期,Minimax声称其大机型付费客户数超过100家。
虽然商汤科技和Minimax公布数据的时间距离今天有点遥远,但半年内客户数的增长有限。
全部。
张鹏透露,下半年,智谱AI的顾客增加了约数百人。
2018年上市前,商汤科技宣称截至2019年6月30日商业客户数量“超过10万”。
当时,商汤科技已经经历了10多轮融资,并即将于2020年12月30日在香港联交所上市。
智谱AI官网显示,ChatGLM最高级别ChatGLM-12B的云私有化部署售价为25万元/年,包含推理引擎1个、训练语料库2个代币、以及一年的在线教程培训。
ChatGLM-B是本地私有化部署的最高参数模型,售价10000元/年,包含无限推理实例许可/年、推理微调工具包1年,以及15人天/年的咨询服务。
此前,智谱AI在当地私有化部署的ChatGLM-B曾大幅提价。
一些接触业务的人士认为,这主要是受算力价格上涨影响,大部分大型模型公司的利润空间仍在进一步压缩。
按照智谱AI目前的收费标准,落地业务应该有不错的收入,但事实上却不然。
据张鹏透露,2018年智谱AI整体签约金额突破1亿元。
虽然智谱AI的商业客户数量还可以,但从目前大规模AI模型的“烧钱研发”阶段来看,先不讨论多少钱可以从每个订单中收到。
仅看研发费用,实现盈利是相当困难的。
。
即便是年收入10亿美元的OpenAI也未必能赚钱。
对于中国的大型AI模型公司来说,现在讨论稳定的造血能力确实为时过早。
B端市场困境:OpenAI近日公布了企业客户数量。
据彭博社报道,OpenAI COO Brad Lightcap 1 月 12 日接受采访时表示,OpenAI 推出企业付费版以来的四个月内,已经获得了 20 家付费企业客户,而 ChatGPT 企业版目前正在服务这些公司的超过 15 万家雇员。
即使是全球最大的AI大模型公司,在企业市场的扩张也不是很快。
“大多数企业在决定是否采用生成式人工智能之前都持谨慎态度,因为如果不采用,他们可能只是经历一个缓慢的衰退过程。
如果盲目采用生成式人工智能,他们可能会直接面临巨大的风险。
”咨询公司IDC中国区总裁兼首席分析师副董事长吴连峰认为,大多数企业在面对新事物、新技术时都会保持观望态度。
今年11月,IDC对全球企业进行了人工智能应用调查。
结果显示,三分之一的企业已开始大规模投资生成式AI领域,12.7%的企业尚未开始规划生成式AI的应用; 25.5%的企业正在开发潜在应用场景清单,但没有技术投入; 32%的公司已开始对该模型进行初步测试和概念验证(POC),但尚未制定固定的支出计划。
在中国接受调查的企业中,虽然没有计划进行生成式人工智能的企业比例已下降至7%,但大规模投入的企业仅有24%。
尽管业界对AI非常热衷,但到了落地阶段,真正能够拥抱AI大模型的企业并不多。
应用公司正在利用人工智能来保持领先地位。
大多数企业认为,目前对大型AI模型的投资主要是为了抓住技术机遇。
事实上,很多新技术的早期客户都是以联合研发为目的与行业领导者合作,智谱AI的客户也不例外。
一位个人智能研发公司的高管告诉虎嗅,他们在大规模语言模型方面使用了很多公司的模型(LLM),包括智浦的GLM和百度的文信大型模型。
与智普的合作虽然是有偿的,但一般都是以联合研发的形式签署合作框架。
“实体智能是前沿科技产业,在人工智能大模型方面势必占据行业前列位置。
”该高管告诉虎嗅,从早期的Saycan到谷歌最新的RT-2,再到如今国内很多公司也在以LLM为基础开发更好的人机交互模型。
目前这个时间点,开发一款自研车型难度非常大,周期也非常长。
所以,前期一定要依靠成熟的大模型公司,才能不落后于行业。
张鹏对此也深有感触。
“很多行业内的头部客户,早期对AI大模型的态度是‘买票上车’。
”在回忆大模型热潮期间智谱AI洽谈的订单时,张鹏说,当时的签约过程非常简单。
客户只是看了GLM的公开论文,对模型做了一轮评估,看了第三方评估清单,然后试用了一下,然后“迅速出手”。
另一方面,未来AI大模型企业也可能被视为企业数据资产的重要组成部分。
在企业端实施AI大模型的过程中,企业主最喜欢问的就是“AI能帮我消除多少劳动力?”国内一家新晋AI大模型公司的创始人告诉虎嗅,在与应用公司沟通的过程中,他发现一些对大模型了解比较浅的公司对AI的评估标准非常高。
实施后,至少要节省三分之一的人力成本,他们才愿意考虑。
“我们不应该只将大型人工智能模型理解为工具。
”君联资本总裁/执行委员会委员李家庆认为,大型AI模型不能简单考虑成本和效率问题。
从投资者的角度来看,大型人工智能模型一定是一个注重中长期成本效率的工具。
但从短期来看,大型模型也可以成为资产。
然而,数据资产需要标准。
李嘉庆举了通信领域的例子。
3G时代有CDMA和WCDMA。
“为什么中国一定要做自己的SCDMA?因为如果没有自己的标准,就会失去数据资产的定价权。
”李嘉庆以电信为例进行了解释。
对于大型人工智能模型来说也是如此。
如果大家都采用LLaMA模型,中国的AI产业和应用企业将永远无法形成AI的底层资产。
未来市场形成的数据资产的控制权和定价权都会出现问题。
。
在智谱AI的DevDay圆桌讨论中,李嘉庆提出了大模型是数据资产的理论。
他指出,大型AI模型是数据沉淀出来的价值,而不是简单的工具或代码。
尽快启动人工智能大模型的核心不是选择哪种模型,而是让企业尽快开始以人工智能大模型的形式沉淀数据资产,开始适应人工智能驱动的新商业模式。
尽快,以便在即将到来的人工智能时代生存。
保持行业前沿。
清晰看到大模型早期价值的龙头企业,或许是AI大模型公司早期B端业务快速实现盈利目标的动力。
【本文由投资界合作伙伴虎嗅网授权发布。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-18
06-18
06-17
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态