达晨奋发图强,一举筹集了68亿
06-18
在路易斯·郭士纳(Lou Gerstner)到来之前,IBM被困在自己的技术陷阱里整整10年。
20世纪80年代,个人电脑的兴起和市场的快速变化开始给IBM带来挑战。
巨头的硬件市场份额一度达到80%的巅峰,进入20世纪90年代,随着个人电脑的普及和小型化,大型机市场萎缩,濒临解体。
此时,很少有人关心是这家公司首先将个人电脑推向了世界。
2016年3月25日,格斯纳会见IBM 50人的核心管理团队,他的一句话非常响亮——“市场决定我们一切行动”。
这可能是IBM历史上最重要的45分钟。
格斯纳出任IBM CEO后,公司开始放下技术自我,开始从技术驱动型公司向市场和客户导向型公司转型。
也从单纯的硬件制造商转型为服务和解决方案提供商,包括咨询、系统集成、IT服务和软件在内的综合服务开始提上日程。
如果说IBM革命是一场由硬件引领的软硬件革命,那么在当前这场以OpenAI为起点的革命中,软件则成为了席卷一切的风暴眼。
ChatGPT 将 OpenAI 从硅谷的一个笑话变成了新浪潮的领导者。
然后GPT-3.5演变为GPT-4,紧随其后的是Meta的Llama和Anthropic的Claude;而随着今年3月百度发布《文心一言》,国内这场大型模特大赛迅速演变成3个以上模特的臃肿大赛。
现在IBM已经不再是那么重要的一家公司了。
但 IBM 式的困境不断重演。
无数大型模型公司投入了大量的研发人员,但他们精心打磨的锤子却找不到钉子。
早期高调进入市场的百度此时并没有保持沉默。
2018年发布文心一言后,百度的第一个动作就是推出企业级大型模型平台千帆。
一年后,百度副总裁谢广军在百度智能云千帆产品发布会上公布了一组新数据——截至今年3月,千帆大模型平台已服务超过8万客户,微调13万顾客。
模型方面,开发应用数量达到16万个。
在表面上看似平淡的企业业务中,市场将决定大型模型厂商的一切行为。
随着模型基础性能的提升,市场需求开始进一步体现为行业应用的需求。
换句话说,大型模型功能的定义很难找到,最终取决于客户。
在这个层面上,百度是观察中国大模型行业整体趋势的一个很好的视角。
该公司正在经历自己的“格斯纳”时刻。
“我不需要像 AGI 这样的通用人工智能。
”一位新消费行业的客户从去年下半年开始,逐渐确认与百度在大机型上的合作。
智能客服和数据库是新消费行业普遍急需大规模转型的领域。
最早,这位客户也尝试过国内市场上比较主流的开源机型,但效果并不理想。
这位客户最终选择了百度ERNIE系列的轻量化大型号。
其技术总监告诉硅星,百度的模型在特定场景下的效果比其他尝试过的模型要好得多,而且这种能力能够以较低的成本获得,从而使成本长期可控,这一点很重要。
“满足某些场景的需求就足够了,我不需要AGI这样的通用人工智能。
”技术负责人说道。
这也是一个性能十足的千亿参数模型真正落入特定生产环境时所面临的错位感。
绝对的技术能力最终会进入效率和成本的参考系。
企业——也许在未来很长一段时间内——不是在寻找Sora,也不是在寻找GPT-4。
他们需要的是一个真正适合他们使用的模型。
——换句话来说,“性价比”是足够好的模式。
上述新消费客户使用ERNIE Speed。
ERNIE Speed是百度最新的大语言模型,旨在高效处理特定场景问题。
该模型具有出色的通用能力和出色的推理性能,是微调的理想基础。
ERNIE Speed 支持高达 K 大小的推理上下文,确保不同任务的适应性和效率。
来源:百度智能云 百度研发团队通过《ERNIE Speed》成功打造了精细调校的角色扮演模型,以经典影视作品《武林外传》为背景,展示其在特定场景下的出色表现。
与GPT-4和文信4.0相比,经过微调的ERNIE Speed不仅在性能上同样有效,而且在成本效益上也显示出显着的优势。
在相同输入输出条件下,基于ERNIE Speed微调后,推理成本降低了96%。
目前,ERNIE Speed已应用于多个行业场景,包括在线教育、智能办公、电商导购和数据分析等,都展现出其强大的实用性和效果。
包括ERNIE Speed在内,千帆大模型平台已发布三款轻量级模型。
如果说ERNIE Speed定位为“适合微调的最佳基础型号”,那么将成本做到极致的就是ERNIE Tiny。
ERNIE Tiny 的推理成本为 0. 元/千 Token。
在如此低廉的成本下,ERNIE Tiny 的性能并没有下降。
ERNIE Tiny是百度针对推荐、搜索、意图理解等大量高并发、低延迟场景提供的解决方案。
这些场景中的调用需求有两种,一种是大批量同质化的需求,另一种是响应速度非常快的需求——而在这样的场景下,需求本身的难度往往没有那么高。
例如,社交产品的后端组织大量同时涌入的交互内容,或者金融行业实时收集海量数据。
在一次测试中,使用ERNIE 4.0、ERNIE Speed和ERNIE Tiny等五个模型完成了某在线零售公司产品评论的情感分类任务。
结果显示,ERNIE Tiny 仅用了 1.4 小时就完成了。
。
ERNIE Tiny也是百度最适合C端的大机型。
“比如在高并发的推荐场景中,性能要求没有那么严格,但仍然需要大模型的逻辑推理能力和理解上下文的能力。
在这种情况下,Tiny具有价格和性能优势,工业用户使用起来更容易。
”百度智能云AI平台副总经理李静秋表示。
在ERNIE Speed和ERNIE Tiny之间,百度还设计了一个折中的ERNIE Lite。
ERNIE Lite比ERNIE Speed更轻,并且比ERNIE有更高的模型性能限制Tiny.考虑到优秀的模型效果和推理性能,适合低算力加速卡推理,推理价格达到0.元/千Token,来源:百度智能云。
到目前,大模型的共识在不到15个月的时间里已经发生了数次变化,生成式AI在消费端的杀手级应用仍在等待机会,但在ToB市场,生成式AI与企业之间形成了共生关系。
正在形成,而在这个过程中,模型参数从千亿到百亿回归,后者逐渐成为企业在成本与性能之间取得平衡的最佳点。
但模型参数的退化往往也意味着性能的崩溃。
这也是 ERNIE Speed、ERNIE Lite 和 ERNIE Tiny 的特殊之处。
大量企业客户的反馈表明,这些轻量级大模型在某些特定场景下可以达到大参数级模型的性能。
谢广军对此的理解是,最终,在这些小模型的背后,文心大模型库模型本身的性能和效率才是决定性因素。
某种程度上,在大车型的竞争中,“市场决定我们一切行为”最终会回归到技术竞争。
大型工业模型面临的场景复杂多变,所需的模型能力和训练方向也完全不同。
百度在这个战场上的胜利者注定不是某个特定的模型,而是这个模型群背后的千帆大模型平台,它利用文信大模型的能力作为制造模型的基础。
答案就在八万家公司身上。
百度智能云在3月份推出了千帆大模型平台,这是当时全球首个一站式企业级大模型平台。
六个月后,平台月活跃企业数量已接近1万家。
千帆大模型平台预设了67个国内外主流大模型和47个优质行业特征数据集,完成了从1.0到2.0的迭代。
更完整的工具链和大模型安全解决方案也逐渐成型。
在百度智能云千帆产品发布会上,谢广军透露,平台企业客户数量已达8万家。
利用常识对大模型进行微调,越来越成为企业对大模型的常规需求。
千帆大模型平台下一步的工作就是精简微调流程并开放。
谢广军表示,在大车型快速增长阶段,直接调用基础车型的用户还是较多的。
随着应用的深入,企业将进一步结合自身数据在基础模型的基础上进行微调,以提高模型效果或构建大型行业模型。
“相信微调的需求会大幅增加。
当然,企业对模型进行微调后,仍然需要做推理,因为推理是和应用最相关的,所以推理的需求会增加。
”也大幅增加。
”这也是企业服务大量客户后才能注意到的痛点——大参数模型的效率问题或许是最直接的点——但客户踩过的陷阱远不止这一点。
有些客户显然已经掌握了模型微调和训练的方法,但可能会苦于只有自己的业务场景,缺少一些通用数据。
结果,在整个微调过程中,大模型的常识被遗忘了;或者在模型迭代过程中,客户自身的业务数据也在不断变化。
例如,之前调整的提示或者之前微调的模型,在下个月业务业态发生变化时,将需要不断的升级过程。
简化微调过程的答案嵌入在千帆大模型平台的工具链中。
首先,千帆模型构建器支持数据回流和自动化分析判断,比如告诉你的客户哪些喜欢,哪些不喜欢。
我们将针对针对性的厌烦数据进行新一轮的优化,让您的业务场景可持续发展。
创建效果更好且成本可控的应用解决方案。
千帆大模型平台还开放通用数据,让模型保持“常识”不忘。
同时,在此过程中,诸如数据清洗算子、数据增强算子、数据洞察解决方案等,千帆大模型平台将提供样本洞察分析处理的一站式工具链,帮助用户更快、更轻松地实现最好的微调效果。
8万家企业客户形成的产业生态圈也给百度带来了更有说服力的视角,千帆大模型平台可以开始做一些更具体的工作。
除了三款轻量级模型外,千帆大模型平台还发布了ERNIE角色和ERNIE功能两款垂直场景模型,针对大模型与企业交集最深的问答交互和智能助理场景。
ERNIE 角色旨在创建具有独特风格和一致性的对话角色。
该模型凭借强大的指挥跟随能力和对个性个性的精准把握,在游戏NPC、客服对话、角色扮演等应用场景中表现出色。
通过支持微调功能,ERNIE Character可以根据具体场景和需求进一步优化对话体验和角色表现。
ERNIE性格已经开始陷入这个行业。
某智能硬件厂商利用该模型开发了智能助手,不仅在保持角色设计的一致性上取得了突破,而且有效激发和增强了用户聊天的兴趣。
此类对话和问答场景依赖于大模型与外部系统或服务交互的能力。
ERNIE Functions 是一个针对对话和问答场景中的函数调用进行优化的大型模型。
通过加强结构化答案的综合能力,保证调用外部工具、执行业务功能时输出结果的准确性和稳定性。
在出行出行App的实际应用中,ERNIE Functions支持智能客服助手进行订票、查询航班等操作,准确率高达92%。
来源:百度千帆大模型平台官网 另一个趋势是,人们对大模型的期待正在从上游模型本身转向下游AI原生应用。
这种关注度的变化也体现在千帆大模特平台的客户分布上。
平台上8万多个客户中,有的直接调用问心4.0、问心3.5或者基于轻量级大模型做模型微调,有的则在AppBuilder中开发应用。
如果说ModelBuilder的概念是一个生产平台的话,它提供了整个模型训练的工具链,让模型推理和微调变得更加容易。
那么AppBuilder的作用就是有效降低应用程序开发的门槛。
从模型到AI原生应用 根据风险投资公司a16z的分析报告,外部AI原生公司50强中有22家,超过40%是新的AI原生应用公司。
今年是AI原生应用元年,已逐渐成为共识。
在行业中,新的AI原生应用不会是无源之水。
很多场景本身已经非常成熟,在AI能力出现之前,数字化的痛点就已经暴露出来。
从这个角度来看,业界期待的AI原生应用更倾向于在模型能力进一步成熟后对现有工具和应用进行改造。
“在华夏,大家主要是在修炼——相当于炼丹——现在丹药已经快好了,你就得用了。
”谢广军说道。
目前千帆大模型平台上开发的应用数量已超过16万个。
这个数字非常可观,大到足以看出目前AI原生应用出现初期的两大主要人群。
“一种是代码态,基于对现有应用的智能改造,这是大B端场景下的典型客户画像;另一种是零代码态,主要针对小企业和个人开发者。
总的来说,它是一个全新的、独立的、toC的应用。
”谢广军说,“从人群分布来看,个人开发者较多,但从使用深度来看,企业内的专业开发者团队使用得更深入。

”这也将是人工智能原生应用程序可以期待的两个设计动机。
针对两种不同的路线,AppBuilder开始形成代码态和零代码态两种使用形式,并开始全面升级。
为了进一步提升开发体验和效果,AppBuilder将工具组件扩展至55个,包括数十个大型模型能力组件、AI能力组件、第三方API等,为开发者提供更丰富、更便捷的开发工具。
图片来源:百度智能云 同时AppBuilder推出了Agent自主任务规划和工作流编排。
只需三步即可完成应用创建和发布。
只需用自然语言提出问题,即可自动创建相应的应用程序,无需复杂的编写。
要求和代码。
这意味着对于非编码背景的开发者来说,开发门槛进一步降低。
谢广军表示,AppBuilder目前构建了企业级全链路检索增强应用框架,为企业级应用场景提供全链路知识检索增强,结合多种能力组件进行行业数据优化。
包括非结构化文档解析、语义向量计算、语义匹配、问题分解、多轮重写、幻觉检测、阅读理解问答、文档形式问答等。
除了搜索增强框架和丰富的组件工具之外,另一个核心优势是AppBuilder的特点是它的开放性和易用性。
在这个工业级AI原生应用开发平台上,目前已经基本可以覆盖当前主流场景的组件工具和丰富的应用实例,且组件开放、编排灵活。
丰富的开源SDK,包括RAG SDK,支持开发者二次开发。
此次,百度千帆模型还发布了全新开源Agent SDK。
另外,如何将自己的应用带给更多的人,对于开发者来说也是一个新的问题。
AppBuilder还进一步打通了发行渠道。
AppBuilder平台制作的应用现已可通过微信公众号、微信客服、网页客户端、H5、百度灵晶矩阵等多种渠道一键发布。
从ModelBuilder到AppBuilder,大模型如何走向场景的具体路径,百度内部早已揭晓。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-17
06-18
06-17
06-17
最新文章
首先告诉我什么是智能汽车!
盲盒明星卡的暴利与泡沫:2元卡卖700万,直播卖卡月入百万
黑色星期五轰轰烈烈地回来了,结果这些中国企业扛起了全场
锂电池隔膜疯狂扩产:兴源材料欲夺回C位?
当我考上缅语专业时:凌晨三点我还在走廊里背单词,毕业后,我不仅仅是一名翻译者
被遗弃,被收获?老年人上网到底有多难?
海外日报 -今年,我国自主研发游戏海外实际销售收入实现两位数增长;三星电子正式成立机器人业务团队36氪海外·15分钟前
腾讯音乐:爱、相信、坚持