汽车垂直自媒体平台“车鸣兽”获维京传媒A+轮融资,估值1亿
06-17
新年的钟声即将敲响,站在这个历史节点,回顾过去的一年、发展最进步、最变革、最创新的行业非人工智能莫属。
人工智能的快速进步就像海洋一样??,激起无数的可能性。
其中,今年国产大型车型的出现和快速发展成为最引人注目的焦点,给我们每个人的工作和生活带来了前所未有的新奇体验,掀起了人工智能发展的浪潮。
它们的出现标志着人工智能从单一任务处理转向多任务、复杂任务甚至多模态任务处理。
这些大型模型不仅可以理解和生成人类语言,还可以理解和生成图像、视频等各类数据。
他们甚至可以在多个任务之间进行迁移学习,表现出惊人的灵活性和适应性。
不过,能力的跨越并不意味着大车型的研发就会一帆风顺。
庞大的参数量和计算要求使得训练和部署这些大型模型成为最具挑战性的任务,而国产大型模型在计算能力被封锁和限制的情况下就更加尴尬。
同时,大模型的强大能力与生产生活中的实际落地还有很长的路要走。
如何快速、准确、低成本地将它们放置在应该放置的地方,也成为许多大型模型制造商正在思考的问题。
尽管如此,我们仍然不能否认大型模型带来的巨大潜力。
它们为我们打开了一个全新的世界,让我们有机会以前所未有的方式理解和利用数据。
那么,回顾过去的一年,在人工智能发展的三驾马车——算力、数据、算法方面,“国产派”遇到了哪些问题,取得了哪些突破,有哪些想法?在百款大战甚至千款大战的背景下,各厂商都推出了什么样的大车型呢?面对大模型能力上线和落地难的问题,企业该如何解决? 01 大车型三驾马车发展走在前端。
算力、数据、算法作为大模型的三大支柱,都是不可或缺的因素。
年中,他们在各自的道路上取得了长足的进步。
,也面临诸多发展困难。
其中,算力是实现大模型的基础,发展基调可以概括为“外部制裁、内部发展、夹缝中求生存”。
今年8月底,美国官员下令芯片制造商英伟达停止向中国出售部分高性能GPU,另一家AMD半导体也收到了相关禁令。
一年后的10月17日,美国商务部继续延长今年10月首次实施的全面出口管制,并继续收紧尖端人工智能芯片的出口管制。
新规定下,英伟达最新的H自然是没有希望销往中国了。
就连去年新规出台后专门为中国设计的“第一版”GPU A和H也不会进口。
同时,随着管控规则的更新,除了可直接使用的产品外,芯片制造工具的出口限制清单也有所扩大。
中国两家国产GPU厂商——摩尔线程和必仁科技被列入“实体清单”,大型模型开发所需的算力受到很大限制。
但也正是因为这一禁令,国产GPU芯片不再被NV、AMD“骑在头上”,有了快速发展的窗口期。
其中,华为Ascend、寒武纪加速芯片等国产GPU芯片也在此次禁令的推动下迎来春天。
在与华为相关人士的沟通中,对方表示,华为Ascend于2018年发布,并于今年10月发布了最新的B芯片,相比上一代,FP32的性能有所提升。
科大讯飞副总裁江涛也在Q3性能发布会上透露,华为的Ascend B能力基本达到了NVIDIA A的标杆。
但在谈到升腾B的应用时,对方也表示升腾还有很多领域急需改进的。
比如现在的互联网企业更加追求性价比和易用性,而华为目前的服务器产品仍然基于鲲鹏,导致业务出现问题。
迁移成本较高,因此目前还处于早期POC阶段,真正量的增长至少需要20年甚至更长的时间。
除了被视为“中国NV”的华为升腾之外,有“中国AMD”之称的寒武纪也在加大AI算力芯片的研发和推广力度。
据媒体报道,百度内部测试结果显示,寒武纪首款产品思源最高性能接近A90%,整体性能与A80%相差无几。
但由于寒武纪采用ASIC架构,导致通用性较差,目前仍无法投入大规模训练。
除了华为和寒武纪之外,国内其实还有很多厂商在大力推动AI芯片的研发,比如海光的DCU、天枢智信的天盖、燧原的云燧、必人的BR等,都拥有很大的优势。
竞争力强。
作为后来者,虽然在能力和适用性上与NVIDIA最新的加速卡相差甚远,但它也在通过不断的技术创新和市场拓展展现出自己的优势。
竞争力。
在国内厂商大力推动AI芯片进阶的同时,面对目前海量的需求以及短期内只会愈演愈烈的AI芯片禁令,国内几大公有云厂商也在用“集中算力换卡”的方式与云”。
”解决计算能力问题的方法。
“集中算力,以云代卡”,顾名思义,就是把很多AI芯片聚集在一个地方,然后通过云端把算力传输到需要的地方。
这可以提高算力基础设施的质量和效率。
实现资源的优化配置和共享,这就是中小企业很难获得加速卡的原因。
相反,几大公有云厂商竞相构建算力池。
IDC数据显示,上半年我国AI服务器已使用了50万颗自主研发的AI加速器芯片。
华为推出升腾AI云服务,提供独立的AI算力服务。
在东方数字计算、西方计算的背景下,各地建立了多个使用独立AI算力的AI计算中心,保证云端AI算力的稳定可靠供给。
总的来说,算力是最受追捧和拦截的领域。
2017年,国内大型模型厂商同样靠拼凑生存,但面对算力差距拉大,将变得更加困难。
显然已经成为中国人工智能追赶世界顶尖水平的绊脚石。
因此,未来算力层面的公司也会多次退出炒作,可以关注相关投资机会。
如果说算力决定了大模型能否发布,那么数据就是决定大模型好坏的关键因素。
大家都明白数据越多越好,数据多样性越好,数据质量越好,所以目标是一样的,方法也没有太大区别。
目前国内科技和互联网领先公司主要基于公共数据和自身独特的数据差异化来训练大模型。
例如,百度文心主要依赖于万亿级网页数据和搜索数据,阿里巴巴统易主要来自阿里巴巴大摩。
腾讯混元的训练数据大部分取自微信公众号、微信搜索等,但这些信息大部分都是互联的,所以截至目前,国内大模型的整体数据规模和质量相差并不远。
。
然而,有一个在最初几年的发展中没有被注意到的隐患,那就是高质量的语言数据和图像数据可能会被耗尽。
据机构预测,全球英语语言数据将在~年内耗尽,而能够训练出更好性能的高质量语言数据将在年内耗尽。
与英文数据相比,高质量的中文数据集更加稀缺。
虽然国内数据资源丰富,合成数据也很多,但由于挖掘不足,优质数据无法在市场上自由流动。
未来,厂商如果想在大模型上走得更远,或许需要投入资金寻找高质量的数据。
未来,知乎、豆瓣等掌握海量优质数据的公司,以及挖掘、合成数据的公司,也将获得一定的发展空间。
在算法层面,目前很多都是基于Google提出的Transformer模型构建的,并且还在不断更新和迭代,但这不一定是静态或必然的路径。
在AICC人工智能计算大会上,浪潮信息人工智能软件研发总监吴少华表示,想要接近甚至超越GPT4的能力,必须同时考虑算法和数据。
首先是算法。
不能盲目使用LIama结构或者Transformer结构而不做任何创新。
例如,在考虑算力不足时,在相同架构下可以尽可能减少参数数量,这样可以提高参数效率,节省算力,相当于从算法层面考虑算力成本,而这样更新和改进算法的想法是各大厂商一直在做的事情。
02 模式进步两轮驱动,基础与产业并重。
在底层技术不断迭代的同时,各大机型的不断发布自然成为最引人注目的事情。
自3月份百度发布文心模型以来,我们不断听到华为、阿里巴巴、腾讯等各大互联网公司,360、科大讯飞等AI公司,以及清华、复旦等高校的科研成果。
机构推出的大型车型及相关升级进展。
截至目前,已有10余种各类型大型机型上市并正在被用户使用。
来源:头豹研究 不过,这么多的大模型按照属性一般可以分为两类:基础大模型和行业大模型。
其中,基础大机型是指通用性强、适用范围广的大机型。
它可以用于多个领域和任务,也可以针对特定数据进行训练和调优,使其成为面向某个方向或专用于某个行业的大模型。
但基础大型模型的入门门槛较高,往往需要大量的计算资源和训练数据进行开发和优化。
以国内最强大的基础大模型——文心大模型为例。
其参数量飙升至万亿级,相关算力也由万卡AI集群提供,相关成本大幅增加。
同时,在具体实现上,很多人会发现,经过一年打磨升级的文信4.0、迭代后的同易前文、改进后的混元大模型,已经具备了和一些行业专用大模型一样的能力。
模型甚至是有一定的差距,所以他们认为基础大模型的能力可能没那么重要。
为每个行业训练大模型并快速应用到生产中是正确的做法,但这种想法是非常错误的。
与大型行业模型相比,基础大模型的参数量超过一定阈值后,AI效应将不再是随机概率事件。
这时候,将其训练成行业大模型,会更容易得到准确的结果。
同样,基础大模型也是其下所有产业模型的中心和核心。
只要“大脑”哪怕有一点进步,都会带动整个模型组能力的提升。
以百度为例,文信大模型4.0升级将提升所有行业模型在千帆智能平台上的实施能力。
此外,行业模型大多依赖人工标注和调优,存在成本高、周期长、效率低的缺点。
然而,基础大模型可以进行自学习、自监督、自修正,可以显着加速训练效果,还可以总结出不同情况下的通用能力,这样的训练可以使全知人工智能在电影是一个真正的可能性。
因此,在基础大模型还不可靠的情况下,放弃基础大模型的探索而转向行业大模型的开发,未免显得“短视”。
继续增加基础大模型的数量,或许有助于未来行业大模型的发展。
起到事半功倍的作用。
但作为一个门槛极高、成本巨大的赛道,还是留给大厂商吧。
而年中我们还可以欣喜地看到,BAT、华为等大机型梯队企业正在行业内布局大机型。
,在应用生态的过程中,基础大模型的迭代速度一直没有放松。
未来,随着基础大车型的突破,我国大车型的能力将有机会“一飞冲天”。
不过,基础大模型的建设固然重要,但并不影响行业大模型的发展。
相反,由于对大模型能力的巨大需求,年内金融、消费、能源行业的项目较多。
一个非常好的实施案例。
在金融行业,百度旗下杜小满采用“通用大模型+自有行业数据”的方式,打造了金融行业垂直大模型“轩辕”。
在金融应用场景中,传统的通用大型模型由于其训练数据很少接触金融行业的专业术语、业务逻辑和公式计算,因此在特定问题上表现不佳。
“轩辕70B”的优势在于其专业的金融能力,受益于预训练和微调阶段的海量金融专业语料库训练,无论是注册会计师考试(CPA)、银行/证券/??保险基金/期货资格、理财师、经济师等金融领域十大权威考试,都能提供专业的支持和解答。
图片来源:投宝研究院 但轩辕能的角色更像是一个助手,它提供的价值更多是在工具层面。
未来,随着金融行业大模型的数据合规、隐私安全等问题得到解决,将应用于更多交互场景,赋能金融行业数字化发展。
在一般消费领域,阿里巴巴、京东等依托电商的各大企业,都有客服机器人、营销数字人等大行业模式的应用。
在电商中,客服一直是最依赖劳动力的环节。
双十一、6月18日等购物节期间,需要24小时即时响应。
由于对劳动力的依赖,客服团队效率极低,很难让客户满意。
需要。
不过,今年双十一期间,京东、淘宝等平台都推出了智能客服。
以京东为例,“京小智”可以以人工价的零点几的价格为用户提供即时服务。
当连接到京东使用大模型后,就可以与消费者顺利沟通。
除了智能客服,京东的数字人在直播中也引人注目。
他们的形象可以根据企业的需求进行定制。
音色、形象、身高、体型等项目可根据企业需求进行个性化定制,并可与真实主播互动。
搭配轮班,甚至完全被直播主播取代。
此外,导购服务也是大模式融入电商行业后带来的新功能。
今年9月淘宝加入统一钱问后,淘宝问话可以为C端用户提供智能导购服务,消费者只要提出相关问题即可。
问题,AI可以快速提供你需要购买的产品、相关视频介绍、产品链接等,成为新的流量入口,让商家、平台和消费者实现三赢。
在较为“硬核”的能源行业生产场景中,华为、商汤科技等厂商都有深厚的造诣。
在能源电力行业,从业者曾经面临一个问题:能源短缺时如何将能源分配到最需要的地方,能源充足时如何储存。
这就涉及到虚拟电厂的调度问题,引入大规模能源建模后,可以对电力供需双方进行精准控制,起到“削峰填谷”的作用。
据投报研究院介绍,华为、商汤科技等厂商研发的电力行业人工智能大型模型已投入使用。
例如,华为基于L1级盘古电力模型推出了无人机电力巡检、电力缺陷识别等场景模型。
商汤科技以AI大模型为基础,提供电力系统大模型解决方案,持续向电力能源行业输出优质的AI算法和算力,赋能电力系统多领域智能升级。
此类行业大型模型和具体应用还有很多,而这只是其能力的第一年。
未来,更多的应用将会出现在我们身边,它们也将随着大模型能力的进化不断迭代,并走完从神化到祛魅的完整过程,真正成为人类最好的帮手。
03 结合云模型的新交付方式——MaaS 加速增长。
随着年中大车型的密集发布和快速增长,一个新的问题摆在了各大厂商的面前,那就是如何将大车型的能力整合起来,简单快速地交付到应该的地方。
是。
毕竟,如果产业化落地出现问题,那么大模型的一切都将成为空谈。
但此时,MaaS(模型即服务)的概念开始流行。
MaaS是指将大型模型封装成可调用的云服务,通过云计算平台提供给用户。
这种面向服务的模型部署方式将模型和计算资源放置在云端,用户可以通过简单的API接口调用模型。
,无需关注底层模型训练和部署细节,计算资源可根据需求自动扩展,实现弹性扩展和高可用。
像MaaS这样将AI与云结合并推出的形式,无论从需求、供给还是现有的云基础设施建设来看,都是必然的。
从需求端来看,企业仍处于向数字化智能化转型的阶段。
很多生产场景就像旱地,等待着人工智能的雨露帮助提升效率;在供给端,由于计算资源和存储资源的影响,不可能做到“人人有卡,人人都可以用”,所以只能采用集中算力然后投入的方式;在基础设施方面,在过去的十年里,我们已经构建了一套相关的完整的云系统,而MaaS正好可以替代SaaS。
因此,截至目前,几乎所有兼具云和大模式的厂商都发布了自己的MaaS平台——百度千帆、字节火山方舟、腾讯云MaaS平台、阿里云MaaS平台……都已上线。
以百度千帆为例。
内置一百多个提示模板,包含对话、编程、电商、医疗、游戏、翻译、演讲等十多个场景。
相关企业可以直接选择某个型号,也可以将现有型号添加到该型号中。
基本上就是根据自己的需求添加数据进行微调。
腾讯云MaaS的服务大体相同,提供金融、文旅、媒体、政务、教育等10大行业50余种规模化模型解决方案供客户调用。
除了百度和腾讯之外,其他MaaS平台也有类似的建设思路和方法。
他们都利用基础设施和行业理解来提供一整套开发工具和套件,以确保满足不同规模和需求的客户。
递送。
然而,2017年MaaS的发展还远未完成。
充其量只能说是为以后的发展树立了一个模板。
还有很多地方需要改进。
对于厂商来说最头疼的点之一就是基础大机型和行业大机型之间的差距。
俗话说“三百六十,第一为佳”,但在现实行业中,远不止这个数字。
让大厂家滚基本的大模型还可以,但是需要几万人甚至几万人来制作。
成千上万的开发者去接触每一个行业,为每一个方向定制特殊的大模型,无异于一厢情愿。
这需要真正的修行者参与,但难度也不小。
可以说,这个问题仍将长期困扰制造商、行业乃至社会。
另外,MaaS本身是一种云服务模式,算力是提供服务的基础。

随着MaaS的发展,云服务市场对算力的需求呈现爆发式增长趋势,而厂商尚未理解其商业化逻辑和大模型数据的不断增加以及算力价格的不断上涨已成为一大问题。
限制MaaS发展的问题。
除了这两大痛点之外,用户教育也需要时间的积累。
闹吉体表示,腾讯云TI平台包含数据标注、训练、评估、测试、部署的全套工具,在没有技术专家、产品经理深入指导的情况下,就已经交给了行业客户和合作伙伴。
项目经理、运营等、程序员等都是按部就班的传授,很难满足定制化的需求。
但无论如何,MaaS等服务模式正处于发展初期,尚未形成较为成熟的模式。
未来,如果各大厂商有了清晰的商业模式,解决了算力短缺的问题,客户教育逐步完善,那就属于MaaS。
春天正式到来了。
04 写在去年,对于国产大车型的发展来说是充满机遇和挑战的一年。
在算力、数据、算法“AI三驾马车”的驱动下,国产大模型取得了长足进步,但也面临不少困难。
但令人欣喜的是,大模型作为新兴事物,很快就完成了商业模式的基本闭环。
虽然目前还存在不少困难,但能在最初几年达到这个水平,已经体现了国内互联网和科技巨头的实力。
工厂实力雄厚。
未来,随着底层技术、大模型能力、交付能力和商业化模式的进一步发展,人工智能将不断渗透到我们的生活中,成为每个人都可以借用的强大生产力工具。
【本文经投资界合作伙伴微信公众号授权:秋拍。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-06
06-17
06-06
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态