瑞彼获数千万元追加A轮融资,奇富资本独家投资
06-18
ChatGPT火了之后,未来生成式AI的很多愿景直观地指向了微信。
这个每天有超过12亿人多次打开的地方,是当下最活跃的信息交流场,也是最有望被生成式AI重做的地方。
从不断出现和被屏蔽的各种野生“微信机器人”就可以看出这一点。
敲鼓的人多了,足见腾讯的谨慎。
“对于工业革命来说,提前一个月取出灯泡从长远来看并不是那么重要,”马化腾在今年5月的第一季度财务报告中表示。
他还表示,“关键是要把底层算法、算力和数据做好——更重要的是场景的落地。
”言外之意就是,腾讯要拿出来的东西,一定是产品和技术上都很完整的东西,并且已经想好了如何去实现。
6月19日,也就是马化腾讲话一个月后,腾讯首次披露了其在大型模型方面的进展。
主角就是腾讯云,专注于行业大模型。
“精选店” 如果说大模型的竞争是一场在所有人工智能领域对玩家进行技术水平的竞争,那么随着这几个月国内对大模型的讨论逐渐从一般性转向更务实的产业角度,相反,大制造商已经在更具体的竞争中找到了自己的优势。
“现在是一个合适的时机,跟大家分享我们过去一段时间积累的实践、沉淀、思考以及工具链(大模型)”,腾讯云副总裁、腾讯优图实验室总经理吴云生表示。
腾讯云向大模型方向迈出的第一步是腾讯云MaaS,或者说一站式行业大模型选品店。
腾讯云MaaS全景图来源:腾讯云云厂商被认为在大规模模式向垂直领域渗透的过程中发挥着巨大的作用,因为他们在服务企业客户的过程中天然具有垂直领域的视角,同时站在行业内场地。
超越每个企业狭隘的个人视角。
企业在大模型训练和部署的门槛和成本考量上遇到的障碍,将会从云厂商更高维度的行业角度来平衡。
首先是数据质量差的问题。
构建大型模型也是一项成本极其高昂的系统工程。
大型模型需要大量高质量的数据进行训练和优化。
还必须对它们进行清理和预处理,以消除噪声、填充缺失值并确保数据质量。
往往由于各种类型的数据出现问题,导致模型的效果和效率得不到保证。
如果导入的数据质量低,训练出来的模型也会出现问题——所谓的垃圾进垃圾出。
此外,计算资源是有限的。
大型模型需要相对较高的计算和存储资源,但许多公司和机构缺乏这些资源,导致无法训练和推断大型模型。
与普通服务器相比,GPU服务器的稳定性相对较低。
大型模型训练所需的GPU很容易达到1000卡路里。
而且,在训练集群中,连接数百台GPU服务器所需的网络速度非常高。
如果网络有点拥堵,训练的速度就会很慢,效率会受到很大的影响。
此外,大模型开发和实施方面专业知识和人才的缺乏,将进一步增加企业大模型的投资成本。
腾讯云开发MaaS并不奇怪。
后者被称为未来云厂商的基础能力,已经开始成为共识。
不同的是,腾讯云尝试用更多“量身定制”的解决方案来拆解企业在实施大型模型时面临的实际问题。
这个“精选店”拆开来看是一个三层架构:顶层是面向行业的MaaS层,底层是行业大模型和基础设施组成的技术基础,以及以腾讯TI平台为基础的工具层。
主体成为中级支撑,为企业客户提供涵盖模型预训练、模型微调、智能应用开发的一站式行业大模型解决方案。
发布会上,来自不同行业的17位生态合作伙伴同台亮相。
腾讯云在大规模行业模式上的优势首先来自于在工业互联网上多年积累的行业知识。
一般的大语言模型在处理工业场景时有一定的局限性。
首先,一般大型模型的训练数据主要来自公共数据集或网络数据,特定行业专业领域的知识有限。
而且通用大型语言模型的训练需要大量的计算资源和较长的训练周期,对于企业来说成本较高。
腾讯云MaaS的培训基于一套包括金融、政务、文旅等在内的优质行业大模型,目前已有智能客服、OCR、跨模态等50多个行业大模型应用检索等领域。
行业解决方案。
对于这些领域的公司来说,这意味着可以随时获得具有行业知识的大型模型。
在此基础上,添加自己独特的场景数据进行精细化训练,门槛就低很多。
企业可以快速生成自己的专属模型,也可以根据自身业务场景需求定制不同参数、规格的模型服务。
在具体的培训课程中,公司并不想回答一个完全开放的问题。
他们需要完整的模型工具和经过反复验证的高效成熟的训练流程来指导。
腾讯内部TI平台提供的工程能力,负责全栈AI开发服务,是腾讯云MaaS的核心。
后者拥有一整套从数据标注、训练、评估到测试和部署的大模型工具链。
TI平台是其背后的核心。
腾讯云在TI平台下推出了三大AI底层平台:TI DataTruth、TI ONE和TI Matrix,提供包括算法开发、模型训练、数据标注和数据处理在内的一系列开发能力。
此次平台升级计划强化了TI平台的工具属性,也成为腾讯云在大模型领域找到自己定位的伏笔。
TI-DataTruth专注于数据生产要素——提供数据标注运营、数据众包管理、场景数据挖掘等智能数据生产服务。
TI-ONE是整个大模型开发流程的重点——内置多种训练方法和算法框架,为用户提供从数据接入、模型训练、模型管理到模型服务的全流程开发支持,满足不同AI应用场景的需求。
需要。
TI-Matrix贴近应用层——支持各种数据、算法和智能设备的快速接入,并提供可视化编排工具用于模型服务和资源的管理和调度。
通过AI服务集成和标准化接口开放,进一步降低AI成本。
应用程序开发成本。
腾讯自研的机器学习框架“太极天使”也在传统CV和NLP算法模型的基础上增加了大型模型的训练和推理加速能力。
通过异步调度优化、显存优化、计算优化等方法,“太极天使”支持的训练和推理过程的性能较业界常用方案提升了30%以上。
“现在TI平台升级为MaaS,并不意味着工具属性没有了,工具属性还在,仍然非常重要。
但是除了工具属性之外,我们还构建了很多大型的行业模型,在平台中对他们进行训练,创建自己的模型后,该模型可以直接完成下游任务并为应用程序提供外部服务。
”吴云胜表示,此次TI平台完成了从算法到产品层面的全面升级,其背后是雄厚的算力。
由专为大型模型训练设计的新一代HCC(High-PerformanceCom马化腾gCluster)高性能计算集群提供。
今年4月,腾讯云发布了新一代HCC高性能计算集群,用于大型模型训练。
后者采用最新一代腾讯云星海自研服务器,多层加速的高性能存储系统,加上高带宽和低延迟。
网络传输,拥有业界最高互联网带宽3.2Tbps,算力性能提升3倍。
去年10月,腾讯完成了首个万亿参数大规模AI模型的训练。
在相同的数据集下,上一代HCC高性能计算集群可以将训练时间从50天缩短到11天。
如果基于新一代集群,训练时间将进一步缩短至4天。
在大产业模式的讨论中,一切都是为了产业的最终落地服务的。
这不是一个拥有数万亿个模型的规模游戏。
重点是灵活性和效率。
腾讯云还推出了更适合AI计算的矢量数据库。

后者可以更有效地处理非结构化数据源,例如图像、音频和文本。
其能力源自腾讯内部向量引擎(OLAMA),每天处理数千亿次检索,提供高吞吐量、低延迟、低成本和高可用性。
,弹性扩展的一站式矢量检索数据库。
单个索引支持10亿向量规模。
AI的检索和数据访问效率将比传统解决方案提高10倍。
大机型的崛起反过来正在重塑云厂商未来的发展方向。
腾讯云副总裁刘颖将其归类为AI1.0到AI2.0的转变。
“AI1.0时代,我们非常重视单机单卡的性能,标量数据的结构化精准检索,以及云原生带来的自动调度。
新背景下,AI2.0业务迭代速度更快,服务的重点也发生了变化,要成为AI企业和大模型,我们需要将重点转向集群性能、矢量数据存储和检索、自动容错等方面的提升。
”需要一个更加灵活、自由、高性能的云平台。
”“这也是腾讯云进军大模式的态度。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-18
06-18
06-18
06-06
06-17
最新文章
首先告诉我什么是智能汽车!
盲盒明星卡的暴利与泡沫:2元卡卖700万,直播卖卡月入百万
黑色星期五轰轰烈烈地回来了,结果这些中国企业扛起了全场
锂电池隔膜疯狂扩产:兴源材料欲夺回C位?
当我考上缅语专业时:凌晨三点我还在走廊里背单词,毕业后,我不仅仅是一名翻译者
被遗弃,被收获?老年人上网到底有多难?
海外日报 -今年,我国自主研发游戏海外实际销售收入实现两位数增长;三星电子正式成立机器人业务团队36氪海外·15分钟前
腾讯音乐:爱、相信、坚持