意大利将于2022年1月底举行第八次可再生能源拍卖
06-08
“下一个发展趋势应该是NLP对话”。
吴悦在2016年离开腾讯时就说过这句话,而这也成为他离开腾讯后决定的首选创业方向。
2006年,吴悦从中国科学技术大学硕士毕业后加入腾讯。
腾讯逐年主要从事存储系统研发,逐年专注于搜索技术。
您最初为什么专注于 NLP 领域创业?追一科技创始人、CEO吴悦解释道:“在腾讯,我们既做了基础设施,也做了搜索推荐。
当时我们就觉得NLP技术的商业价值非常大。
在搜索方面,我们孵化了这样的大公司像谷歌、百度这些公司其实都是NLP时代比较典型的搜索应用,在这个基础上孵化出今日头条等,我们决定下一步的方向应该是NLP对话。
”这样,吴悦创立追一科技后,就将重点放在了NLP和深度学习方向上,先后推出了对话分析AI应用平台和AIForce数字员工产品家族,其中AIForce数字员工产品。
家庭是处理营销、服务、运营等场景任务的智能机器人,也是追一的主要产品矩阵,包括智能在线机器人Bot、智能语音机器人Call、智能助理机器人Pal、多模态数字机器人等。
在当时,这一系列产品的开发并不是一件容易的事,所以追一自成立以来就特别注重新技术的应用,对此,吴悦也强调了。
2008年对Transformer架构和2008年提出的Bert架构做了相关研究。
例如围绕Transformer提出了RoPE旋转位置编码技术。
被谷歌、Meta、阿里巴巴、百川智能等国内外大型模型厂商广泛使用。
当谈到年底流行的生成大模型时,吴悦深深地感到原来的技术架构已经无法适应市场变化和客户需求。
因此,今年年初,追一科技尝试使用大模型技术。
基于基础研究,我们推出了博客领域的大模型,并基于大模型的能力重塑了现有的软件产品。
在大车型热潮中,追一没有选择一般大车型赛道,而是选择了领域大车型。
究其原因,吴悦告诉《人工智能技术评论》,大模型的演进方向主要有两个分支:一是向通用大模型方向发展,这需要不断打通大模型能力的天花板。
比如OpenAI或者国内一些大型模型厂商都在往这个方向发展。
另一个分支是围绕企业具体业务场景的需求定制大企业模型。
追一科技今年年初推出的博客领域大模型属于第二个分支,即针对企业的具体业务,如营销、客服等场景,定制专有的大模型。
但从目前来看,无论是通用模型还是领域模型,挑战都非常大。
一般大型模型的难度主要是规模化的难度,包括参数量规模化、数据规模化和计算能力规模化带来的难度。
领域模型测试直接解决客户业务痛点并洞察客户需求的能力。
但由于整个业务链条比较长,这是一个非常大的挑战。
吴悦对此表示赞同,他还表示,大型模特比赛比的是综合实力。
从客户角度来看,在关注技术变革的同时,也会关注安全合规、成本等因素。
企业要想在这场技术革命中生存,需要具备核心技术能力、产品化能力、专业服务能力以及各种业务咨询能力。
“从技术角度来看,大模型确实是一个重要的变量,但并不是唯一的变量。
”吴悦补充道。
以下为《人工智能科技评论》与吴悦的对话:乱世中,GPT掀起人工智能新范式 《人工智能科技评论》:你为何选择离开腾讯创业? 吴悦:2001年,硕士从中国科学技术大学毕业后加入腾讯。
腾讯逐年主要从事存储系统研发,逐年专注于搜索技术。
我们选择在2011年创业主要是因为我们把基础设施??和搜索推荐都做了。
当时我们就觉得NLP技术的商业价值是非常巨大的。
搜索催生了谷歌、百度等大公司。
事实上,这些公司都是NLP时代比较典型的搜索应用。
如果有推荐,我们孵化了今日头条等。
基于此,我们决定下一步的方向应该是对话,所以2016年创业的时候,我们做了一个对话机器人,主打NLP。
AI科技评论:从NLP到深度学习再到大模型,您如何看待三者之间的关系? 吴悦:有些概念需要重新定义。
NLP属于自然语言处理。
它是人工智能三大方向之一,也是难度最大的方向。
深度学习是一种神经网络,是人工智能的一种方法论。
人工智能首先解决了视觉、语音和NLP的问题。
大型模型继续向神经网络方向发展。
每一年都是深度学习的突破。
2018年AlphaGo的发布是强化学习领域的一个突破。
从年底到今年,包括ChatGPT,其实都是生成式大模型的突破。
这些其实都是属于神经网络的一个技术分支不断发展的过程。
AI科技评论:追一在不同的技术节点做了什么? 吴悦:从公司成立到今天,有三个重要的时间点。
第一个时间节点:2008年我们创业时,我们将深度学习技术应用到对话机器人上。
因为以前的对话机器人大多是通过搜索或者一些规则来实现的。
当时我们是第一个先于其他公司将深度学习技术应用到对话机器人上的。
这是第一个里程碑。
第二个时间节点:2008年提出的Transformer架构,2008年提出的Bert架构,这些都处于大模型技术爆发的前夜。
当时我们围绕Transformer和Bert的架构做了相关的研究。
例如,围绕变压器提出了RoPE旋转位置编码技术。
当时被谷歌、Meta、阿里巴巴、百川智能等国内外大型模型厂商广泛采用。
这是我们的原始创新,也是作为一个AI创业公司对生成大模型的一个小小的贡献。
当然,现阶段我们也围绕Bert开发了ZOne大模型。
第三个时间点:年底GPT爆发后,我们在博客领域推出了一个大模式,重点关注服务和营销领域。
我们围绕商业友好、合规可控、温暖、包容、实用四个理念构建博客领域的大模型。
AI科技评论:ZOne模型和现在的模型概念有什么区别? 吴悦:ZOne主要是基于Bert路径,它是表征大模型的一个分支。
其实大模型的本质就是模型参数非常大,基本都是从10亿开始。
沿着这个方向,衍生出了两个方向。
一种是代表性的大模型,典型的就是Bert。
另一种是生成大型模型,通常是 Open AI 的 GPT 路径。
AI技术评论:从早期的技术到现在的GPT,在技术选型上有没有什么挑战? 吴悦:2000年这个时间点其实有点混乱。
当时我们面临的问题是走表征方向还是生成方向?其实一切都还不清楚,当时大家都处于探索阶段。
直到年底年初,ChatGPT出来之后,大家都觉得生成式模型可能更有发展潜力,所以这个阶段大家都选择全面拥抱生成式大模型。
当然,大型表征模型在实际商业化过程中还是非常有用的,所以我们正在继续朝这个方向努力。
开源与闭源的争论,开放服务越来越多。
AI技术点评:追一很早就开始做大模型研究。
当时主要考虑什么? 吴悦:我们决定做一件事之前,背后有一个逻辑的支持。
一个大模型出现之后,它的应用方向或者说它的发展方向有两个分支。
首先是向通用大机型方向发展,针对一些通用需求,比如最终用户的需求。
这个过程需要不断打开大模型能力的天花板。
通常,OpenAI或者国内一些大型模型厂商都是往这个方向发展的。
另外一个分支是我们认为是围绕企业的需求,或者说围绕具体业务场景的需求定制一个大的企业模型。
所以,我们今年年初推出的博客领域的大模型属于第二个分支,也就是说我们选择针对企业的具体业务,比如客服、营销等,定制一个垂直领域的大模型。
以及其他场景。
AI技术评论:那么可以理解为遵循领域模型、自研还是基于开源微调的路径? 吴悦:博客领域大模式的发展也是阶段性的。
我们目前的方向是并行走两条路,因为我们的出发点是建立一个可以实现的集成大模型。
从实施的角度来看,有两种选择。
一是聚焦开源模式,向其注入知识、增强能力。
另一个逻辑是自下而上建立一个集成的大模型。
从现阶段来看,第一阶段实施会比较快,第二阶段会比较慢,因为完全自研会涉及到投资、风险等问题,所以我们还是比较谨慎地对待这个事情。
(更多大模型行业相关话题,欢迎添加微信ericahss互相交流,分享知识) AI科技点评:选择开源模型时,是全部并行使用还是择一使用?吴悦:我们都是并行使用的。
,重点是知识注入和能力强化的层面,需要更加专业的工作。
只有这样才能充分发挥大模型的能力。
AI科技评论:您认为开源会成为主流模式吗?或者说大多数公司实际上都在期待更多大型开源模式的出现? 吴悦:我觉得沿着企业级的方向,可能会越来越开放,而沿着通用人工的方向,可能还是会坚持闭源。
如今,每个人都在谈论开源模式。
我觉得下一步不仅要增加开源模型的数量,还要出现更多的开放服务,比如开源数据、开源算法,甚至很多基础框架。
的。
AI技术评论:经过半年多的实践,您认为构建大模型的难点是什么? 吴悦:从客户的角度来看,以我们自己为例,我们服务的是大中型客户。
这样的公司往往有两个考虑:一是技术层面,二是业务层面。
从技术角度来看,大中型企业往往对大型号技术和产品有着非常严格的要求。
比如在安全方面,他们希望整体数据安全,外部服务整体合规,大模型的输入输出完全可控。
从业务的角度来看,如果我们真的想在客户的业务场景中实现大模型技术,我们实际上需要构建一个闭环。
他们需要的不仅仅是技术能力,更重要的是如何将技术产品化,完成产品化。
之后就需要实施和交付,这还会涉及到后续持续维护等专业服务。
最重要的是,你必须对业务需求有足够的了解和洞察需求的能力。
这些能力其实非常重要。
(更多大模型行业相关话题,欢迎添加微信ericahss互相交流,分享您的需求)大模型的落地,场景,成本,效果都缺一不可。
AI科技点评:基于大模型的能力,最好的产品已经实现重塑了吗? 吴悦:重塑正在逐步完成。
如果我们想全面落地到客户业务场景中,明年初就能实现。
我们现有的6款机器人产品已经是非常成熟的商用产品,从2016年至今已经服务了数百家领先客户。
现在我们正在尝试将大型模型的能力融入到这6款产品中,使其完美契合。
客户业务应该重塑产品,或者通过对客户业务的洞察,用大模型来解决过去产品没有解决的问题。
AI技术评论:我们今年年初就开始做,为什么明年会全面落地? 吴悦:我们要为客户循序渐进,因为当大模型的能力加入进来的时候,大模型本身就有幻觉、黑匣子或者其他不可控的表现。
然后我们需要通过训练在一个领域建立一个强大的模型。
帮助客户避免此类问题。
对于客户来说,过去的产品已经和他们的业务系统深度绑定。
大客户的日访问量可达百万甚至千万。
面对大型车型等重大技术变革,他们非常谨慎。
对于他们来说,业务稳定是第一要务。
因此,需要一个渐进的灰度引入或迁移过程。
对于我们来说,首先我们要想清楚顶层设计。
即大模型应该如何植入?短期、中期和长期计划是什么?时间计划是什么样的?事实上,我们已经做了半年多的规划工作,基本完成了。
下一步是在客户业务场景中落地。
AI技术回顾:虽然实施起来比较困难,但是说服客户的成本是不是比以前低了?毕竟大家都知道大模型可以解决一些问题。
吴悦:在这个过程中,我们要经过几个阶段来说服客户。
第一阶段是让感兴趣的人愿意与您谈论这个话题。
ChatGPT 的受欢迎程度呈爆炸性增长。
经过一番科普,我觉得只要你是有大模型创意的客户,他就愿意和你聊天。
所以第一阶段是破冰阶段。
但当进一步和客户交谈时,他会问你们的这套产品到底能给我带来什么?结合我的业务,??它能帮助我解决哪些问题?与我现有的AI系统相比,它能带来多少好处?需要多少额外费用?我觉得这个问题是比较核心、比较关键的,所以这就是我们刚才讲的。
我们需要进行研究,明确技术边界,并做出合理的规划。
现在他们中的大多数人都处于这个阶段。
AI科技评论:您理解的重塑是什么?重塑是否意味着替换原来的底层架构? 吴悦:大模型是一项新技术,确实可以解决一些以前技术无法解决的问题。
比如一句话多重意图的问题,但是如果我们要实现一个大的模型,实际上会引入一些新的问题,比如幻觉问题、可控生成问题、成本问题等等,这些都是我们需要的考虑。
比如,电动汽车的技术虽然好,但大家还是有里程焦虑。
对于大型生成模型,我们感觉有两种焦虑,一是幻觉的焦虑,二是算力(成本)的焦虑。
在这个技术体系中,我们实际上需要根据我们对客户需求的理解以及整个技术的设计来选择一条合适的路径,看看哪些问题适合用传统系统来解决。
哪些适合用生成大型模型来解决。
针对客户普遍关心的大型车型成本问题,我们提出了“增程”的技术理念。
具体来说,就是与大大小小的模型协作,共同支持客户需求,并通过“范围扩展器”组件,可以根据用户或实际流程进行处理。
根据任务的不同,可以进行动态配置和组合,让大模型出现在该出现的地方,同时提高模型效果,最大化成本效益。
AI技术评论:如何解决客户关心的问题?毕竟,还是没有办法摆脱快速落地的问题吗? 吴悦:首先更重要的是解决本地化部署的问题,所以博客领域的大型模型需要本地部署,类似于公有云和私有云的区别。
第二,我们要解决成本问题,因为我们开发的产品已经在一些大中型企业得到了广泛、深入的应用。
前面提到,如果接入全面切换为大机型,规模可能会从之前的百万级增长到千万级,成本会非常高。
第三,能为客户带来多少利益?这就需要对企业业务有比较深入的洞察,能够发现业务的痛点,然后提出可以本地部署、成本可控的解决方案。

以下是我们发现或看到的一些事情。
AI技术评论:在实施过程中您有自己的方法论吗? 吴悦:首先,之前的产品其实解决了很多客户的问题,但是在实施过程中,我们也发现这些产品和技术存在一些不足。
这些问题可以通过大模型来解决吗?这是我们实现大模型的一个重要起点,因为我们知道大模型的能力。
那么我们已经推出了这样一个产品,所以我们和客户,特别是头部客户形成了很好的联动。
在这个过程中,结合追求一对大模型的理解和认知,以及与头部客户共同探索,我们会重点关注哪些服务是我们之前没有做过、没有提供过的。
这个时候,我们会专注于我们能做的事情,而不能通过大模型扩展到一些新的场景。
这是我们目前实现大型模型的方法。
克服大车型发展放缓期,需要深入业务。
AI科技评论:现在大机型已经进入减速期,您怎么看? 吴悦:现在大模型有两个发展方向。
一是通用大模型,沿着通用需求、通用人工智能方向发展;二是基于特定的应用场景,比如围绕某个企业场景的AI应用。
土地。
目前,大模型技术确实已经到了应用阶段。
所以大家都在关注这项技术如何实现。
AI技术点评:目前国内大型模型公司主要分为三类:通用模型、领域模型、AI创新应用。
您认为三者的难点体现在哪些方面? 吴悦:首先,三者的难度不同。
一般的大型模型很难规模化,包括参数、数据、计算能力规模带来的困难。
应用层,如果是简单的AI创新应用,相对独立,基于通用的大模型,就足够了。
如果是复杂的AI创新应用,比如追一正在做的服务、营销领域的软件产品,那么领域模型和应用层就很难分开。
它们与迭代节奏紧密相关。
难点在于深入了解客户的具体需求。
业务,深入理解具体场景和需求点,导出大模型的能力需求。
大模型的能力项与应用层产品功能一一对应。
大车型的迭代带来了产品功能的不断丰富。
AI技术回顾:如何提高竞争力并保持优势? 吴悦:竞争是综合考虑的。
从客户的角度来看,客户其实关心的是技术如何实现,以及在安全性、合规性、可控性等方面的考虑,当然还有成本因素。
有的客户可能还会关心你能不能做好产品化。
落地后,提供相应的专业服务,然后与他们共同创造业务,这样客户就得到了充分的考虑。
从企业角度来看,我们认为要做一个好的企业需要核心技术能力、产品化能力、专业服务能力以及各种业务咨询能力。
目前,从技术角度来看,大模型确实是一个比较重要的变量,但并不是唯一的变量。
(雷锋网 雷锋网 雷锋网(公众号:雷锋网))雷锋网原创文章,未经授权禁止转载。
详情请参见转载说明。
0人收藏分享:相关文章AGI大模型GPT对话程斌、刘洛奇:大模型或许不是一条坦途,但一定是方向……对话蓝马周健:大模型不是万能的,他们也无法在弯道上超车。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-18
06-18
06-17
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态