淘宝饮品直播加“猛将”,拉飞哥首秀实现“一个小目标”
06-17
2020年是大模型元年,2020年将是AI超级应用爆发年。
“必须有一些真正贴近用户、贴近场景的东西,这样我们才能让用户觉得有用、必须用的超级应用才能进一步推动AI的发展。
”在12月16日举行的极客公园创新大会上,印象笔记董事长和CEO唐毅提出了上述观点。
2017年,随着ChatGPT引发AIGC热潮,印象笔记开始从功能到服务释放AI能力,全面赋能自有软件。
硬件生态:4月,推出自主研发的大语言模型“大象GPT”,并推出“印象AI”;8月,完成“印象AI 2.0”迭代(提供专用模型Adaptive Self Model来增加)。
6月,硬件产品EverPAPER支持大象GPT,打造AI智能硬件产品品类,但在大模型的应用中,目前存在一个“不可能三角”的困境,那就是它。
难以平衡通用性、可靠性和经济性 面对这个“不可能三角”,唐毅指出,C端和B端面临着不同的挑战,事实验证是关键挑战。
如果其可靠性不提升,将很难解决B端关键场景的一些问题;而对于C端来说,用户可能会对模型的经济性有所怀疑。
而且对逻辑推理和涌现能力的要求会非常高。
在考虑大模型的“不可能三角”(通用性、可靠性和经济性)时,模型和应用制造商面临的挑战需要从多个角度来看待。
唐毅提到,开发AI原生应用时,无论是模型厂商还是通用模型,都需要综合考虑六个关键要素:用户、场景、交互、模型、部署和载体。
为了解决“不可能三角”困境,Evernote正在探索“混合部署”技术方案,利用AI路由来分配任务,利用大模型的多步复杂推理能力和小模型的经济实用性。
。
此外,还必须综合考虑用户、场景、交互、模型、部署、承载六大要素,才能实现适应不同场景和需求的“泛在AI接口”。
以下是唐毅在极客公园创新大会上的演讲实录,由极客公园整理。
我首先提出一个关于用户对大型模型的担忧的观点。
今天早上Robin(李彦宏)也提到了,不同的嘉宾也提到了:2020年是大模型年,2020年一定是AI超级应用年。
必须有真正贴近用户、贴近场景、让用户觉得有用、必须用的超级应用,才能进一步推动AI的发展。
这是我今天演讲的重要核心观点。
中国现在有很多公司在做基础款,很热闹。
每个人都投入了大量的时间、金钱和才能。
在取得很大进步的同时,他们也面临着同质化竞争的问题。
一个典型的问题是保留率不足。
我们来看一些公开数据。
无论是应用+AI的产品,还是大模型、大应用的产品,留存率都不高。
虽然型号很多,但“真正的超级应用”还是很少,提醒大家我每天都在使用它们,没有它们就活不下去。
那么一个问题是,大模型和新一代生成人工智能肯定会带来实质性的商业和社会变革,但它正在发生吗? 现在一个比较客观、实际的情况是这样的。
当用户想要使用它时,他们会产生一些典型的担忧: 第一个担忧是隐私问题。
该模型是否知道我向模型提出的所有问题?难道我问的问题被它记住并训练到了模型的大脑中吗? 第二点是专业能力问题。
它能具体帮助我解决一些专业问题吗?它的幻觉问题又如何呢? 第三点是易用性问题。
现在使用大型号产品真的有那么方便吗?看似无处不在,但实际使用起来似乎并不是那么方便。
实际使用的时候会出现这三个问题。
一是它不够聪明,或者说的不切中要害,或者它确实不懂某些核心知识;二是不太靠谱,幻觉问题还是蛮大的。
明显地;另外,它确实不便宜,使用起来也不是很方便。
也就是说,大模型,尤其是大模型的应用,看起来很近,但用起来还是有点远。
大模型的“不可能三角形”如果从这一点来介绍,我们会觉得这里有一个不可能三角形。
这个不可能三角是基于多功能性、可靠性和经济性之间的不可能三角。
不可能三角形的概念是指三者中只能得到2,而不能得到3。
这意味着在大型模型的实际应用中,我们很难同时满足这三个方面的要求。
从逻辑上讲,模型参数越多,涌现能力、逻辑推理能力和上下文理解能力就越强。
然而,单纯通过扩展参数或优化模型和算法并不能完全解决问题。
在一定程度上,大模型具有更强的涌现能力、逻辑推理能力、上下文理解能力。
这些能力与模型一次可以处理的令牌数量以及遵循指令的能力密切相关。
然而,随着模型规模的增加,其经济性和可靠性可能会受到影响。
可靠性包括专业知识、领域能力和事实验证等方面。
不久前,硅谷有一种说法,大模型的能力就是幻觉能力,就是吃掉所有的数据,通过标签,通过理解,产生输出的时候,是通过幻觉产生的。
从另一个角度来看,大型模型能否真正在可解释性、安全性、事实验证等方面做好,可能存在很大的问题。
就大机型应用而言,即使终端用户跟它聊上几天,也会感受到这三个方面的“不可能三角”。
在这个三角中,C、B双方都面临着不同的挑战。
对于B端来说,更大的问题是,如果事实验证不强,可靠性不提升,将很难解决一些关键的B端场景问题。
在C端,用户可能对模型的经济性以及逻辑推理和涌现能力有很高的要求。
唐毅认为有办法解决大模型的“不可能三角”问题 |极客公园在考虑大模型的“不可能三角”(通用性、可靠性和经济性)时,我们需要从多个角度来看待模型以及应用厂商面临的挑战。
这些挑战包括选择合适的运营商,运营商在哪里? 我们是应该使用熟悉的原生应用还是移动应用中的AI能力,还是应该去某个平台并使用它的插件,比如GPTS插件等等。
数据如何使用? 就数据而言,我们在谈论什么?或者像某些应用程序一样,上传一些文件到其中?或者我们真的用我们的数据来做某些模型训练吗? 从场景来看,可以解决哪些问题、解决哪些问题? 我是否应该跳出我现在的应用场景和我现在的应用?还是应该留在里面? 这些都很难决定。
为了解决这些问题,我们需要与过去不同的思维方式。
其中重要的一点是,在开发AI原生应用时,无论是模型厂商还是通用模型,都需要综合考虑六个关键要素:用户、场景、交互、模型、部署和载体。
那么,他们之间到底是什么关系呢? 如果简单地看,它们之间的关系是这样的——用户在某个场景下需要解决什么样的问题,什么样的交互才能更好地满足用户的需求和场景特征。
在这个场景或者这个需求的环节,如何使用模型,使用什么样的模型,部署什么样的模型,在什么载体上解决这些问题?是插件吗?网络?桌面?手机版?而在这个过程中,产生了所有的数据,如何解决这些数据的问题呢?如何部署?如何申请?哪些是给模型的,哪些是不给模型的? 这六个要素将继续需要考虑。
随着技术的发展,我们对印象笔记这方面的思考基本上每两周就会更新一次。
例如,当GPT出现时,我们发现运营商似乎快速从移动终端或传统应用转向大型模型平台。
再比如,ChatGPT刚出现的时候,有人说以后所有的交互都变成自然语言交互,你跟它说话就可以了。
但事实真的是这样吗?这真的是未来吗? “无处不在的AI界面” 先从交互开始。
我们的观点是互动和唤醒应该无处不在。
我们首先看一个典型的LUI(语言界面)对话。
我们先来看看笔记里的影评,然后再说说电影《触不可及》。
这个故事的答案完全是通过挖掘笔记中的内容得到的。
这种交互基于用户授权,不需要对模型进行训练或调整。
(Evernote将推出基于用户个人笔记和知识库问答的产品,真正打造个人知识助手。
)另一个例子是类似Copilot的交互。
这里有一个注释。
用户可以要求AI总结一下这篇笔记中的内容?笔记中可以对视频制作进行哪些改进? AI可以挑选笔记内容并回答用户问题。
它是自然语言界面和传统GUI界面(图形界面)的结合。
右边的副驾驶是辅助驾驶员,而主驾驶员仍然是传统的GUI界面。
主驾驶和副驾驶可以互相指导和指导。
在实际工作场景中,用户自己在文档界面中进行编辑和引入。
例如,他们想写一份采访大纲。
写完采访大纲后,他们还要解释一下采访大纲的中间部分。
在这个使用场景中最不需要的就是自然语言。
用户在书写,用户只需要在传统界面上书写即可。
因此,这项工作是一个从纯LUI到纯GUI的过程。
您应该为该场景和该用户选择最合适的交互方法。
我们称之为“无处不在的人工智能界面”。
第二个要素是场景和载体。
不同的工作和场景需要不同的载体来实现高效的工作流程。
传统上,这些功能通常存在于本机移动、桌面或 Web 应用程序中。
现在有了大模型平台,我们可以通过API和内容文件调用来实现这些功能。
这里有一个问题,这些功能应该在传统应用中实现吗?还是在大型模型平台上实现的?另一个因素是许多不同的设备。
我们需要在各种设备、大模型平台(如GPT类平台)、大模型新推出的原生应用产品、传统移动应用之间找到合适的解决方案——问题该解决在哪里?问题应该在其所属的地方解决。
我们以计划旅行为例。
典型的流程包括收集、组织、布局、应用、行动。
我其实没去过山西那么多。
现在我正在微信公众号读一篇关于山西旅游的文章,然后转发到我的印象笔记,它可以帮助我保存在我的笔记中。
这个场景一定是从微信开始的,因为这个信息就在微信里公众号。
然后我们打开Evernote,用AI助手整理内容,用标签标记,并与其他游记关联起来。
因为笔记中还有另外两个笔记,所以可以自动链接。
所以当我想计划去山西旅行时,这三个注释是相关的,并且可以以副驾驶形式显示,以帮助我更好地了解目的地。
然后我继续在Evernote原生应用中排版。
这个排版很重要,因为很多公众号文章保存后不利于阅读。
排版没有优化,没有目录和清晰的内容注释。
我们可以利用人工智能有效地重新格式化文本以方便阅读。
现在如果你想规划7天的行程,你可以通过原生应用中的AI助手询问,也可以去大模型平台,用插件来对话。
其规划不使用公共语料库和互联网上的信息,而是会根据所需场景进行具体规划。
规划本身可以在微信、原生应用程序或大型模型平台上进行。
唐毅详解Evernote在大模型上的探索之路 |极客公园然后我们就可以使用大模型平台上的其他插件,比如某个旅游平台的插件,来规划和预订机票和酒店。
我们还可以同时使用Evernote的插件体现在我们的日程和我们的清单中,同时Evernote的微信助手提醒我们行程。
这里的逻辑是什么? 就是寻找“最合适”的场景和载体。
如果你想做一个超级应用,不要试图只使用一种平台,或者只使用一种交互,或者只选择一种载体,而是让载体和场景移动、变化、流动。
至于模型,我们认为要解决经济性、多功能性和可靠性的“不可能三角”,需要非常不同的部署。
这里并不是越大越好,也不是越专业越好。
这里还要提一下,Evernote有一个自主开发的大模型。
我们很早就开始了。
我们很早就成立了自然语言研究所并开始研究。
现在基于知识的专有模型拥有 1 亿个参数和 1 亿个 Token,而这个模型是基于 4 年的研究和超过 1 亿人的训练。
再看数据,数据是一个非常敏感的问题,尤其是公共通用数据。
虽然公共通用语料库非常丰富、通用性很强,但专业性还不够。
在此过程中,Evernote等专有模型训练供应商将使用训练到一定级别的模型进行进一步的训练和调优。
该方法使用公共特殊数据,即基于知识的数据或其他场景。
降低数据,比如交通数据、金融数据的目的,是为了增长知识,减少幻想。

这就是大印象模型的训练方式。
但个人数据呢?个人数据可以用来训练大型模型,甚至小型模型吗?当然不是。
Evernote 不会使用个人数据进行培训。
那么,如何让模型处理数据呢?一种方法是明确授权用户。
这种情况下,我们会通过用户授权认可的LAG能力来处理数据。
也就是说,预先在向量数据库类中对数据进行处理,使模型能够帮助分析数据,同时保证隐私和安全得到保护。
那么Agent就是AI下一个发展和应用的重要方向。
Evernote的模型训练也是基于许多这样的任务和复杂的任务流程,以及需要多步骤处理的数据。
“混合模型”是解决大型模型不可能三角问题的答案,即通用性、可靠性和经济性问题。
怎么解决呢? 我们的“印象AI”采用混合模型解决方案,结合了Evernote开发的轻量级大语言模型“大象GPT”和国内外其他大语言模型。
这种混合部署方式与MoE(混合专家模型)类似,但两者之间还是存在一定的区别。
混合部署具有一定的联邦属性,主要利用AI路由进行任务管理和任务分发。
当收到提示或需求时,AI路由会验证提示并确定任务是分步推理还是一次性解决。
如果任务属性更接近小模型训练语料,AI路由会选择使用小模型,因为它更经济可靠。
如果一个任务需要多步骤处理、多次推理,涉及到不同模型的能力,AI路由会将任务分配给不同模型进行处理。
在这种情况下,任务调度能力就显得尤为重要。
印象笔记作为一款为广大国内外用户所熟知的产品,有一些独特的优势。
这些优势包括庞大的用户基础、丰富的私域数据、强大的交互体验、精准流畅的场景载体、基于代理的自研模型。
此外,Evernote采用独特的混合部署架构,解决大型模型的通用性、可靠性和经济性之间的平衡问题。
这种混合部署架构有助于实现模型和应用的持续开发,为用户提供更好的服务和体验。
通过这些优势和特性,Evernote可以为数亿用户和数千万活跃用户提供下一代超级应用,满足他们不同场景的需求。
我们希望在2020年,能够与用户一起使用Evernote打造一个不断进化的第二大脑,也希望在2020年,印象AI能够成为AI超级应用中的种子选手。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态