燕麦饮料如何改变地球这家公司要重新定义“牛奶”
06-21
上个月,AI行业爆发了一场“动物大战”。
一方面是Meta推出的Llama,由于其开源特性一直深受开发者社区的欢迎。
在认真研究Llama论文和源代码后,NEC(日本电气)迅速“自主开发”了日语版ChatGPT,帮助日本解决了AI卡顿问题。
另一边是一个名为Falcon的大型模型。
今年5月,Falcon-40B问世,击败Llama登上“开源LLM(大语言模型)排行榜”榜首。
该榜单由开源模型社区Hugging Face制作,提供了一套衡量LLM能力的标准并对其进行排名。
排行榜基本都是Llama和Falcon轮流排名。
《Llama 2》推出后,Llama家族卷土重来;但9月初,Falcon推出B版本,再次取得了更高的排名。
Falcon以68.74分击败Llama 2。
有趣的是,“猎鹰”的开发商并不是一家科技公司,而是位于阿联酋首都阿布扎比的科技创新研究所。
人士政府表示,“我们参与这场游戏是为了颠覆核心玩家”[4]。
B版本发布次日,阿联酋人工智能部长奥马尔被《时代周刊》评选为“人工智能领域最具影响力人物”;与这张中东面孔一起入选的还有“AI教父”Hinton和OpenAI。
奥特曼、李彦宏。
如今,AI领域早已进入“示范”阶段:各国和有一定财力的企业都或多或少有打造“XX中国版ChatGPT”的计划。
仅在海湾国家的圈子里,玩家就不止一个——8月份,沙特刚刚帮助国内大学购买了多件H用于培养LLM。
金沙江创投的朱啸虎曾在朋友圈抱怨:“当年我看不起(互联网上)商业模式创新,认为没有任何壁垒:几百个团队的战争,几百辆汽车的战争,一场百播之战;没想到,大规模的硬科技模型创业,还是一场百模具之战……”承诺的高难度硬科技,怎么一个模具就能在一个国家实现?每亩产量10万公斤? 1. 变形金刚吞噬世界。
美国初创企业、中国科技巨头和中东石油大亨能够追求大模型,这一切都归功于那篇著名论文:《Attention Is All You Need》。
在这篇论文中,八位谷歌计算机科学家向全世界公开了 Transformer 算法。
这篇论文目前是人工智能历史上被引用次数第三多的论文。
Transformer的出现拉动了这一轮人工智能热潮的导火索。
无论现在的大型车型是什么国籍,包括惊世骇俗的GPT系列,它们都站在Transformer的肩膀上。
在此之前,“教机器阅读”是一个公认的学术问题。
与图像识别不同,人类在阅读文本时,不仅会关注当前看到的单词和句子,还会根据上下文进行理解。
比如“Transformer”这个词,其实可以翻译为“变形金刚”,但本文的读者肯定不会这样理解,因为大家都知道,这不是一篇关于好莱坞电影的文章。
然而,早年神经网络的输入是相互独立的,不具备理解大段文本甚至整篇文章的能力,因此存在将“open water room”翻译成“开放式水房”。
直到 2000 年,曾在 Google 工作、后来跳槽到 OpenAI 的计算机科学家 Ilya Sutskever 才率先拿出了成果。
他使用循环神经网络(RNN)来处理自然语言,很快使谷歌翻译的性能与竞争产品有所不同。
RNN提出了“循环设计”,让每个神经元既接受当前时刻的输入信息,也接受上一时刻的输入信息,从而使神经网络具有“组合上下文”的能力。
循环神经网络RNN的出现点燃了学术界的研究热情,Transformer论文的作者Noam Shazeer也一度对其痴迷。
然而,开发人员很快意识到 RNN 有一个严重缺陷:该算法使用顺序计算。
虽然可以解决上下文问题,但运行效率不高,且难以处理大量参数。
RNN 的繁琐设计很快让 Shazer 感到厌烦。
因此,从今年年初开始,Shazer 和 7 位同事就开始开发 RNN 的替代品,成果就是 Transformer[8]。
与RNN相比,Transformer有两个变化:首先,它使用位置编码来代替RNN的循环设计,从而实现并行计算。
这一改变极大地提高了 Transformer 的训练效率,使其能够处理大型任务。
数据推动AI进入大模型时代;二是进一步强化情境能力。
随着Transformer一口气解决了很多缺陷,它逐渐发展成为NLP(自然语言处理)的解决方案。
有一种似曾相识的感觉,“Transformer不是天生的,NLP就像长夜”。
就连Ilya也放弃了自己亲自推上神坛的RNN,转投Transformer。
换句话说,Transformer是当今所有大型模型的始祖,因为他将大型模型从一个理论研究问题变成了一个纯粹的工程问题。
LLM技术发展树图,灰色树根为Transformer[9] 2016年,OpenAI基于Transformer开发了GPT-2,一度令学术界惊叹。
作为回应,谷歌迅速推出了更强大的人工智能,名为 Meena。
与GPT-2相比,Meena在底层算法上没有任何创新。
它仅比 GPT-2 多出 8.5 倍的训练参数和 14 倍的计算能力。
《Transformer》论文的作者谢泽尔对“一堆暴力”感到非常震惊,以至于当场写下了备忘录《米娜吞噬世界》。
Transformer的出现,大大减缓了学术界底层算法的创新。
数据工程、算力规模、模型架构等工程要素日益成为人工智能竞赛胜负的重要因素。
任何有一定技术能力的科技公司都可以打造出大型模型。
因此,计算机科学家吴恩达在斯坦福大学演讲时,提到了一个观点:“AI是工具的集合,包括监督学习、无监督学习、强化学习,以及现在的生成式人工智能。
所有这些都是通用的”技术,类似于电力、互联网等其他通用技术[10]”虽然OpenAI仍是LLM的风向标,但半导体分析机构Semi Analysis认为GPT-4的竞争力来自于工程解决方案——如果是开源的话,任何竞争对手都可以很快重新出现。
分析师预测,其他大型科技公司可能不需要太长时间就能创建出与 GPT-4 性能相当的大型模型 [11]。
“百模之战”不再是一种说辞,而是客观现实。
相关报道显示,截至今年7月,中国大型模特数量已达2万辆,这一数字高于美国。

已经成功实现弯道超车,各种神话传说已经不足以让国内科技公司指名道姓了[12]。
除了中国和美国之外,一些相对富裕的国家也初步实现了“一国一模式”:除了日本和阿联酋,还有印度政府领导的大模式巴希尼,韩国互联网公司Naver创建的HyperClova X等等。
眼前的战斗,仿佛回到了天空布满泡沫、“金钱能力”相互较量的互联网创业时代。
如前所述,Transformer 将大型模型转变为纯粹的工程问题。
只要有人有钱、有显卡,剩下的就交给参数了。
不过,虽然入场券并不难获得,但这并不意味着每个人都有机会成为AI时代的BAT。
开头提到的“动物战争”就是一个典型案例:虽然Falcon在排行榜上击败了美洲驼,但很难说它对Meta产生了多大的影响。
众所周知,企业开源自己的科研成果不仅是为了与公众分享科技成果,也是为了调动民众的智慧。
随着大学教授、研究机构和中小企业不断使用和改进Llama,Meta可以将这些成果应用到自己的产品中。
对于开源大模型来说,活跃的开发者社区是其核心竞争力。
早在2016年成立AI实验室时,Meta就已经定下了开源的主基调;扎克伯格靠社交媒体生意发家,深谙“改善公共关系”。
例如,10月份,Meta举办了一场特别的“AI版本创建者激励”活动:使用Llama 2解决教育、环境等社会问题的开发者将有机会获得50万美元的资助。
时至今日,Meta的Llama系列已经成为开源LLM的标杆。
截至 10 月初,Hugging Face 开源LLM排行榜前 10 名中,共有 8 个基于 Llama 2 构建,且均使用其开源协议。
仅在 Hugging 脸上,就有超过 1000 个LLM使用了 Llama 2 开源协议 [13]。
截至10月初,Hugging Face上唯一的Future是基于Llama 2的。
当然,像Falcon一样提高性能也未尝不可,但时至今日,市面上大多数的Future仍然与GPT有明显的性能差距-4。
例如,日前,GPT-4 在 *AgentBench 测试中以 4.41 分的成绩排名第一。
AgentBench标准由清华大学、俄亥俄州立大学、加州大学伯克利分校联合推出。
用于评价LLM在多维开放生成环境下的推理和决策能力。
测试内容包括操作系统、数据库、知识图谱、卡片等。
不同环境下的战斗和其他 8 个任务。
测试结果显示,第二名的克劳德只得到了2.77分,差距还是很明显。
至于目前流行的开源LLM,其测试成绩大多徘徊在1分左右,不到GPT-4的1/4[14]。
AgentBench测试结果 要知道,GPT-4是今年3月份发布的,比全球同行追赶了半年多。
造成这种差距的原因是OpenAI拥有极高“智商密度”的科学家团队以及长期学习LLM积累的经验,因此始终能够遥遥领先。
也就是说,大模型的核心能力不是参数,而是生态构建(开源)或者纯粹的推理能力(闭源)。
随着开源社区变得越来越活跃,每个LLM的表现可能会趋同,因为每个人都在使用相似的模型架构和相似的数据集。
另一个更直观的问题是:除了中途,似乎没有哪个大模式能够赚钱。
3.价值锚今年8月,一篇题为《OpenAI年底可能破产》的文章引起广泛关注[16]。
文章的主旨几乎可以用一句话来概括:OpenAI 烧钱太快了。
文章提到,自ChatGPT开发以来,OpenAI的亏损迅速扩大,短短一年时间就损失了约5.4亿美元,只能等待微软投资者来买单。
文章的标题虽然煽情,但也道出了很多大型模型提供商的现状:成本与收入严重失衡。
成本太高,所以目前靠人工智能赚大钱的只有英伟达,顶多还有博通。
据咨询公司 Omdia 估计,Nvidia 今年第二季度 H 机销量超过 30 万台。
这是一款训练AI极其高效的AI芯片。
世界各地的科技公司和科研机构都争相收购。
如果将售出的 30 万件 H 叠在一起,其重量相当于 4.5 架波音飞机[18]。
英伟达的业绩也起飞,营收同比飙升%,一度震惊华尔街。
顺便说一句,目前H在二手市场的价格已经卖到4万美元到5万美元,但其材料成本只有1万美元左右。
算力成本高昂在一定程度上成为行业发展的阻碍。
红杉资本曾算过一笔账:全球科技公司预计每年花费1亿美元用于大规模模型基础设施建设;相比之下,大型模型每年最多只能产生1亿美元的收入,中间至少还有1亿美元的收入。
缺口达1亿美元[17]。
另外,除了中途这样的少数案例外,大多数软件公司在付出巨大成本后还没有弄清楚如何赚钱。
尤其是行业内的两大领头羊微软和Adobe,更是令人瞠目结舌。
微软和 OpenAI 合作开发了人工智能代码生成工具 GitHub Copilot。
虽然每月收取10美元的费用,但微软将因设施成本而损失20美元。
重度用户甚至会让微软每月花费 80 美元。
。
据此猜测,售价30美元的微软Copilot可能会损失更多。
无独有偶,刚刚发布Firefly AI工具的Adobe也迅速推出了支持积分系统,以防止用户大量使用给公司造成损失。
一旦用户使用的积分超过每月分配的积分,Adobe 将减慢服务速度。
要知道,微软和Adobe已经是软件巨头,拥有清晰的业务场景和大量现成的付费用户。
对于大多数参数巨大的大型模型来说,最好的应用场景就是聊天。
不可否认,如果没有OpenAI和ChatGPT的出现,这场AI革命可能根本就不会发生;但目前,训练大型模型带来的价值可能值得怀疑。
而且,随着同质化竞争加剧,市场上开源机型越来越多,留给纯大机型供应商的空间可能会越来越少。
iPhone 4受欢迎并不是因为它的45nm工艺A4处理器,而是因为它可以玩植物大战僵尸和愤怒的小鸟。
【本文由投资界合作伙伴元川研究院授权发表。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-21
06-18
06-17
06-18
06-21
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态