多家机构将阿里云估值上调至千亿以上,高盛给予最高估值1238亿美元
06-17
未来1亿美元规模的AI加速计算市场,至少有1亿美元将专门用于AI推理计算场景。
因此,人工智能推理在大型模型的开发中起着非常关键的作用。
随着生成式AI技术的加速演进,对算力的需求急剧增加,这将在2.8万亿元的AI加速芯片市场迎来新的竞争。
近日,芯片巨头英特尔(Intel)发布了基于Intel 7(10nm)工艺的全新第五代Intel Xeon可扩展CPU(中央处理器)芯片Emerald Rapids。
平均性能较上一代提升21%,可对多达1亿个参数进行AI微调。
大型模型主要应用于云数据中心、AI推理等场景。
除了英特尔之外,NVIDIA和AMD近期也发布了多款数据中心GPU(图形处理单元)和CPU产品,以应对新的AI热潮下激增的算力需求。
其中,NVIDIA于11月发布HGPU芯片,大模型推理速度较H提升近2倍; AMD发布了Instinct MIX AI芯片,称MIX在多项测试中均优于NVIDIA H,运行8卡时AI性能提升60%。
%。
然而近日,NVIDIA团队批评AMD,称其没有使用开源的TensorRT-LLM大模型优化软件。
如果使用它,芯片速度会快2倍以上,但H仍然比MIX快47%;对此,AMD“回击”称,即使使用NVIDIA软件,MIX也比H快30%;英特尔CEO帕特·基辛格也公开表示,NVIDIA的CUDA软件护城河“太浅”,其在AI领域的成功纯属偶然,非常幸运。
。
如今,面对AI加速计算的巨大需求,美国芯片巨头正在悄然展开争夺战。
英特尔数据中心与人工智能事业群副总裁、中国区总经理陈宝利告诉钛媒体等人,“利用AI芯片进行大模型推理还处于早期阶段。
在目前一些加速芯片供不应求的情况下,我们给了很多用户另一种选择。
我们非常看好数据中心市场的蓬勃发展。
一些智能算力的需求远远大于供给,这种情况将持续到明年。
“据统计,预计到2020年,在AI的需求拉动下,全球数据中心加速芯片市场规模将达到2.8万亿元。
截至2019年12月29日美股收盘,英特尔(纳斯达克: INTC)股价收于每股 50.25 美元。
过去12个月,英特尔股价上涨87.99%; NVIDIA(纳斯达克股票代码:NVDA)和AMD(纳斯达克股票代码:AMD)分别上涨了0.94%和0.26%。
超过1亿美元将投入AI芯片推理AIGC或昂贵的GPU。
过去一年,以ChatGPT为代表的生成式AI技术推动了AI相关算力需求的不断增长,并可能成为未来几年AI芯片非常重要的一个方面。
需求轨道。
艾瑞咨询报告显示,2019年,AI大模型相关行业需求占我国智能算力总需求的58.8%,接近60%,成为智能算力最大需求方。
阿里巴巴、腾讯、百度等中国科技巨头对GPU芯片的需求强劲,英伟达也因此成为中国AI大模型领域的关键“军火商”。
据世界半导体贸易统计协会(WSTS)预计,2019年,受益于AI芯片需求持续增长,全球半导体市场规模预计将达到6亿美元(近1亿美元,约4.16万亿元人民币) ,同比增长13.1%%。
阿里云创始人王健曾预言,未来云计算的算力将被智能时代的这些电动机和所谓的大模型所消耗。
事实上,在生成式人工智能(AIGC)时代,算力正在成为核心生产力。
数据显示,到2019年,全球AI加速计算市场规模将达到1亿美元。
预计到2020年,全球数据中心AI加速芯片市场规模将达到1亿美元(约合人民币2.8万亿元),五年复合增长率(CAGR)高达70%。
具体到案例上,生成式AI对算力的具体需求主要体现在搜索、办公、电脑、游戏等核心场景。
然而,在智能计算中心(服务器)环境中,AIGC需要的不仅仅是GPU训练。
尤其是随着Llama 2这样大参数规模的开源模型的广泛使用,未来的大模型不一定需要重复的数据训练。
因此,大型模型较大的算力工作量可能与AI推理计算有关,因此无论是CPU、GPU、APU还是IPU加速卡,都会发挥更大的作用。
字节跳动旗下火山引擎IAAS产品经理李跃元告诉钛媒体,“从CPU的角度来看,在AI模型训练之前,‘脏数据’需要快速处理,转化为模型使用的高效数据。
这需要很高的计算能力。
同时,模型训练涉及多种数据类型和多模态能力,对CPU能力、内存和带宽提出了很高的要求。
另外,随着型号的增加,芯片之间的互连能力也随之增强。
变得挑剔。
“根据AMD CEO苏姿丰的预估,未来价值1亿美元、至少1亿美元的AI加速计算市场,有一半以上将专门用于AI推理计算场景的应用。
这凸显了AI的重要地位。
”推理在整个AI加速计算市场,以及AI推理计算在大型模型开发中的关键作用,12月14日,英特尔发布了第五代至强可扩展处理器系列,在能效方面有重要改进。
英特尔表示,相比之下,内置的英特尔AMX(加速器)可以在不添加独立加速器的情况下加速人工智能,包括对多达1亿个参数的模型进行推理和调优。
与上一代至强产品相比,全新第五代英特尔至强处理器在相同热设计功率范围内平均性能提升21%。
在典型的五年更新周期后,与之前客户的测试数据相比,一系列工作负载的每瓦性能提高了高达 36%,总体成本可降低高达 77%。
其watsonx.data平台服务器的网络查询吞吐量提升了2.7倍,陈宝利告诉钛媒体App,“过去一两年,英特尔一直在稳健执行、基于基础设施的基础上推动产品路线图的发展。
四年五年计划。
各个节点的节奏都在按计划推进。
Xeon更新越来越快,这实际上是响应了客户对计算能力的需求。
”陈宝利指出,英特尔与中国企业合作非常密切。
例如,美团采用英特尔第四代至强可扩展处理器,支持目标识别、计算机视觉等AI推理工作负载;京东云采用第五代至强处理器,提升了AI推理能力。
机器整体性能提升%,Llama 2模型推理性能提升% 据悉,Intel将首次采用“双核并行”路线图设计,并将推出基于性能核心和能效的产品。
阿里巴巴高级总监王伟表示,明年将推出Intel 3(3nm)工艺核心处理器,对应下一代至强Granite Rapids和新型节能核心至强处理器Sierra Forest。
云服务器研发事业部表示,由于大型机型属于内存带宽密集型和显存容量密集型,因此基于第五代至强可扩展处理器,增加内存带宽,从某种意义上来说,有利于未来生成式AI推理应用。
中央处理器。
“目前,我们发现该CPU可以轻松运行各种生成式AI模型,例如Stable Diffusion、统一千文7B/14B/72B等,这些模型都可以在阿里云第八代ECS上运行进行推理实例。
“在陈宝利看来,AI已经是当今生活中不可或缺的一部分。
AI无处不在,因此对英特尔AI芯片和解决方案的需求不断增加,而不仅仅是GPU可以做到。
”目前很多公司都在使用最新的至强处理器。
处理器已经可以处理许多工作。
当然,一些想要训练模型的公司需要加速卡,无论是来自英特尔还是友商。
这确实是用户的需求,但我认为并不是所有的公司都有这个需求。
这超出了当前市场的实际需求。
陈宝利表示:“我们非常看好数据中心市场的蓬勃发展。
因为无论是CPU、GPU还是IPU,这几年每年都会出现不同的热点,但数据中心的整体算力需求却始终在增加,需要解决不同的问题。
”陈宝利告诉钛媒体App,他认为2020年可能会有更多大型AI模型或者AIGC应用落地,会有更多创新的应用,这也会反哺到企业。
“英特尔的策略是依托全栈凭借我们的产品和解决方案,可以为客户不同场景、不同需求提供不同的解决方案,包括终端、云端、边缘等。
”陈宝利强调,从长远来看,更多的AI应用可能会使用CPU芯片进行推理未来算力竞争加速了芯片巨头对“生态”AI大模型的进攻,引发了算力需求的增加,也带来了更大的竞争,特别是芯片巨头的竞争对手、客户、下游供应商等企业。
12月7日,谷歌发布了迄今为止最强大、最通用的多模态AI大型模型(中文称为“双子座”)系列。
在 30 项性能基准测试中,Gemini Ultra 超越了当前最强模型 GPT-4,甚至在 MMLU 测试中得分高达 90.0%,成为首个超越人类专家水平的 AI 模型。
。
但谷歌表示,Gemini 1.0并没有使用Nvidia A或AMD产品进行训练,而是使用自研的TPU v4和v5e芯片进行大规模AI训练和推理,并称Gemini的运行速度明显快于前期。
较小且较弱的模型。
此前,微软还宣布了两款用于数据中心的自研芯片。
一是专门用于云训练和推理的AI芯片(ASIC)Microsoft Azure Maia;自主开发*CPU(中央处理单元)Microsoft Azure Cobalt。
此外,亚马逊、阿里巴巴、腾讯、字节跳动等众多国内外科技公司也开始研发自己的芯片,用于自己的数据中心或云计算服务。
再加上目前芯片限制的影响,中国市场的竞争更加复杂。
谈及市场竞争,陈宝利对钛媒体App坦言,英特尔欢迎很多竞争对手参与整个市场,英特尔对自己的市场竞争力非常有信心。
首先,国内对算力的政策支持,如算力网络、‘东西方’等,表明算力领域正在受到重视,这是一个积极的信号;其次,全球人工智能技术的快速发展带来了新的机遇,人工智能的爆发带动了对新算法、新算力和新硬件的需求。
回归本质,英特尔欢迎众多竞争对手参与整个市场,这说明市场是好的。
但与此同时,我们对未来感到乐观。
我们依然充满信心。
英特尔在这种环境下不断前进,首先是其在先进制程技术方面的领先地位,比如正在推广的英特尔4代和英特尔3代工艺。

同时,Intel的封装技术,如EMIB(嵌入式多芯片)。
互连桥),在市场上也占有重要地位。
此外,英特尔也对工厂合作持开放态度。
因此,我们有信心在这里能够制造出最好的产品。
最重要的是,英特尔强调以客户为中心。
与阿里巴巴、字节等客户密切沟通,及早沟通、识别并纠正产品问题,确保满足客户的最终需求。
我们也希望我们所承诺的能够满足客户的最终需求,以客户为优先拥抱市场。
多年来,理念也是我们的优势。
“基于以上,我们还是非常有信心(在市场竞争中)。
”陈宝利表示。
在他看来,在AI算力需求上,不只是一两家公司是“赢家”,而是整个AI芯片和计算相关行业将受益于这波AI浪潮,业内人士近日向钛媒体表示,目前大规模AI模型训练和推理计算的挑战在于软件生态。
NVLink多卡互连,它们是NVIDIA今年取得巨大成功的关键要素,因此如何让Intel、AMD以及更多厂商在短期内形成CUDA或者NVIDIA的AI生态系统是作为老牌芯片最关键的因素。
作为巨头,英特尔花费了很长时间开发OpenVINO、OneAPI等软件堆栈产品,并逐步快速实现异构计算、3D封装等多种技术,在未来的AI场景中,单一GPU无法成为主导,需要融合。
CPU、GPU、NPU(神经网络处理器)等技术的融合。
“在数据中心方面,英特尔实际上是最成熟的生态系统参与者。
虽然我们刚刚开始在AI和GPU方面发力,但多年来没有其他公司比我们在与整个生态系统和开源社区的合作方面做得更多。
很多因此,英特尔将继续与开发者社区合作,让更多人参与进来,这也是我们明年要投入的一个方向。
”陈宝利表示,“芯片需要一个长期的研发过程,我们会。
”我们会非常认真地倾听客户的意见并进行改进,同时也会为合作伙伴提供一些定制产品,以提供更好的服务来满足客户的需求。
”陈宝利强调,下一步,英特尔将继续推动AI技术和数据中心领域的创新,并做好今年的规划。
加强与开发者互动,进一步推动大模型技术的应用和产业化,推动我国人工智能产业不断发展壮大。
【本文由投资界合作伙伴微信公众号授权:钛媒体。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态