分子诊断技术开发商艾科诺完成A+轮融资,由真格基金领投
06-18
作为人工智能领域的领导者,NVIDIA拥有雄厚的技术实力和广泛的应用场景。
过去一年,生成式人工智能需求的爆炸式增长为其带来了巨大的增长机会。
据富国银行统计,目前英伟达在数据中心AI市场占有98%的市场份额,而AMD只有1.2%的市场份额,英特尔不到1%。
由于英伟达的AI芯片价格高昂,且存在供应不足的问题,这也迫使一些客户选择其他替代品。
在与林立竞争的同时,英伟达也在不断推进产品研发,加快更新迭代的速度。
01 NVIDIA:两年推出12款GPU 近日,servethehome披露了NVIDIA的数据中心产品路线图,展示了NVIDIA针对人工智能市场的产品规划,将推出H、B、X等多种GPU。
针对数据中心市场推出多款针对AI计算、HPC的产品,让不同客户有针对性地采购产品,降低芯片采购难度。
从架构图可以看出,NVIDIA未来将把基于Arm架构的产品和基于x86架构的产品分开。
H:2020年第二季度上市。
2019年11月13日,NVIDIA宣布推出NVIDIA HGX H,为全球最大的AI计算平台带来强大动力。
该平台基于 NVIDIA Hoppe 架构,配备 NVIDIA HTensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载所需的大量数据。
H将于今年第二季度开始向全球系统制造商和云服务提供商发货。
NVIDIA H 是首款提供 HBM3e 的 GPU,它具有更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。
借助 HBM3e,NVIDIA H 能够以每秒 4.8 TB 的速度提供 GB 内存,与前身 NVIDIA A 相比,容量几乎增加了一倍,带宽增加了 2.4 倍。
Nvidia 表示 H 可以部署在各种类型的数据中心,包括本地、云、混合云和边缘。
L40S:L40S 于秋季推出,是 Nvidia 最强大的 GPU 之一。
它于 2019 年推出,旨在处理下一代数据中心工作负载:生成式 AI、大语言模型 (LLM) 推理和训练、3D 图形渲染、科学模拟等场景。
与 A 和 H 等上一代 GPU 相比,L40S 的推理性能提高了 5 倍,实时光线追踪 (RT) 性能提高了 2 倍。
显存方面,配备了48GB GDDR6显存,还增加了对ECC的支持。
在高性能计算环境中保持数据完整性仍然非常重要。
L40S配备了超过18个CUDA核心。
这些并行处理器是处理复杂计算任务的关键。
L40S更注重视觉编解码能力,H更注重解码能力。
虽然H速度更快,但也更昂贵。
GH/GHNVL:今年第二季度投产。
今年8月,NVIDIA宣布推出新一代GHGrace Hopper超级芯片。
新芯片将于今年第二季度投入生产。
NVIDIA GH将HGPU和Grace CPU结合在一起,将Hopper架构GPU和Arm架构Grace CPU结合起来,并使用NVLink-C2C连接两者。
每个 Grace Hopper Superchip 都包含 GB 的内存,包括 GB 的 HBM3e 和 GB 的 LPDDR5x 内存。
GH和GHNVL将使用基于Arm的CPU和Hopper来解决大型语言模型的训练和推理问题。
GHNVL采用NVL技术,具有更好的数据传输速度。
此外,“B”系列GPU也有望在下半年推出,取代之前的第九代GPU Hopper。
B、B40、GB、GBNVL也将推出。
NVIDIA计划将H替换为基于x86架构的B,并计划将GH替换为基于ARM架构的推理芯片GB。
此外,NVIDIA还规划了B40产品来替代L40S,为企业客户提供更好的AI推理解决方案。
根据Nvidia公布的信息,该公司计划在2020年发布Blackwell架构,采用该架构的BGPU芯片预计将显着提升处理能力。
初步评估数据显示,与现有采用Hopper架构的H系列相比,性能提升了%以上。
这些性能提升在 AI 相关任务中尤其明显,B 在 GPT-3 B 推理性能基准测试中的熟练程度就证明了这一点。
X 计划于 2020 年发布 Nvidia 还透露了计划,同样,GB 预计将跟随 B 的脚步,融入超级芯片概念。
从NVIDIA的产品路线来看,未来1-2年,AI芯片市场将再次发生翻天覆地的变化。
02 AMD 是生成式 AI 和大规模 AI 系统的可靠替代方案。
在NVIDIA占据领先地位的AI芯片领域,AMD是少数能够训练和部署AI的高端GPU公司之一。
业界将其定位为生成式AI芯片。
传统人工智能和大规模人工智能系统的可靠替代品。
AMD与Nvidia竞争的策略之一包括强大的MI系列加速芯片。
目前,AMD正在通过更强大的GPU和创新的CPU+GPU平台直接挑战Nvidia H的主导地位。
AMD最新的MI目前包括两个系列。
MIX系列是一款大型GPU,具有生成式AI所需的内存带宽以及大型语言模型所需的训练和推理性能; MIA系列集成了CPU+GPU,基于最新的CDNA 3架构和Zen 4 CPU可以为HPC和AI工作负载提供突破性的性能。
毫无疑问,MI不仅是新一代AI加速芯片,更是AMD对下一代高性能计算的愿景。
MIX加速卡已于2017年推出。
AMD MIX拥有多达8个XCD核心,分为CU单元,以及8组HBM3核心。
显存容量*可达GB,相当于NVIDIA H(80GB)的2.4倍。
同时,HBM内存带宽高达5.3TB。
/s,Infinity Fabric 总线带宽 GB/s。
拥有大量板载内存的优点是,在内存中运行大型模型所需的 GPU 更少,从而消除了跨越更多 GPU 的功耗和硬件成本。
2020年12月,除了推出旗舰MIX加速卡外,AMD还宣布Instinct MIA APU已进入量产阶段,预计2020年开始交付,推出后有望成为全球最快的HPC解决方案。
MIA:预计2020年开始交付。
MIA是全球唯一一款适用于HPC和AI的数据中心APU。
它结合了 CDNA 3 GPU 核心、最新的 AMD“Zen 4”x86 CPU 核心和 GB HBM3 内存。
通过 3D 封装和第三、四代 AMD Infinity 架构,可提供 HPC 和 AI 工作负载所需的性能。
与运行 HPC 和 AI 工作负载的上一代 AMD Instinct MIX5 相比,FP32 的每瓦性能提高了 1.9 倍。
能源效率在 HPC 和 AI 领域至关重要,因为这些应用程序充满了数据和资源极其密集的工作负载。
MIA APU 将 CPU 和 GPU 核心集成在一个封装中,以提供高效的平台,同时还提供加速最新 AI 模型所需的训练性能。
AMD内部,能效的创新目标定为30×25,这意味着到今年,服务器处理器和AI加速器的能效将提高30倍。
03年AMD市场小幅上涨。
综合来看,全球AI热潮在2020年开始爆发,并将继续成为2020年行业焦点。
与去年不同的是,曾经在AI HPC领域独领风骚的NVIDIA将面临AMD今年的MI系列产品。
微软、Meta等主要云服务公司在一两年前就开始预订NVIDIA的MI系列产品,并要求ODM厂商开始设计专用的AI服务器并使用MI系列产品线来分散风险、降低成本。
业内预测,今年AMD MI系列芯片的市场需求量将至少达到40万片。
如果台积电提供更多产能支持,甚至可能达到60万台。
AMD首席执行官苏姿丰在圣何塞举行的AMD Advancing AI活动上表示,数据中心加速芯片,包括GPU、FPGA等,未来四年每年将以超过50%的速度增长,从市场来看2016年达到1亿规模,今年将突破1亿。
她表示,在行业工作多年后,这种创新速度比她以前见过的任何技术都要快。
根据富国银行的预测,尽管AMD 2019年的AI芯片营收仅为4.61亿美元,但预计2018年将增长至21亿美元,并有望占领4.2%的市场份额。
英特尔也可能获得近2%的市场份额。
这将导致Nvidia的市场份额可能小幅下降至94%。
不过,根据苏姿丰在1月30日电话会议上公布的数据,AMD今年第四季度的AI芯片营收已经超过了此前预测的4亿美元。
同时,AMD 2020 年 AI 芯片营收也预计为 35 亿美元,高于此前预测的 20 亿美元。
如果AMD的预测数据准确,其在AI芯片市场的份额有望进一步增加。
当然,英伟达不会让其在AI市场的垄断地位被侵蚀。
在当前的人工智能智能加速芯片市场中,NVIDIA的A/H系列AI GPU尽管价格高昂,但始终占据市场领先地位。
Nvidia 更强大的 Hopper H 和 Blackwell B 也将于今年上市。
根据一些研究机构的预测,英伟达今年计划销售约 10,000 至 10,000 个 AI GPU,这可能是其年销售额的三倍。
这也意味着英伟达将彻底解决供应瓶颈问题,直面AMD和英特尔。
竞争中,Nvidia的价格策略届时也可能会有所调整。
04 更多挑战即将到来。
Nvidia要面对的不仅仅是AMD。
如今,自研AI芯片的风潮在科技巨头中兴起。
今年2月,科技巨头Meta Platforms确认,该公司计划今年在其数据中心部署最新的自研定制芯片,并将与其他GPU芯片协同工作,支持其大型AI模型的开发。
研究机构 SemiAnalysis 创始人 Dylan Patel 表示,考虑到 Meta 的运营规模,一旦自研芯片成功大规模部署,预计将节省数亿美元的能源成本和数十亿美元的芯片成本每年的采购费用。
OpenAI 还开始寻求数十亿美元的资金来建设人工智能芯片工厂网络。
外媒报道称,OpenAI正在探索制造自己的人工智能芯片。
而Open AI网站已经开始招募硬件相关人才。
官网上有多个软硬件协同设计职位。
同时,去年9月,OpenAI还聘请了人工智能编译器领域知名专家Andrew Tulloch加盟。

情况似乎是这样。
这证明了OpenAI对自研芯片的投入。
不仅仅是 Meta 和 OpenAI。
据 The Information 统计,截至目前,全球有超过 18 家进行 AI 大模型训练和推理的芯片设计初创公司,包括 Cerebras、Graphcore、Biren Technology、Moore Threads、d-Matrix 等,均获得融资总金额已超过60亿美元,公司整体估值已超过1亿美元(约9500万元人民币)。
这些公司背后的投资者包括红杉资本、OpenAI、五原资本、字节跳动等。
如果加上微软、英特尔、AMD等科技巨头和芯片龙头的“造芯”动作,对标的AI芯片公司数量有多少?与 Nvidia 的竞争最终将超过 20 个。
从这个角度来看,虽然 Nvidia 在数据中心、游戏和人工智能加速器等关键增长领域保持着引人注目的技术领先地位,但该公司面临着越来越大的竞争威胁。
NVIDIA今年势必面临更大的挑战。
【本文由投资界合作伙伴微信公众号授权:半导体产业纵横。
本平台仅提供信息存储服务。
】如有任何疑问,请联系投资界()。
#阿里云#创新创业#创业支持#创业资讯我们关注国内外最热门的创新创业动态,提供一站式资讯服务,实时传递行业热点新闻、深度评论和前瞻观点帮助企业家掌握新兴技术。
趋势和行业变化,以及对未来技术趋势的洞察。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-18
06-18
06-21
最新文章
3月,腾讯《王者荣耀》在全球App Store和Google Play吸引了2.57亿美元,同比增长63%
生鲜传奇宣布完成数亿元B+轮融资
裁员20%?红杉中国回应:胡说,员工总数不降反升
第二次影视创新“闯”短剧世界:看、留、跳都是钱
ASML:从飞利浦弃儿到光刻之王
宁康瑞珠获数千万元A轮融资 横琴金投、翰颐资本投资
智能金融服务生态平台科客完成A+轮融资
拼多多九鼎:信息披露无懈可击,竞争对手才是“浇水”的