Molex 收购 Laird 的互联汽车解决方案业务
06-06
刚刚,NVIDIA发布了全球最强大的AI芯片。
生成式人工智能已经达到了一个临界点。
两个小时的GTC会议更像是一场大型音乐会。
英伟达高管科学家和Jim范开玩笑说“黄仁勋是新泰勒·斯威夫特”。
这大概就是目前NVIDIA黄仁勋在AI行业的现状。

去年,黄仁勋称AI的“iPhone时刻”已经到来,让我们看到了AI正在如何改写日常生活,而今天则表明这种变化的速度正在疯狂加速。
在过去的10年里,NVIDIA将AI推进了大约一百万倍,远远超过了摩尔定律,或者换句话说,NVIDIA正在书写自己的迭代定律。
从芯片算力到AI实现,从汽车制造到医疗物流,NVIDIA不仅取得了自身的进步,也推动了各行各业的发展。
摩尔定律已死,但 NVIDIA 却诞生了新的摩尔定律。
除了电脑显卡之外,平时很少被我们感知到的NVIDIA,但我们身边很多产品的技术进步却始终离不开它们。
看完这篇GTC第一次总结,或许你能对昨天的AIGC浪潮有更明显的认知。
OpenAI CEO Sam Altman 晚间在 X 上发的一条推文或许可以成为时代的注脚:这是人类历史上最有趣的一年,除了未来的所有年份。
无聊的一年。
全球最强大的人工智能芯片诞生,性能飞速提升。
这是当今世界上生产的最先进的 GPU。
发布会的主角是“Blackwell B”AI芯片。
黄仁勋表示,该芯片以数学家、博弈论学家和概率论学家大卫·布莱克威尔的名字命名。
基于台积电4NP工艺,Blackwell架构下的计算芯片拥有1亿个晶体管,相比上一代GHGPU上的1亿个晶体管,又是一个突破。
Blackwell B并不是传统意义上的单一GPU。
它由两块 Blackwell GPU + 一块 Grace CPU 芯片组成,并通过 10 TB/s NV-HBI(Nvidia 高带宽接口)连接,确保每个芯片都能单独运行。
因此,B实际上拥有1亿个晶体管,可以提供高达20 petaflops的FP4计算能力。
其中两个GPU与单个Grace CPU相结合,可以将LLM(大型语言模型)推理的工作效率提高30倍。
。
GB的性能也将得到很大的提高。
在1亿参数的GPT-3 LLM基准中,GB的性能是H的7倍,训练速度是H的4倍。
更重要的是,它比H降低了25倍的成本和能耗。
尽管NVIDIA的AI处理器H非常受欢迎,但每个H的峰值功耗高达瓦特,超过了美国普通家庭的平均功耗。
专家预测,随着大量H的部署,其总功耗将与单个处理器相同。
美国的大城市与一些欧洲小国家不相上下,甚至超过。
黄仁勋表示,训练 1.8 万亿个参数模型之前需要 Hopper GPU 和 15 兆瓦的功率,现在 Blackwell GPU 可以做到这一点,同时仅消耗 4 兆瓦。
Blackwell BGPU的强大性能在能耗方面也能完美体现。
B采用最新的NVLink互连技术,支持相同的8GPU架构和GbE网络交换机。
其性能大幅提升的同时,可实现与上一代H/H相同的峰值能耗(W)。
另一个值得注意的点是FP4的计算能力。
黄仁勋表示,过去八年,AI算力增长了千倍。
最关键的改进是第二代Transformer引擎,通过FP4算力显着提升了计算、带宽和模型大小。
与AI常用的FP8算力相比,B的两颗计算芯片使其性能达到H的2.5倍。
Blackwell架构下每颗芯片的算力较上一代Hopper芯片提升25%。
Nvidia 资深科学家Jim粉丝称新 Blackwell BGPU 为“新的性能野兽”。
单一架构内B的算力超过1 Exaflop,黄仁勋向OpenAI交付的第一台DGX性能为0.17 Petaflops,GPT-4-1.8T参数可以在Blackwell平台上90天内训练完成。
毫不夸张地说,新摩尔定律诞生了。
由于 Blackwell 有多种不同的变体,Nvidia 还提供了完整服务器节点的规格,包括三个主要选项。
首先是规模最大、性能最强的GBNVL72系统,配备18台1U服务器,每台配备两颗GB超级芯片。
该系统提供72个BGPU,具有Peta FLOPS FP4 AI推理性能和Peta FLOPS FP8 AI训练性能。
它将采用液体冷却解决方案。
一台NVL72可以处理27万亿个参数模型(GPT-4参数最大不超过1.7万亿个参数)。
另一个规格是 HGX B,它基于在单个服务器节点中使用八个 BGPU 和一个 x86 CPU。
每个 BGPU 最高可配置为 W,GPU 提供高达 18 petaflops 的 FP4 吞吐量,比 GB 级别的 GPU 慢 10%。
。
最后,Nvidia还将推出HGX B,其通用规格与HGX B相同,配备x86 CPU和8个BGPU,但将直接兼容现有的HGX H基础设施,并允许以最快的速度部署Blackwell GPU,每个GPU TDP上限为W。
在此之前,英伟达已经通过H、H等AI芯片成为一家价值数万亿美元的公司,并超越了亚马逊等领先公司。
今天发布的新款Blackwell BGPU和GB“超级芯片”极有可能会扩大领先地位,甚至超越苹果。
软件定义一切的时代即将到来。
去年,一小群研究人员发布了名为 AlexNet 的突破性图像识别系统。
当时,它在猫和狗分类任务上远远优于以前的方法,使其成为深度学习和卷积神经网络(CNN)在图像识别中潜力的里程碑式展示。
正是看到了人工智能的机会,黄仁勋决定将全部赌注押在人工智能上。
有趣的是,以前是识别生成图片并生成文本,现在是通过文本生成图片。
那么当生成式人工智能浪潮到来时,我们能做什么呢?黄仁勋给出了一些标准答案。
传统天气模型与 NVIDIA 的 Cordiff 天气模型相结合,可以实现探索数百甚至数千公里的预报,并提供台风影响的范围,从而最大限度地减少财产损失。
未来科迪夫还将向更多国家和地区开放。
生成式AI不仅可以通过数字能力理解图像和音频,还可以利用其巨大的计算能力扫描数十亿种化合物,筛选出新药。
作为AI军火商,黄仁勋还推出了专门协助AI芯片研发的NiMS系统。
未来,你甚至可能有机会组建AI超级团队。
将任务分解为一系列子任务后,可以让不同的AI完成检索、软件优化等任务。
未来的设施、仓库和厂房将由软件定义。
无论是人形机器人、自动驾驶汽车,还是操纵手臂,这些自主机器人都需要软件级操作系统。
例如,通过AI与Omniverse的结合,NVIDIA建造了一个10万平方米的机器人仓库。
在这个物理精确的模拟环境中,两个安装在天花板上的摄像头使用 NVIDIA Metropolis 软件和自主移动机器人 (AMR) 的路由功能实时映射仓库中的所有活动。
这些模拟还包括人工智能代理的软件循环测试,以评估和优化系统适应现实世界的不可预测性的能力。
在一个模拟场景中,AMR 在拾取托盘的途中遇到了事故,挡住了其预定路线。
随后,Nvidia Metropolis 更新并向控制系统发送实时占用地图,由控制系统计算出新的最佳路径。
仓库操作员还可以通过自然语言向可视化模型提出问题,模型可以理解细节和活动并提供即时反馈,以提高操作效率。
值得一提的是,Apple Vision Pro也出现在本次发布会上。
企业可以通过 Omniverse Cloud 轻松地将 3D 应用程序的交互式通用场景描述 (OpenUSD) 直播到 Vision Pro,帮助用户以前所未有的方式探索虚拟世界。
发布会的最后是大家熟悉的机器人环节。
正如黄仁勋所说,他张开双手与其他人形机器人站在一起的那一刻是“计算机图形学、物理和人工智能的交叉点”。
,一切从这一刻开始。
” ▲ 小彩蛋 十年前的 GTC,黄仁勋首次强调了机器学习的重要性。
虽然很多人仍然将英伟达视为“游戏显卡”制造商,但他们已经走在了AI革命的最前沿。
在被称为AI应用元年的时候,NVIDIA长期利用AI软硬件在多个领域赋能各行各业:大语言模型、对话式AI、边缘计算、大数据、自动驾驶、仿生机器人、药物发现等。
不是我们的 计算是我们的专长;制造汽车不是我们的专长,但制造汽车所需的人工智能计算机才是。
坦白说,一家公司很难擅长所有这些事情,但我们非常擅长其中的人工智能计算部分。
与单一行业的领头羊相比,NVIDIA更像是一个“幕后大佬”。
只要提到AI,NVIDIA一定是一个绕不开的话题。
正如老黄所说,NVIDIA已经是一家平台公司。
正是超前的部署和历史发展的大势,让英伟达在AI时代之初就占据了AI芯片市场70%以上的销量。
不久前该公司估值也突破2万亿美元。
或许这也是苹果苦苦挣扎多年后放弃造车,大力投资生成式AI的原因。
无论是经济效益还是技术趋势,都太值得一赌了。
当我们还在质疑“AI”的用处时,NVIDIA用行动证明了AI已经成为新时代不可或缺的一部分。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
06-06
06-17
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态