MIUI 13 Pad稳定版已上线!与苹果相比,您的体验如何?
06-21
这两天,我们再次回顾了黄仁勋在GTC上的演讲。
当我们对产品进行更深入的分析和解读时,我们发现了一些当时我们熬夜错过的亮点。
首先,黄先生的演讲风格幽默、自然,非常健谈。
难怪他能把一场科技产品发布会变成一场音乐会。
二是结合前几代产品回顾一下新发布的Blackwell架构和系列GPU。
我只能说它的计算性能、成本以及未来的表现都远远超出了我的想象。
就像NVIDIA的名字一样,NVIDIA的前两个字母N和V代表Next Version。
和往年的GTC一样,NVIDIA如期发布了下一代产品,性能更高、性能更好;但与之前完全不同,因为Blackwell代表的不仅仅是下一代产品,更是下一个时代。
重新认识一下,地球上最强大的GPU的自我介绍通常都是从名字开始的,那么我们就从这里开始介绍最新最强的AI芯片吧。
布莱克威尔的全名是大卫·哈罗德·布莱克威尔。
他是美国统计学家,拉奥-布莱克威尔定理的提出者之一。
更重要的是,他是美国国家科学院第一位黑人院士,也是加州大学伯克利分校第一位黑人终身教员。
GTC上发布的《布莱克威尔》就源于此。

并不是布莱克威尔本人对NVIDIA有什么杰出的贡献,而是在NVIDIA的命名系统中,取了历史上一些著名科学家(或数学家)的名字。
GPU 微架构的命名已成为惯例。
今年以来,NVIDIA陆续推出了Tesla、Fermi、Kepler、Maxwel、Pascal、Volta、Turing、Ampere架构,分别对应Tesla、Fermi、Kepler、Maxwell、Pascal、Volta、Turing、Ampere。
这些学术带头人。
一是有名,二是有料。
至于是否与指定产品一一对应,其实相关性并不强。
这里需要强调的是,上面提到的命名对象不是单个芯片,而是指整个GPU架构(黄仁勋称之为平台)。
芯片架构是指芯片的基本设计和组织结构。
不同的架构决定了芯片的性能、能效、处理能力和兼容性,也影响了应用程序的执行方式和效率。
简单来说,你现在拥有一座体育场(制造芯片的原材料),你打算彻底改造它。
土地是否用于音乐会或体育比赛(芯片的用途)决定了场馆布局、人员雇用和装饰。
以及公布的方式(芯片架构)。
因此,芯片架构和芯片设计是相互关联的,共同决定芯片性能。
比如经常听到的x86和ARM,是针对CPU设计的两种主流架构。
前者性能强大,后者能耗控制出色。
每个人都有自己的优势。
基于NVIDIA多代技术,Blackwell架构下的芯片B和B具有出色的性能、效率和规模,也开启了AIGC的新篇章。
但为什么被称为“AI核弹”呢?新的GPU有多强大?与上一代产品相比,我们会有更直观的感受。
2018年GTC上,黄仁勋发布了新架构Hopper和新芯片H:1.采用台积电4nm工艺制造,集成1亿个晶体管,比上一代A多1亿个。
2.FP16、TF32和H的FP64性能是A的3倍,分别为TFLOPS、TFLOPS和60TFLOPS。
训练一个1亿参数的大模型只需要1天。
用老黄的原话来说就是“20张图片可以承载全球互联网‘流量’”。
3、H的出售将英伟达的市值推至超过2万亿美元,成为继微软、苹果之后的第三大科技公司。
市场跟踪公司 Omdia 统计分析,Nvidia 去年第三季度销售了大约 50 万块 H 和 AGPU,这些显卡的总重量接近 1000 吨,到目前为止,Hopper H 仍然是在售最强大的 GPU。
并领跑Blackwell B再次创下“最强”新纪录,性能提升远超常规产品迭代 从制程工艺来看,BGPU采用第二代台积电4nm工艺,采用双核裸芯片。
光刻限制尺寸,并通过10 TB/s芯片间互连技术连接,形成总共1亿个晶体管(单个(1亿芯片))的统一GPU,与制造Hopper H所使用的N4技术相比,性能提升6%。
,整体性能提升约%。
性能方面,第二代Transformer引擎使Blackwell能够通过全新的4位浮点AI支持双倍的计算和模型大小推理能力。
单芯片AI性能高达20 PetaFLOPS(每秒可执行20×10^15浮点数)。
点运算),比上一代Hopper H提升4倍,AI推理性能比上一代提升30倍。
从能耗控制的角度来看,过去训练一个1.8万亿参数的模型需要Hopper GPU和15兆瓦的功率。
现在一块Blackwell GPU就可以做到这一点,而且功耗只有4兆瓦,直接降低了96%。
因此,黄仁勋关于“布莱克韦尔将成为世界上最强大的芯片”的说法不仅仅是无稽之谈,而是已经成为事实。
不便宜,使用起来也不简单。
金融服务公司 Raymond James 的分析师估算了 B 的成本。
NVIDIA 生产的每个 H 的成本约为 25,000 美元至 30,000 美元。
根据两者的性能差异,预计B的成本将比H高50%到60%,约为10,000美元。
黄仁勋在发布会后接受CNBC专访时透露,Blackwell GPU的价格约为3万至4万美元,整个新架构的研发成本约为1亿美元。
我们必须发明一些新技术才能使其(新架构)成为可能。
按照以往的节奏,英伟达大约每两年就会发布新一代AI芯片。
与前几代产品相比,最新的Blackwell在计算性能和能耗控制方面都有显着提升。
更直观的来说,它结合了 Blackwell 和两个 GPU,几乎是 Hooper 的两倍。
高成本不仅与芯片有关,还与设计数据中心并将其集成到其他公司的数据中心有关,因为在黄仁勋看来,英伟达不生产芯片,而是建设数据中心。
英伟达最新财报显示,第四季度营收创历史新高,达1亿美元,同比增长%。
第四季度净利润1亿美元,同比增长10%。
最大收入来源数据中心业务达到创纪录的10亿美元,较第三季度增长27%,较去年同期增长3%。
研发成本较高,但正回报较高。
NVIDIA 目前正在建设的数据中心包括全栈系统和所有软件。
它是一个完整的系统,Blackwell或者GPU只是其中的一部分。
数据中心被分解为多个模块。
用户可以根据自己的需求自由选择相应的软硬件服务。
NVIDIA会根据不同的需求对网络、存储、控制平台、安全、管理等方面进行调整,并有专门的团队提供技术支持。
这样的全球视野和定制服务好不好,数据可以说明一切:截至3月5日,英伟达市值已经超越Alphabet、亚马逊等巨头,并超越沙特阿美成为全球第三大公司,仅次于微软和苹果两大科技巨头,总市值达2.4万亿美元。
目前,全球数据中心市场规模约为1亿欧元(约合人民币1亿元),NVIDIA是其中的一部分。
黄仁勋预测,这个市场未来很可能增长到1-2万亿美元。
NVIDIA CFO Kress分析:第四财季数据中心收入主要由生成式AI及其相关培训推动。
我们估计,过去一年数据中心收入的约 40% 由人工智能产生。
不到一个月前,黄仁勋还在财报中表示,加速计算和生成式人工智能已达到临界点,全球各地企业、行业和国家的需求正在激增。
确实,定制并不是NVIDIA独有的,但在AI时代,能够提供“从头到脚”服务的公司已经所剩无几,而NVIDIA就是其中之一。
猪要想腾飞,首先必须走在最前面。
在虚拟现实、高性能计算和人工智能的交叉领域,GPU 甚至正在取代 CPU 成为 AI 计算机的大脑。
生成式AI在各行业引起热议的核心原因在于它开始像“人”一样工作和学习,从聊天、写文案、画图、制作视频,到分析条件、调查总结一切奇妙的事情生成结果需要天文数量的样本数据作为支持。
例如,如果你能记住“爱范儿”这个名字,可能是因为每天的公众号推送通过重复信息强化了记忆;也可能是因为你以前从未见过“艾”和“范儿”的组合。
新奇的事物给你留下深刻的印象;或者橙色标志在您的脑海中留下独特的视觉符号。
每一个简单的小细节都巩固了你心目中“范儿”的形象,但当全国科技媒体信息混杂在一起时,就需要更多的符号来加深印象,避免混淆。
AI的深度学习大概也遵循这个逻辑,而GPU是处理海量信息的最佳选择。
自从OpenAI点燃AIGC以来,大多数知名公司都开始快速上架自己的大大小小的模型。
智能汽车、翻译软件、电子文档、移动助手,甚至扫地机器人都拥有人工智能。
GPU 似乎一夜之间成为全球竞争的对象。
据市场跟踪公司Omdia统计,腾讯、阿里巴巴、百度、字节跳动、特斯拉、Meta和微软各购买了15万台。
HGPU(去年最强大的芯片)。
技术原理和时代背景共同推动了GPU的爆发,造就了英伟达的“显卡帝国”。
据富国银行称,英伟达目前在数据中心人工智能市场拥有 98% 的市场份额。
站在出风口,连猪都能飞。
但当一家公司在一个行业的份额接近10%时,背后一定有一个与走在前列同样重要的原因。
2007年,NVIDIA率先提出GPU的概念,并于2006年推出了CUDA,这是NVIDIA发展史上一个重要的技术转折点。
降低了GPU的应用门槛。
开发者可以使用C/C++等语言在GPU上编写程序。
,GPU已经脱离了图像处理的单一用途,高性能计算进入了显卡的世界。
2016年AlphaGo的胜利,2017年比特币的暴涨和挖矿热潮,这期间都押注在自动驾驶市场上。
直到 2023 年 ChatGPT 等大型 AI 模型的出现,英伟达才迎来了多年前播下的种子的收获时刻。
风口固然重要,但前瞻性的市场布局、多元化的应用领域、海量的投入和创新,任何一个环节不到位,都不会创造出当下接近满分的市场神话。
然而,对于英伟达来说,如何在时代的十字路口保持领先地位才是最重要的问题。
布莱克威尔是巩固成果的关键一步。
很多厂家还没收到订单H,B、B的装配线就已经开工了。
黄仁勋在讲话中重申了他在之前的财务报告中提出的观点,即“通用计算已经达到了瓶颈”。
所以现在您需要更大的模型,需要更大的 GPU,并且需要将 GPU 堆叠在一起。
这不是为了降低成本,而是为了扩大规模。
这其中有一些谦虚,但当然市场也有巨大的需求。
目前,OpenAI最大的模型已经有1.8T(万亿)参数,需要处理数十亿个token(字符串)。
即使使用 PetaFLOP(千万亿次浮点运算)级别的 GPU,训练如此大的模型也需要数年时间。
可以完成。
Hopper 很棒,但我们需要更强大的 GPU。
GTC带来的第一波讨论这几天已经慢慢退去。
可以预见,发布会上的Blackwell GPU系列、第五代NVLink、RAS引擎等进入市场后将带来更多热议。
令人震惊;难以预测的是,“生成式AI已经达到的临界点”会给世界带来多少惊喜和改变?在AIGC爆发的当下,AGI到来的前夜,英伟达引爆的那串AI鞭炮才刚刚第一次爆炸。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态