美国调查机构称,超过70%科技公司暂停招聘或裁员
06-17
中国电子报 英伟达又“赚钱”了。
1月3日,美股首个交易日,英伟达收盘价为美元。
一个月后,2月3日,英伟达股票收盘价已达美元,一个月内上涨47%。
华尔街分析师预测,英伟达 1 月份的股价表现有望为其创始人黄仁勋的个人财富增加 51 亿美元。
半导体公司股价的涨跌很正常,但今天与以往不同。
半导体市场正在经历罕见的下行周期。
此时英伟达股价的上涨,意味着美国股市从中看到了逆境中的希望。
这股希望之火的源头就是当下科技圈的“顶尖趋势”:ChatGPT。
推出仅两个月后,OpenAI 推出的这款聊天机器人月活跃用户就达到了 1 亿,成为历史上最受欢迎的聊天机器人。
增长最快的消费者应用程序。
由于ChatGPT是生成式AI,被誉为“AI芯片第一股”的NVIDIA在ChatGPT商业化模式尚未明朗的前期就应声上涨,收获了一波红利。
美股市场如此看好NVIDIA,不仅因为NVIDIA从显卡制造商成长为AI芯片霸主的历史原因,还因为现阶段ChatGPT与NVIDIA生态系统的兼容性。
为何成为“AI芯片第一股”? 20世纪90年代,3D游戏的快速发展和个人电脑的逐渐普及,彻底改变了游戏的操作逻辑和创作方式。
2006年,黄仁勋和另外三位电气工程师看到了游戏市场对3D图形处理能力的需求,成立了NVIDIA,向游戏市场供应图形处理器。
2009年,NVIDIA推出了GeForce显卡,并首次将图形处理器定义为“GPU”。
自此,“GPU”这个术语以及NVIDIA给它的定义和标准开始在游戏行业流行起来。
当时的三位创始人或许没有想到,让英伟达股价飙升的不是游戏显卡,而是AI芯片。
让英伟达市值超越英特尔的不是游戏显卡,而是AI芯片。
三十年后,当半导体遭遇罕见逆风时,支撑英伟达财务业绩的并不是游戏显卡,而是其数据中心业务,包括AI加速、高性能计算、超级计算等业务。
截至本财年第三季度(截至今年10月30日),数据中心业务的营收是游戏业务的两倍多,对英伟达营收的贡献高达64.6%。
2020年第四季度(最右)-2019年第三季度(最左) NVIDIA各部门收入NVIDIA 有趣的是,让NVIDIA走上AI之路的不是GPU硬件,而是软件编程平台:CUDA(统一计算架构)。
进入21世纪初,CPU很难继续保持每年50%的性能提升。
然而,拥有数千个核心的GPU可以利用固有的并行性继续提高性能,而且GPU的众核结构更适合高并发的深度学习任务。
这一特性逐渐被深度学习领域的开发者注意到。
然而,GPU作为图形处理芯片,很难像CPU一样使用C语言、Java等高级编程语言,这极大地限制了GPU向通用计算领域的发展。
英伟达很快注意到了这一需求。
为了让开发者能够使用NVIDIA GPU执行图形处理以外的计算任务,NVIDIA于2018年推出了CUDA平台,支持开发者使用熟悉的高级编程语言开发深度学习模型,灵活利用NVIDIA GPU计算能力,提供数据库、调度、错误程序、API接口等一系列工具。
尽管当时方兴未艾的深度学习并没有给NVIDIA带来显着的收益,但NVIDIA一直坚持投资CUDA产品线,以推动GPU在AI等通用计算领域的进步。
六年后,Nvidia 终于有机会向 AI 计算证明其 GPU。
2010年代,大型视觉数据库ImageNet项目组织的“大规模视觉识别挑战赛”是深度学习的标志性赛事之一,被誉为计算机视觉领域的“奥林匹克”。
当年,ImageNet Challenge 的最低错误率分别为 29.2% 和 25.2%,部分团队错误率高达 99%。
深度学习的前景因不确定性而蒙上阴影。
2016年,多伦多大学的博士生Alex Krizhevsky使用10,000张图像来训练神经网络模型。
与前辈不同的是,他选择使用 NVIDIA GeForce GPU 来为训练提供计算能力。
当年的ImageNet中,Krizhevsky的模型以15%左右的错误率夺得冠军,震惊了神经网络学术界。
每年,ImageNet top-5错误率(预测图像的5个类别)和GPU使用率(红线是错误率,绿线列是参赛团队的GPU使用率)的标志性事件证明了GPU对于深度学习的价值来说,也打破了深度学习计算能力的束缚。
此后,GPU被广泛应用于AI训练等大规模并发计算场景。
数据显示,2010年,ImageNet挑战赛中没有任何团队使用GPU。
2016年Krizhevsky带头后,参赛队伍使用的GPU数量达到60块,2018年进一步增加到100块。
除了学术界,科技公司也向NVIDIA伸出了橄榄枝。
2006年,英伟达和谷歌的人工智能团队创建了当时最大的人工神经网络。
到今年,Facebook、谷歌、IBM和微软的深度学习架构都将运行在Nvidia的GPU平台上。
2017年,NVIDIA GPU被惠普、戴尔等厂商引入服务器,并被亚马逊、微软、谷歌等厂商应用于云服务。
2017 年,英伟达专为人工智能和高性能计算打造的 Tesla GPU 被用于加速美国、欧洲和日本最快的超级计算机。
英伟达人工智能领域的增长在于其股价和市值。
年初,英伟达的股价在30美元左右。
当年10月,英伟达股价触及美元高位,一度被资本市场誉为“AI芯片第一股”。
2017年7月,英伟达市值首次超越英特尔,成为当时美国最大的芯片公司。
ChatGPT 的最大受益者?英伟达在AI计算领域的长期储备,让英伟达在商业探索初期就率先受益于ChatGPT,并在股市斩获不菲。
接下来,ChatGPT的受欢迎程度预计将进一步体现在NVIDIA的销量上。
IDC亚太研究总监郭俊利告诉《中国电子报》,在算力方面,ChatGPT至少进口了1万块NVIDIA高端GPU,总算力消耗已经达到PF-天。
“我们估计 ChatGPT 可能会在 12 个月内将 Nvidia 相关产品的销售额推至 35 亿美元至 1 亿美元。
”郭俊礼说道。
ChatGPT因其能够满足多种需求而引起了全球用户的极大兴趣。
解释名词概念、写论文、诗歌、填写表格、编写和执行 SQL 查询,甚至编写代码。
支持这种多元化功能的是AI大模型技术。
一位AI从业者告诉《中国电子报》记者,大模型技术涉及到AI开发、推理、训练的方方面面。
所谓“大”模型主要是指参数量和计算量大,需要更大的数据量和更高的计算能力支持。
对于GPU厂商来说,大型号是值得期待的算力红利。
但英伟达真的能在这波算力红利中占据领先地位吗?如今,在通用GPU领域,AMD始终是第二大独立GPU供应商,并保持着快速的增长速度。
2017年,AMD数据中心事业部营业额同比增长高达64%。
英特尔一直是全球最大的集成显卡供应商。
宣布回归独立GPU市场后,推出了面向数据中心和AI的Xe HP架构和面向高性能计算的Xe HPC架构。
与此同时,一批乘着AI崛起的中小型GPU公司也盯上了新的市场机会。
显然,Nvidia并不是AI开发者的唯一选择。
那么,美国股市对英伟达的信心从何而来?首先是GPU平台的多功能性。

一位互联网从业者告诉记者,小模型针对一项任务训练一个模型,而大模型则必须具有一定的通用性。
如果小模特的培训是一个班的话,大模特的培训就相当于九年的义务教育。
CUDA 平台支持的 NVIDIA GPU 以其多功能性而闻名。
“NVIDIA的通用性很高,支持AI的能力也很强。
当一个新的AI热点出现时,早期很难预测其成长过程中会出现什么新的应用。
通用性强的芯片平台才是更安全的选择,所以AI开发者往往会优先考虑英伟达的GPU,等这个AI热点成熟、方向相对明确的时候再开发自己的芯片。
”Gartner研发副总裁盛凌海对记者表示,英伟达的另一条护城河是其粘性。
AI生态系统。
CUDA几乎只支持NVIDIA的Tesla架构GPU,不易迁移,有利于AI开发者与NVIDIA软硬件的长期绑定。
”在AI领域,NVIDIA的GPU占据绝对的领导地位。
在训练领域,NVIDIA的GPU产品市场份额超过80%。
再加上CUDA软件工具,可以捆绑GPU等硬件芯片,构筑行业壁垒。
”DI咨询集成电路产业研究中心总经理赛腾然告诉记者,这波红利会持续多久?在历史上英伟达的发展过程中,出现了很多导致其股价飙升的热点,其中有一些是技术愿景,比如AI和元宇宙,这些不仅给整个社会带来了想象力,也倒逼英伟达推出新的产品和平台。
但也有一些纯粹的GPU销售,比如“挖矿”,虽然短期内迅速提升了NVIDIA和AMD显卡的销量,但也对芯片供应秩序和财务的稳定性造成了损害。
GPU厂商的性能,成为ChatGPU带来的算力红利能持续多久?这个问题可以从两个层面来看:ChatGPU是否是一项能够长期发展的颠覆性技术。
。
在黄仁勋自己看来,答案是肯定的。
在近期伯克利哈斯商学院院长演讲系列中,黄仁勋表示,ChatGPT在人工智能领域的出现就相当于iPhone在手机领域的出现:“ChatGPT的出现类似于“iPhone”在手机领域的出现,这一刻在技术领域具有里程碑意义,因为现在每个人都可以将所有关于移动计算的想法汇集到一个产品中,例如通过API接口,可以将ChatGPT连接到。
数据表、Powerpoint、绘图程序、照片编辑程序等,一切都可以变得更加完美。
”但也有观点认为ChatGPT并没有给底层技术带来改变,Meta首席AI科学家、图灵奖获得者杨立坤表示,ChatGPT并没有给底层技术带来创新,而更多的是一个组装好的产品。
盛凌海告诉记者,目前ChatGPT仍然根据现有数据提供组合答案,而不是创造新的内容。
ChatGPT要想长远发展,需要不断演进为生产工具。
例如,它可以用来在短期内提高搜索引擎的准确性,而不仅仅是与用户交谈。
在芯片层面,我们还没有看到针对ChatGPT推出任何新产品。
但ChatGPT作为明星产品,引发了全社会对生成式AI和大模型技术的关注,而后者对芯片用量的需求更大、芯片规格更高的趋势较为明显。
“未来,大型模型将成为AI技术领域的重要生产工具,需要更强的训练和推理能力来支持海量数据模型并高效完成计算。
“这些要求都会对芯片的算力、存储能力、软件栈、带宽等产生影响,对技术有更高的要求。
”郭俊礼表示。
第二个是在创生发展的不同时期,英伟达所占的蛋糕会不会发生变化。
像ChatGPT这样的AI。
对于中小企业来说,一旦弄清楚用ChatGPT做什么,根据业务特点定制AI芯片是更经济的选择。
郭俊利表示,随着ChatGPT技术的不断发展。
随着算法的不断成熟和普及,ASIC将拥有更多的竞争优势,领先的公司普遍希望从芯片层、框架层、模型层转向应用层,因此无论是国际上的谷歌、微软还是亚马逊。
以及国内的百度、阿里巴巴都推出了自己的计算芯片,为了让芯片层更加符合自己的框架模型,科技公司将不断提高软硬件的契合度,进一步提高自研比例。
筹码。
因此,当ChatGPT发展到成熟阶段时,其算力基础可能会逐渐从NVIDIA一家独大转向“百家争鸣”的争夺,从而压缩NVIDIA在该领域的利润空间。
但在此期间,下一个AI热点可能会出现,从通用GPU平台开始下一个早期探索周期。
毕竟,芯片公司的涨跌、概念股的涨跌,都源于人们对科技进步和美好生活的期待。
只要想象力没有终结,总会有吸引市场关注的新发现,总会有企业追逐的新热点。
首届晶鑫研讨会诚邀各企业参加。
2020年2月23日,首届晶芯研讨会以“先进封装与键合技术进入发展快车道”为主题,邀请产业链代表领导及专家共同探讨来自多个领域的先进封装与键合工艺技术等解决方案。
先进封装、粘合设备、材料和工艺技术等观点。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-17
06-18
06-17
06-18
06-17
06-18
最新文章
英特尔收购芯片制造商eASIC,进一步减少对CPU的依赖
西门子携手现代汽车、起亚公司,共同推动交通运输行业数字化转型
行业领导者制定 Open Eye MSA 来帮助实现高速光连接应用
三星电子和 NAVER 合作
意法半导体和 Leti 合作开发 GaN-on-Si 功率转换技术
青岛将大力发展高世代TFT-LCD和Micro LED项目
长电科技参加IMAPS器件封装大会
三星正式发布Exynos 990旗舰处理器