Stellantis致力于供应安全和创新
06-06
随着NVIDIA AI芯片的热销,HBM(高带宽内存)成为时下存储最热门的领域。
无论是三星、海力士还是美光,他们都投入了大量的研发人员和资金,以保持领先地位。
赛道最前线。
HBM 的初衷是为 GPU 和其他处理器提供更多内存,但随着 GPU 变得越来越强大,需要更快地从内存访问数据,以缩短应用程序处理时间。
例如,在机器学习训练运行中,大型语言模型(LLM)可能需要重复访问数十亿甚至数万亿个参数,这可能需要数小时或数天才能完成。
这也使得传输速率成为HBM的核心参数,现有的HBM都采用了标准化设计:HBM存储器堆栈通过微凸块与HBM堆栈中的硅通孔(TSV或连接孔)连接,并通过放置在基础封装层上的中间件连接,处理器也安装在中间件上,提供HBM和处理器之间的连接。
与普通DRAM相比,这样设计的HBM可以垂直连接多个DRAM,可以显着提高数据处理速度。
目前,HBM产品依次开发为HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)和HBM3E(第五代)。
最新的HBM3E是HBM3的扩展版本,速率为8Gbps。
但对于AI芯片来说,仅靠传统的硅通孔已经无法满足制造商对速度的渴望。
内存制造商和标准组织正在研究如何使用光子学等技术或直接在处理器上安装HBM,从而使像GPU加速的处理器能够提供更快的内存访问速度。
01 新方向是谁? 虽然目前业界都在重点开发HBM3的迭代产品,但各厂商为了争夺市场话语权,对未来HBM技术的发展却有着不同的看法和想法。
三星 三星正在研究在中间件中使用光子技术,该技术可以比电子编码位更快地通过链路,并且消耗更少的电量。
光子链路可以以飞秒速度运行。
这意味着 10-15 个时间单位,或万亿分之一秒(十亿分之一的百万分之一秒)。
在近日举行的开放计算项目(OCP)峰会上,以总工程师李岩为代表的韩国巨头先进封装团队介绍了这一话题。
使用光子集成电路的另一种方法是将 HBM?? 堆栈更直接地连接到处理器(上图中的三星逻辑图)。
这将涉及仔细的热管理以防止过热。
这意味着随着时间的推移,HBM 堆栈可以升级以提供更大的容量,但这只有在行业标准涵盖该领域的情况下才可能实现。
SK海力士 据韩国媒体报道,SK海力士也在研究HBM与逻辑处理器直接连接的概念。
这个概念是将 GPU 芯片与 HBM 芯片一起制造在混合用途半导体中。
芯片制造商认为这是 HBM4 技术,并正在与 Nvidia 和其他逻辑半导体供应商进行谈判。
这个想法涉及存储器和逻辑制造商共同设计芯片,然后由台积电 (TSMC) 等晶圆厂运营商制造。
这有点类似于内存中处理(PIM)的思想。
如果它最终没有成为行业标准,它很可能成为事实上的制造商独占。
Micron Tom's Hardware 报道称,美光和市场上的其他公司正在开展 HBM4 和 HBM4e 活动。
美光目前正在生产 HBM3e gen-2 内存,采用 8 层垂直堆叠 24GB 芯片。
美光的 12 层垂直堆叠 36GB 芯片将于 2020 年第一季度开始提供样品。
该公司正在与半导体代工运营商台积电合作,将其第二代 HBM3e 用于人工智能和 HPC 设计应用。
美光表示,其当前产品具有高能效。
对于安装了 10,000 个 GPU 的设备,每个 HBM 堆栈可节省约 5 瓦的功耗。
与其他 HBM 产品相比,预计五年内可节省高达 5.5 亿美元的运营成本。
支出。
02 下一代 HBM 已有多年历史,从 HBM1 到 HBM3e,它们都保留了相同的位(每堆栈)接口,即具有以相对适中的时钟速度运行的超宽接口。
为了提高存储器传输速率,下一代 HBM4 可能需要对高带宽存储器技术进行更实质性的改变,首先是更宽位的存储器接口。
出于多种技术原因,业界希望在不增加 HBM 存储器堆栈占用空间的情况下实现这一目标,从而使下一代 HBM 存储器的互连密度加倍。
HBM4 将代表多个层面的重大技术飞跃。
就DRAM堆叠而言,位存储器接口需要显着增加存储器堆叠中硅通孔的数量。

同时,外部芯片接口需要将凸块间距缩小到远小于55微米,而HBM3目前的凸块总数为(大约),因此微凸块总数需要大幅增加。
内存供应商表示,他们还将在单个模块中堆叠多达 16 个内存模块,即所谓的 16-Hi 堆栈,这增加了技术的复杂性。
(从技术上讲,HBM3也支持16-Hi堆叠,但到目前为止,还没有制造商实际使用它。
)这将允许内存供应商显着增加其HBM堆叠的容量,但也带来了新的复杂性,即如何连接更多的DRAM凸块没有缺陷,然后保持生成的 HBM 堆栈适当且一致地短。
在阿姆斯特丹举行的台积电 OIP 会议上,台积电设计基础设施管理负责人表示:“因为 [HBM4] 不是将速度加倍,而是将 [接口] 引脚加倍。
这就是我们与所有三个合作伙伴合作的原因共同努力确保他们的 HBM4(采用我们的先进封装方法)符合要求,并且 RDL 或中介层或介于两者之间的任何东西都可以支持(HBM4)的布局和速度。
我们将继续与三星、SK 海力士和美光合作。
” 目前,台积电的 3DFabric 内存联盟目前正在努力确保与 CoWoS 封装的 HBM3E/HBM3 Gen2 内存、采用先进封装的 12-Hi HBM3/HBM3E 封装、用于 HBM PHY 的 UCIe 以及三星首创的无缓冲 HBM 技术兼容。
美光今年早些时候表示,“HBMNext”内存将于 2020 年左右上市,每个堆栈的容量在 36GB 到 64GB 之间,每个堆栈的峰值带宽为 2TB/s 或更高。
所有这些都表明,即使内存总线更宽,内存制造商也不会降低 HBM4 的内存接口时钟速度。
03 总结 与三星和SK海力士不同,美光并不打算将HBM和逻辑芯片集成到一颗芯片中。
在下一代HBM的开发方面,韩美内存厂商分歧明显。
美光可能会告诉AMD、英特尔和Nvidia,你可以通过HBM-GPU等组合芯片获得更快的内存访问速度,但仅仅依赖一家公司的芯片意味着更大的风险。
美国媒体表示,随着机器学习训练模型的增加和训练时间的增加,通过加快内存访问和增加每个GPU的内存容量来缩短运行时间的压力也会增加。
为了获得锁定的HBM——结合GPU芯片设计(尽管具有更好的速度和容量)同时放弃标准化DRAM的竞争供应优势可能不是正确的前进方向。
不过,韩国媒体的态度却相当暧昧。
他们认为HBM可能会重塑半导体行业的秩序,并认为IP(半导体设计资产)和工艺的重大变化是不可避免的。
他们还援引业内人士的话说:“除了定制化的‘DRAM一代’之外,可能还有一个更大的世界,甚至像Nvidia和AMD这样的巨头也不得不在三星和SK海力士制造的主板上进行设计。
” SK海力士首席执行官兼总裁Kwak的演讲比较有趣,他表示:“HBM、Computational Express Link(CXL)和内存处理(PIM)的出现将为内存半导体公司带来新的机遇。
”逻辑半导体和存储器的“存储器正在从一般商品向特殊商品转变,而起点将是HBM4。
从这一点来看,下一代HBM技术路线的选择可能会引发存储器领域的又一次大洗牌。
”不妨拭目以待吧。
【本文由投资界合作伙伴微信公众号授权:本平台仅提供信息存储服务】如有疑问,请联系。
投资社区 ()。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-06
06-17
06-18
06-18
06-17
06-18
最新文章
Android旗舰之王的过去与未来
智能手表不被开发、AR眼镜被推迟,Meta的产品经历了一波三折
为什么Cybertruck是特斯拉史上最难造的车?
更新鸿蒙3后,文杰允许你在车里做PPT了
新起亚K3试驾体验:追求“性价比”,韩系汽车仍不想放弃
阿维塔15登场!汽车配备了增程动力,理想情况下会迎来新的对手吗?
马斯克宣布创建 ChatGPT 竞争对手! OpenAI的CEO给他泼了冷水, GPT-5可能会发生巨大变化
骁龙无处不在,是平台也是生态