洲讯科技完成近亿元A轮融资
06-18
JOHNVONNEUMANN 的原始计算机架构具有独立的逻辑和内存,多年来一直运行良好。
但一些公司认为是时候做出改变了。
近年来,向更多并行处理的转变以及神经网络规模的急剧增加意味着处理器需要更快地从内存中访问更多数据。
然而,“DRAM 和处理器之间的性能差距比以往任何时候都更大,”韩国科学技术院 3D 内存芯片专家、IEEE 院士 Joungho Kim 表示。
冯·诺依曼架构已成为冯·诺依曼瓶颈。
相反,如果至少有一些处理发生在内存中怎么办?这意味着需要在芯片之间移动的数据更少,并且可以节省能源。
这不是一个新的想法。
但它的时刻可能终于到来了。
去年,全球最大的动态随机存取存储器(DRAM)制造商三星开始引入内存处理(PIM)技术。
其首款 PIM 产品于 2 月推出,将专注于人工智能的计算核心集成到其 Aquabolt-XL 高带宽内存中。
HBM 是一种围绕一些顶级 AI 加速器芯片构建的专用 DRAM。
时任三星内存业务部门高级副总裁的 IEEE 院士 Nam Sung Kim 表示,新内存旨在“直接替代”普通 HBM 芯片。
去年8月,三星公布了合作伙伴系统的测试结果。
当与 Xilinx Virtex Ultrascale+ (Alveo) AI 加速器结合使用时,PIM 技术可为语音识别神经网络提供近 2.5 倍的性能提升和 62% 的能耗降低。
三星一直在提供集成到当前一代高带宽 DRAM HBM2 中的技术样本。
它还正在为移动设备中使用的下一代 HBM3 和低功耗 DRAM 开发 PIM。
它预计将与 JEDEC 合作,在今年上半年最终确定后一个标准。
有很多方法可以为存储芯片添加计算智能。
三星选择了快速而简单的设计。
HBM 由一堆 DRAM 芯片组成,这些芯片通过称为硅通孔 (TSV) 的互连垂直连接。
存储芯片堆栈位于与处理器连接的逻辑芯片的顶部。
一些内存处理项目 第三大 DRAM 制造商美光科技表示,它没有内存处理产品。
然而,2019年,它收购了人工智能技术初创公司Fwdnxt,目标是开发“让内存和计算更紧密结合的创新”。
NeuroBlade 这家以色列初创公司开发带有集成处理核心的内存,旨在加速数据分析中的查询。
Rambus DRAM Interface Technologies 的工程师对内存处理 DRAM 进行了探索性设计,重点是降低高带宽内存 (HBM) 的功耗。
全球最大的 DRAM 制造商三星正在提供集成 AI 计算核心的 Aquabolt-XL。
它还开发了用于内存模块的人工智能加速器,并致力于人工智能加速 DRAM 的标准化。
第二大 DRAM 制造商 SK Hynix 和普渡大学的工程师于 2016 年发布了人工智能加速 HBMDRAM Newton 的研究结果,但该公司决定不将其商业化,而是寻求标准 DRAM 的 PIM。
堆栈中最高的数据带宽位于每个芯片内,其次是 TSV,最后是与处理器的连接。
因此三星选择将处理放在 DRAM 芯片上,以利用那里的高带宽。
计算单元旨在执行最常见的神经网络计算,称为乘法和累加,仅此而已。
其他设计已将AI逻辑放置在接口芯片上或使用更复杂的处理核心。
三星的两个最大竞争对手 SK 海力士和美光科技尚未准备好为 HBM 实施 PIM,尽管它们已经实施了所有其他类型的内存处理。
韩国利川第二大DRAM供应商SK海力士正在多角度探索PIM。
该公司副总裁兼内存解决方案产品开发主管 Il Park 表示,他们目前正在标准 DRAM 芯片中追求 PIM,而不是 HBM。
可能更有可能被客户采用。
对于SK海力士来说,HBMPIM更多的是中长期的可能性。
当客户尝试将 HBM??DRAM 物理移动到离处理器更近的位置时,他们现在已经遇到了足够多的问题。
Park 表示:“该领域的许多专家不想在 HBM 已经很繁忙的情况下增加进一步的、相当显着的复杂性。
”也就是说,SK海力士的研究人员在2016年与普渡大学的计算机科学家合作,全面设计了一款名为Newton的HBM-PIM产品。
与三星的 Aquabolt-XL 一样,它将乘法和累加单元放置在存储体中,以利用芯片本身的高带宽。

与此同时,Rambus 研究员兼杰出发明家 Steven Woo 表示,总部位于加利福尼亚州圣何塞的 Rambus 由于功耗问题而有动力探索 PIM。
该公司设计了处理器和存储器之间的接口,片上系统及其HBM存储器消耗的功率的三分之二用于在两个芯片之间水平传输数据。
在 HBM 内垂直传输数据使用的能量要少得多,因为距离要短得多。
“你可能需要水平移动 10 到 15 毫米才能将数据传回 SoC,”Woo 说。
“但垂直方向上,你谈论的是几百微米的数量级。
Rambus 的实验性 PIM 设计在 HBM 堆栈顶部添加了一个额外的硅层,用于 AI 计算。
为了避免 HBM 中央硅通孔的潜在带宽瓶颈,该设计添加了 TSV 以将存储库与 AI 层连接起来。
Woo 认为,在每个内存芯片中拥有专用的人工智能层将使内存制造商能够针对不同的应用定制内存。
PIM 采用的速度将取决于人工智能加速器制造商对其提供的内存带宽缓解的迫切程度。
的程度。
Technaanalysis Research 首席分析师鲍勃·奥唐纳 (Bob O'Donnell) 表示:“三星已经投入了大量资金。
[PIM] 是否会取得商业成功还有待观察。
版权声明:本文内容由互联网用户自发贡献,本站不拥有所有权,不承担相关法律责任。如果发现本站有涉嫌抄袭的内容,欢迎发送邮件 举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。
标签:
相关文章
06-18
06-17
06-06
06-18
06-18
最新文章
欧盟宣布《芯片法案》,具体内容在这里!
TrendForce:第三季度内存价格小幅上涨3-8%,移动内存或贵却卖不动
英特尔、美光CEO:解决核心短缺危机不能单靠企业和政府援助
韩企Q1收购全球30%芯片制造设备
外媒:安博凯直接投资基金有意收购封测大厂Amkor
三星发布2nm计划,晶圆代工竞争迈向新节点
南通:打造国内最大的封装测试产业化基地
韩媒:三星正在研究用于芯片生产的聚焦环新材料