深网财经科技2026年02月12日 14:46消息,三星首发垂直堆叠zHBM与定制cHBM,能效提升2.8倍,引领AI内存革命。
2 月 12 日消息,在昨日开幕的 SEMICON Korea 2026 半导体展会上,三星电子首次系统性公开展示其面向AI计算场景的下一代内存技术路线图,重点介绍了zHBM、cHBM以及LPDDR6-PIM三大前沿项目。此举不仅标志着三星在高带宽内存架构上的战略升级,更释放出一个明确信号:内存已不再仅是数据“搬运工”,而正加速演变为AI算力体系中的核心协同单元。
当前主流HBM与XPU(泛指GPU、NPU等AI加速逻辑芯片)的集成普遍采用2.xD封装方案——即两者在基板平面上并列排布,互连信号需经基板底部多层走线完成。这种结构虽已支撑多代AI芯片发展,但I/O密度和延迟瓶颈日益凸显。而zHBM则彻底重构物理堆叠关系:将HBM内存堆栈垂直置于XPU芯片正上方,通过硅通孔(TSV)与微凸块实现近存直连。据三星现场披露,该设计可支持超万级I/O通道,理论带宽提升幅度显著;更关键的是,信号路径缩短带来延迟降至传统方案的约1/4,功耗亦同步优化。这一变革并非单纯性能叠加,而是针对大模型推理场景中频繁的小批量、低延迟访存需求所作的精准适配——对边缘侧实时推理、端侧AI响应等新兴应用具有极强的工程牵引价值。
cHBM则代表了另一条技术路径:在HBM堆栈内部的Logic Die中嵌入专用计算单元,实现“内存内计算”(In-Memory Computing)的实质性落地。该设计跳过了传统“数据搬移—计算—回写”的冗余循环,尤其适用于矩阵向量乘加(MAC)、激活函数等AI负载中高度规则的数据流。三星公布的2.8倍Token吞吐能效提升,并非实验室理想值,而是基于典型LLM推理工作负载的实测结果。值得指出的是,cHBM的成功依赖于Logic Die制程、热管理及存算协同调度算法的深度协同,其量产难度远高于纯存储型HBM——三星敢于在此阶段高调披露,侧面印证其先进封装与3D集成能力已进入规模化验证临界点。
在移动与边缘AI领域,三星同步推进PIM(Processing-in-Memory)技术向低功耗DRAM延伸。其LPDDR6-PIM方案正加速推进JEDEC标准化进程,有望成为首个纳入国际标准的移动级内存内处理规范;而更为务实的LPDDR5X-PIM则计划于2026年下半年向主要客户出样,为智能手机、AI PC及AR/VR设备提供可商用的能效跃升路径。这一“双轨并进”策略凸显三星对技术落地节奏的清醒认知:标准先行以构建生态共识,成熟方案先行交付以抢占市场窗口——在AI内存军备竞赛日趋白热化的当下,这种兼顾前瞻性与可行性的布局,或将重塑行业技术演进的优先级坐标系。