SK 海力士:计划在 2026 年前量产 HBM4 内存
来源:IT之家
随着人工智能 ( AI ) 和高性能计算 ( HPC ) 行业的飞速发展,对内存带宽的要求也水涨船高。目前拥有 9.6 GT/s 数据传输速率的 HBM3E 内存刚刚实现量产,但下一代 HBM4 内存已经箭在弦上,预计在两年内与大家见面。
图源:AMD
根据 Business Korea 报道,SK 海力士公司副总裁 Chun-hwan Kim 在 SEMICON Korea 2024 大会上表示,他们正计划于 2026 年之前实现 HBM4 的量产,以满足生成式人工智能快速发展带来的巨大需求。生成式人工智能市场预计将以每年 35% 的速度增长,这将推动处理器性能的提升,进而对内存带宽提出更高的要求。
据 IT 之家了解,目前单颗 HBM3E 内存堆栈能够提供高达 1.2TB / s 的理论峰值带宽,如果一个内存子系统包含 6 个堆栈,总带宽则可达到惊人的 7.2 TB / s。然而,理论值与实际应用之间存在差距。例如,英伟达的 H200 显卡虽然搭载了 HBM3E 内存,但其提供的带宽 " 只有 "4.8 TB / s,这可能是出于可靠性和功耗方面的考虑。
为了进一步提升内存带宽,HBM4 将采用 2048 位接口,理论峰值带宽可超过 1.5 TB / s。为了控制功耗,HBM4 的数据传输速率预计保持在 6 GT/s 左右。不过,2048 位接口需要更复杂的布线设计,这将导致 HBM4 的成本高于 HBM3 和 HBM3E。
除了 SK 海力士,三星也在积极研发 HBM4 内存,并同样计划于 2026 年量产。值得一提的是,三星还针对特定客户开发定制化 HBM 内存解决方案。
三星内存业务执行副总裁 Jaejune Kim 表示:"HBM4 目前正在开发中,预计在 2025 年提供样品,2026 年实现量产。由于生成式人工智能的需求,定制化 HBM 内存也越来越受欢迎。我们不仅在开发标准产品,还将与关键客户讨论通过添加逻辑芯片为每个客户定制优化性能的 HBM 内存。"