当前位置: 首页 > 科技 > 文章内容页

韩国HBM技术成芯片产业关键,三巨头供应链依赖加剧

时间:2025-09-01    作者:游乐小编    

8月11日消息,近年来AI技术已成为全球市场的焦点,同时也是大国科技竞争的重要领域。虽然NVIDIA的GPU在算力方面占据优势,但其在存储芯片领域仍需依赖韩国厂商,特别是随着HBM内存逐渐成为制约AI发展的关键因素。

HBM(高带宽内存)作为一种新型内存标准,专为满足日益增长的高性能计算需求而设计。与传统内存相比,HBM具备更高的数据传输速率和更低的延迟特性,在AI计算领域具有不可替代的优势。

目前,全球HBM市场的竞争格局已经形成:SK海力士率先实现量产,美光紧随其后,而传统内存巨头三星反而进展最慢。HBM技术已发展到第四代(HBM4),但市场主流仍是HBM3E规格。当前HBM堆栈层数正从8层向12层演进,单颗容量可达36GB。值得一提的是,SK海力士凭借技术优势已实现16层堆栈,容量达48GB,并将在今年实现量产供货。

SK海力士HBM事业部高管崔俊龙(Choi Joon-yong)在近期采访中透露,AI终端用户的需求呈现爆发式增长且持续稳定。该公司预测,到2030年前,HBM市场将保持30%的年增长率,市场规模将突破数百亿美元。

HBM技术已成为韩国半导体出口的重要支柱。数据显示,去年韩国对美国芯片出口总额达107亿美元,其中HBM产品就占存储芯片出口的18%。

值得注意的是,全球三大AI芯片巨头NVIDIA、AMD和Intel都在不断提升HBM的容量和速度。以AMD为例,其明年将推出的MI400系列将搭载432GB HBM4内存,带宽高达19.6TB/s,相比MI350系列的288GB HBM3E(8TB/s)分别提升50%和145%,性能优势明显。

对中国AI产业而言,HBM技术已成为发展瓶颈。虽然国内已有企业在研发HBM芯片,但技术水平仍落后SK海力士1-2代,HBM3E和HBM4的量产仍需时日。不过,有消息称华为即将在未来两天公布一项突破性技术,有望降低中国AI推理对HBM的依赖,提升大模型推理性能,完善国内AI推理生态。

热门推荐

更多

热门文章

更多

首页  返回顶部

本站所有软件都由网友上传,如有侵犯您的版权,请发邮件youleyoucom@outlook.com