欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 财经 > 创投人物 > AI市场驱动HBM持续爆火

AI市场驱动HBM持续爆火

2024/10/24 10:24:21 来源:https://blog.csdn.net/zhuzongpeng/article/details/139426474  浏览:    关键词:AI市场驱动HBM持续爆火

随着人工智能市场的蓬勃发展,对AI处理器的需求激增,内存制造巨头正积极扩大高带宽内存(HBM)的产能,并努力提高其良率和竞争力。最新的动态是美光在日本广岛县计划建设新工厂,旨在最早于2027年开始生产芯片和HBM,使用最先进的“1γ”(即11-12纳米)工艺及极紫外(EUV)光刻设备。

HBM之所以成为热点并显得尤为重要,是因为它利用3D堆叠技术,通过硅通孔(TSV)将多层芯片堆叠在一起,能够在更小的空间内封装更多内存芯片,从而缩短数据传输距离,非常契合高性能计算应用尤其是AI芯片所需的快速数据速率。此外,用HBM替代GDDR或DDR SDRAM还能帮助控制能耗。因此,早在2013年GPU巨头AMD与存储领导厂商SK海力士合作开发HBM并不令人意外,2015年AMD推出了全球首款搭载HBM的高端消费级GPU——Fiji,而NVIDIA则在2016年引入了配备HBM的首款AI服务器GPU——P100。

目前,行业已步入HBM3e时代,NVIDIA在其Blackwell B100/Hopper H200型号中已采用第五代HBM技术HBM3e,预计GB200和B100也将采用HBM3e,计划于2024年下半年发布。SK海力士目前是NVIDIA H100 HBM3的主要供应商,已于2023年3月开始大规模生产HBM3e,并获得了NVIDIA的订单。三星则凭借其1Znm HBM3产品在2023年底进入NVIDIA供应链,并在2024年第一季度获得AMD MI300的认证。尽管有传言称三星为其12层HBM3e独家供应给NVIDIA的计划遭遇失败,但三星否认了这一说法,表示测试正顺利进行。

美光也在HBM3e的竞争中奋起直追,继2月开始大规模生产后,最近又从NVIDIA那里获得了H200的订单。市场研究机构TrendForce预测,HBM3e将成为2024年的主流产品,到2024年底将占先进工艺晶圆投入的35%。

对于下一代规格更高的HBM4,TrendForce预计可能在2026年推出,随着对更高计算性能的追求,HBM4将从当前的12层堆叠扩展到16层。SK海力士、三星和美光均透露了HBM4的产品路线图,显示出为应对日益增长的需求所做的准备。SK海力士计划于2026年启动HBM4的大规模生产,并考虑在日本和美国扩大投资以增加HBM产量;三星则宣布将于2025年推出HBM4,并大幅增加HBM芯片的生产量;美光预计在2026至2027年间推出12层和16层HBM4,之后还将引入HBM4e,进一步提升带宽和堆叠容量。

回顾历史,随着AI芯片市场需求持续强劲,GPU制造商倾向于多元化供应商,而内存巨头则通过提高良率和产品竞争力来争夺市场份额。在HBM3时代,SK海力士首先满足了NVIDIA H100的需求,随后三星的加入预示着供应多元化的趋势。未来HBM4市场,谁能夺得更大的市场份额,时间将给出答案。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com