AI发展迅速!2026年将消耗全球DRAM产能超20%

2026-01-04
阅读量 937

随着人工智能技术的迅猛发展,AI竞赛的重点正从算力快速转向存储容量与推理成本。

在云端推理需求爆发式增长的驱动下,HBM、GDDR7等高速内存已成为行业新战场,而“存储黑洞”效应正加速显现,对全球供应链构成严峻挑战。

行业预测,2026年全球云端高速内存需求将突破3EB。

若纳入高速内存对晶圆产能的折算消耗,AI对全球DRAM产能的消耗可能逼近20%。

势必会挤压PC、手机及传统服务器等主流应用的供货,市场缺货与涨价压力同步升温。

推理需求倍增

专家指出,核心症结在于AI推理过程中需持续保存海量“中间状态数据”。

单个用户或AI代理的内存需求因此被倍数放大,直接将HBM与GDDR7推至供需拐点。

以典型场景为例:在100万token的长上下文任务中,即使采用FP8等高效格式,推理仍需约60GB高速DRAM存储中间状态。

若升级至FP16,需求将飙升至100GB以上。对比主流的8K token约1GB内存的需求,呈现60倍级跃升,成为AI规模化扩张的隐形成本瓶颈。

图片

巨头需求测算

以Google(Gemini)、AWS(Bedrock)与OpenAI(ChatGPT)三大云平台需求测算,2026年推理端实时内存需求合计约750PB。

但实际部署需预留冗余与安全余量,硬件安装量可能翻倍,有效需求将推升至1.5EB。

叠加Meta、苹果私有云及中国市场的800PB需求,以及下一代模型训练所需的检查点与参数存储约500PB。

产能折算

行业综合预测,2026年云端GPU高速内存总需求将突破3.0EB。

需要注意的是,3.0EB需求量并不等同于直接消耗3.0EB的DRAM产能。

因高速内存非常吃晶圆产能,根据业内换算方式估计,1GB HBM约等效消耗4GB标准DRAM产能,1GB GDDR7等效消耗1.7GB。

以2026年全球DRAM产能约40EB为基准,AI消耗占比将达近20%。

DRAM产能年增长率仅10%-15%,远低于需求增速,必然会导致PC、手机及服务器DDR5等标准DRAM供应紧张。

在此背景下,DRAM产能将加速向HBM、GDDR7等高附加值产品倾斜,传统DDR(含DDR4/DDR5)市场空间被持续挤压。


点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

D4/32G-DDR 4

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2026 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号