随着人工智能技术的迅猛发展,AI竞赛的重点正从算力快速转向存储容量与推理成本。
在云端推理需求爆发式增长的驱动下,HBM、GDDR7等高速内存已成为行业新战场,而“存储黑洞”效应正加速显现,对全球供应链构成严峻挑战。
行业预测,2026年全球云端高速内存需求将突破3EB。
若纳入高速内存对晶圆产能的折算消耗,AI对全球DRAM产能的消耗可能逼近20%。
势必会挤压PC、手机及传统服务器等主流应用的供货,市场缺货与涨价压力同步升温。
推理需求倍增
专家指出,核心症结在于AI推理过程中需持续保存海量“中间状态数据”。
单个用户或AI代理的内存需求因此被倍数放大,直接将HBM与GDDR7推至供需拐点。
以典型场景为例:在100万token的长上下文任务中,即使采用FP8等高效格式,推理仍需约60GB高速DRAM存储中间状态。
若升级至FP16,需求将飙升至100GB以上。对比主流的8K token约1GB内存的需求,呈现60倍级跃升,成为AI规模化扩张的隐形成本瓶颈。
巨头需求测算
以Google(Gemini)、AWS(Bedrock)与OpenAI(ChatGPT)三大云平台需求测算,2026年推理端实时内存需求合计约750PB。
但实际部署需预留冗余与安全余量,硬件安装量可能翻倍,有效需求将推升至1.5EB。
叠加Meta、苹果私有云及中国市场的800PB需求,以及下一代模型训练所需的检查点与参数存储约500PB。
产能折算
行业综合预测,2026年云端GPU高速内存总需求将突破3.0EB。
需要注意的是,3.0EB需求量并不等同于直接消耗3.0EB的DRAM产能。
因高速内存非常吃晶圆产能,根据业内换算方式估计,1GB HBM约等效消耗4GB标准DRAM产能,1GB GDDR7等效消耗1.7GB。
以2026年全球DRAM产能约40EB为基准,AI消耗占比将达近20%。
而DRAM产能年增长率仅10%-15%,远低于需求增速,必然会导致PC、手机及服务器DDR5等标准DRAM供应紧张。
在此背景下,DRAM产能将加速向HBM、GDDR7等高附加值产品倾斜,传统DDR(含DDR4/DDR5)市场空间被持续挤压。
点击此处关注,获取最新资讯!






我的评论
最新评论