为抢攻这波AI浪潮带来的商机,存储大厂美光正全力布局高频宽存储(HBM)市场。
美光副总裁暨先进封装主管 Akshay Singh 表示,预估2022~2025年的整体HBM市场年复合成长率将可望超过五成,美光未来在整体位元出货比重将可望有一成是HBM,且明年1 beta制程的 HBM3 Gen2 将开始量产出货,全力争夺订单。
Akshay Singh 指出,在 ChatGPT 出现之后,AI正渗透到所有使用者周边,也变得相当广为人知,且未来AI除了现在的主要以文字为主的大型语言模型(LLM)之外,未来还会把语音、参数等数据导入到 LLM 当中,由于AI训练需要的存储大容量及高传输量都同步看增,使 HBM 需求开始大幅增加。
机构指出,从2022~2025年的 HBM 整体市场年复合成长率将达50%以上。AI需求当中的 HBM 容量将会是一般市场需求的五倍以上,预期未来几年美光在 HBM 位元出货量将可望占整体出货比重的一成水准。
美光推出的 HBM3 Gen 2 将会采用1 beta制程,当前已经在送样阶段,预计将在明年第1季开始放量出货,并将采用先进封装制程,让8层芯粒堆叠让一颗存储芯片就能有24Gb的容量,使其与一般存储面积尺寸几乎相同。
据了解,目前美光采用的8层堆叠模式是全球首创,优势在于堆叠层数越少,散热效率就可望越高,让芯片效能能够稳定发挥,且现在美光已经规划推出12层堆叠的36Gb DRAM 芯片,容量较先前8层堆叠可望提升50%,预期明年将可望对外亮相。
点击此处关注,获取最新资讯!
我的评论
最新评论