感谢Nvidia,美光抢先量产10nm HBM3E

2024-02-27
阅读量 1456

三大原厂之一的美光突然宣布,开始大规模生产Nvidia最新AI芯片使用的HBM产品HBM3E,主要用于H200 GPU,用于人工智能AI和高性能计算HPC,第二季度发货。

目前美光在HBM市场占据10%左右的份额。

图片

与HBM3相比,HBM3E数据传输效率和峰值内存带宽提高44%,对H200处理器非常重要。

H200产品依赖于Hopper架构,提供与H100相同的计算性能。同时配备了141GB HBM3E内存,带宽高达4.8TB/S,较H100的80GB HBM3明显升级,带宽高达3.35TB/S。

下个月的NVIDIA GTC 开发者大会将变成大型人工智能展会,美光将会透露更多有关24GB 8H HBM3E的信息。

最新功能如下:

卓越性能:美光HBM3E的引脚速度超过9.2 Gb/S,可提供超过1.2 TB/S的内存带宽,为AI加速器、超级计算机和数据提供闪电般的数据访问中心。

卓越的效率:美光的HBM3E领先业界,与竞争产品相比,功耗降低约30% 。

为了支持不断增长的人工智能需求和使用,HBM3E以最低的功耗提供最大的吞吐量,以改善重要的数据中心运营支出指标。

无缝可扩展性:美光HBM3E目前拥有24 GB容量,允许数据中心无缝扩展其人工智能应用程序。

无论是训练大规模神经网络还是加速推理任务,美光的解决方案都提供了必要的内存带宽。

美光表示,美光已经取得三项领先,第一发布时间领先,第二产品性能领先,第三,能效实现差异化。

人工智能严重依赖内存带宽和容量,美光处在领先位置,通过业界领先的HBM3E和HBM4路线图和完整DRAM和NAND解决方案支持未来人工智能的强势需求。

这款产品的功耗比竞争产品低30%,有助于解决生成式AI应用不断增长的芯片市场需求,降低数据中心运营成本。

该产品采取10nm (1-beta ) 制造,使用先进的硅通孔 (TSV) 技术以及其他可实现差异化封装解决方案的创新技术。

美光是2.5D/3D堆叠内存和先进封装技术领域久经考验的领导者,是台积电 3DFabric 联盟的合作伙伴,并帮助塑造半导体和系统创新的未来。

美光还通过36GB 12H HBM3E样品扩大了其领先地位,与竞争解决方案相比,该产品预计将提供超过 1.2 TB/S的性能和卓越的能效。

英伟达将在下一代H200 GPU使用该芯片,预计第二季度发货,这将为美光带来巨额收入,周一美光股价大涨4%左右。

过去12个月,美光股价涨了近60%。美光预计到2025年,存储产品市场的收入将创下历史新高。

此前,SK海力士一直在HBM市场占据领先地位,虽然宣布将在下个月量产,没想到被美光突袭。目前SK海力士和三星电子的产品正在等待客户的性能认证。

由于SK海力士已经将2024年的产品全部卖光,因此新产品也只能等待2025年了。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

PC 2666

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2024 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号