三大原厂之一的美光突然宣布,开始大规模生产Nvidia最新AI芯片使用的HBM产品HBM3E,主要用于H200 GPU,用于人工智能AI和高性能计算HPC,第二季度发货。
目前美光在HBM市场占据10%左右的份额。
与HBM3相比,HBM3E数据传输效率和峰值内存带宽提高44%,对H200处理器非常重要。
H200产品依赖于Hopper架构,提供与H100相同的计算性能。同时配备了141GB HBM3E内存,带宽高达4.8TB/S,较H100的80GB HBM3明显升级,带宽高达3.35TB/S。
下个月的NVIDIA GTC 开发者大会将变成大型人工智能展会,美光将会透露更多有关24GB 8H HBM3E的信息。
最新功能如下:
卓越性能:美光HBM3E的引脚速度超过9.2 Gb/S,可提供超过1.2 TB/S的内存带宽,为AI加速器、超级计算机和数据提供闪电般的数据访问中心。
卓越的效率:美光的HBM3E领先业界,与竞争产品相比,功耗降低约30% 。
为了支持不断增长的人工智能需求和使用,HBM3E以最低的功耗提供最大的吞吐量,以改善重要的数据中心运营支出指标。
无缝可扩展性:美光HBM3E目前拥有24 GB容量,允许数据中心无缝扩展其人工智能应用程序。
无论是训练大规模神经网络还是加速推理任务,美光的解决方案都提供了必要的内存带宽。
美光表示,美光已经取得三项领先,第一发布时间领先,第二产品性能领先,第三,能效实现差异化。
人工智能严重依赖内存带宽和容量,美光处在领先位置,通过业界领先的HBM3E和HBM4路线图和完整DRAM和NAND解决方案支持未来人工智能的强势需求。
这款产品的功耗比竞争产品低30%,有助于解决生成式AI应用不断增长的芯片市场需求,降低数据中心运营成本。
该产品采取10nm (1-beta ) 制造,使用先进的硅通孔 (TSV) 技术以及其他可实现差异化封装解决方案的创新技术。
美光是2.5D/3D堆叠内存和先进封装技术领域久经考验的领导者,是台积电 3DFabric 联盟的合作伙伴,并帮助塑造半导体和系统创新的未来。
美光还通过36GB 12H HBM3E样品扩大了其领先地位,与竞争解决方案相比,该产品预计将提供超过 1.2 TB/S的性能和卓越的能效。
英伟达将在下一代H200 GPU使用该芯片,预计第二季度发货,这将为美光带来巨额收入,周一美光股价大涨4%左右。
过去12个月,美光股价涨了近60%。美光预计到2025年,存储产品市场的收入将创下历史新高。
此前,SK海力士一直在HBM市场占据领先地位,虽然宣布将在下个月量产,没想到被美光突袭。目前SK海力士和三星电子的产品正在等待客户的性能认证。
由于SK海力士已经将2024年的产品全部卖光,因此新产品也只能等待2025年了。
点击此处关注,获取最新资讯!
我的评论
最新评论