英伟达宣布推出 NVIDIA HGX™ H200,为全球领先的 AI 计算平台带来强大动力。
该平台基于 NVIDIA Hopper™ 架构,配备 NVIDIA H200 Tensor Core GPU 和高级内存,可处理生成 AI 和高性能计算工作负载的海量数据。
H200 将于 2024 年第二季度开始向全球系统制造商和云服务提供商供货。
NVIDIA H200 是首款提供 HBM3e 的 GPU,HBM3e 是更快、更大的内存,可加速生成式 AI 和大型语言模型,同时推进 HPC 工作负载的科学计算。
借助 HBM3e,NVIDIA H200 以每秒 4.8 TB 的速度提供 141GB 内存,与前身 NVIDIA A100 相比,容量几乎翻倍,带宽增加 2.4 倍。
NVIDIA H200 将应用于具有四路和八路配置的 NVIDIA HGX H200 服务器主板,这些主板与 HGX H100 系统的硬件和软件兼容。
它还可用于8 月份发布的采用 HBM3e 的 NVIDIA GH200 Grace Hopper™ 芯片。
英伟达表示,H200 可以部署在各种类型的数据中心中,包括本地、云、混合云和边缘。
NVIDIA 的全球合作伙伴服务器制造商生态系统(包括华擎 Rack、华硕、戴尔科技、Eviden、技嘉、慧与、英格拉科技、联想、QCT、Supermicro、纬创资通和纬颖科技)可以使用 H200 更新其现有系统。
点击此处关注,获取最新资讯!
我的评论
最新评论