NVIDIA H100为何拥有近10倍的利润

2023-08-28
阅读量 1318

NVIDIA公布的第2季财报数据,揭示营收年增101%、净利年增422%、毛利率高达71.2%的炸裂式业绩,各项指标均远超预期,而H100系列芯片在AI热潮推动的大型语言模型训练(LLM)市场中一卡难求。

AI算力需求呈现爆炸式成长,对云端业者而言,只能不断采购AI服务器;然对于LLM开发厂商来说,NVIDIA的资料中心业务疯狂吸金,而客户却还未实现获利。眼前LLM大浪未至,钱却都被NVIDIA赚走了。

图片

财报公布前,NVIDIA高阶AI GPU不断传出涨价声,Barrron's引述分析师报告,H100制造成本为3,320美元,而售价则高达2.5万~3万美元,利润接近成本的10倍;毛利率超过70%,对芯片产品而言,有些不可思议。

对此黄仁勋强调,NVIDIA提供的是软件生态系统和硬件平台,具备软件生态架构的灵活性、多功能性,再加上广大的安装基础及涵盖范围,程式码数量和应用程式组合的类型相当疯狂,简单说,卖的是“准系统”而非“单一芯片”,但NVIDIA花了20年才走到这一步

外界分析,NVIDIA构建的CUDA软件生态,不仅让旗下GPU受青睐,也是客户无法轻易转向AMD等竞争对手的主因。原因在于,AI算力的配置绝非简单的硬件堆叠,即便把重达30多公斤、多达3.5万个零件组成的NVIDIA HGX平台层层堆起来,也堆不出LLM必须的AI算力。

要把1,000张加速卡、100台AI服务器放在一起,跑同一个LM训练或推论任务,还需要大量的配套软件、通讯网络,还不包括客户的大量数据。这是一系列软硬件联合调用的复杂过程,黄仁勋把H100这类AI GPU称为“技术奇迹”,并非没有原因。

H100从2022年9月量产投入市场,至今供不应求,甚至上一代的A100至今仍是抢手货。NVIDIA聚焦于系统级服务器产品,最新款DGX产品GH200集结256块H100和Grace CPU,预料会在2023年下半量产后将跃居业绩新推手。 

至于H100为何价格高昂?在硬件层面上,H100采用了四大先进技术。第一是台积电4纳米制程(N4),要让这一颗长26.8公分、宽11.1公分、含有800亿个电晶体的H100发挥前所未有的效能,举世当今非台积电代工莫属。

第二是连接技术,每张H100包含3个NVLink连接,这是NVIDIA独家的资料传输技术,第四代NVlink可提供每秒900GB的GPU对GPU互连频宽,以便将更多H100互连使用,获得倍增的效能。

第三是80GB的HBM2e高频宽存储,目前仅SK海力士、三星电子可供应,值得注意的是,NVIDIA刚刚宣布将最新的HBM3e植入最新GH200,是全球第一个支援HBM3e的GPU产品。

第四是台积电的CoWoS封装技术,台积电正积极扩建CoWoS产能,但供不应求情况恐将持续到2024年。

这四大技术每一项均属尖端领域,付出代价所费不菲,如果说LLM推动AI GPU加速运算时代来临,但让NVIDIA站在当前科技舞台上独舞的关键,却是黄仁勋领导团队的长期押注与心血累积。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png


1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

PC 2666

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2024 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号