AI芯片新竞争,存储成焦点

2024-09-03
阅读量 943

AI芯片历经了一年多的热潮,现在市场对于AI模型和芯片算力之间的关联有更多的理解,有两个新市场被视为是云端生成式AI的关键瓶颈,近期正吸引更多厂商加速开发新产品并推进到市场,其一是HBM,其二则是高速传输技术。

这两项技术被视为是让AI芯片及云端运算系统达到更高运作效率的关键,值得注意的是即将开展的2024年国际半导体展(SEMICON 2024)各类论坛的讲者当中,不像往年都是NVIDIA、AMD等运算芯片大厂挂帅,2024年探讨的话题更多围绕在存储器和高速传输技术上,可以看出业界关注的焦点愈来愈多元化。

图片

HBM的重要性对于云端AI的讨论来说不算陌生,多数人都知道大型语言模型的AI运算,最缺的其实不是算力,而是存储器的容量。

存储器不足,GPU或AI加速芯片的算力再强,也没办法在模型训练的过程中发挥出最强效能。

三星电子、SK海力士和美光都急忙调配产能,加速量产HBM来满足市场需求,可是存储器并不是唯一提升算力效率的关键技术,各种高速传输介面的升级,最近也掀起讨论与重视。

云端AI的高速传输技术有非常多不同层次,小芯片(chiplet)之间的连接、GPU之间的连接或者是机柜之间的连接,如果传输速度不够快,就无法让众多算力单位有效地集结在一起,达到规模效应和更高的运算效率。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png

1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

DDR3

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2024 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号