日本AI芯片独角兽企业Preferred Networks宣布新一代AI推理处理器MN-Core L1000已启动开发,目标2026年交付。
针对大语言模型等生成式AI推理场景进行了优化,有望实现10倍GPU等传统处理器的计算速度。
MN-Core L1000采用了独特的思路来解决目前AI加速器领域普遍面临的逻辑计算单元与数据存储单元间的带宽瓶颈问题,直接在处理器上方堆叠DRAM内存。
相比2.5D封装DRAM内存的现有HBM方案,3D堆叠DRAM内存可实现更短的逻辑-存储物理间距,同时信号走线也更为直接,拥有更高带宽上限。
与Cerebras、Groq采用的SRAM缓存方案相比,3D堆叠DRAM内存则可实现更大的存储密度,能更好满足大型模型的推理需求,同时减少对昂贵的先进制程逻辑芯片的面积占用。
3D堆叠DRAM内存技术具备了HBM方案的高容量和SRAM方案的高带宽两大优势,此外计算单元的高能效也化解了3D堆叠DRAM带来的热管理问题。
点击此处关注,获取最新资讯!
我的评论
最新评论