英特尔放弃Optane业务,转而拥抱的CXL是什么?

2022-08-16
阅读量 13745

最近,英特尔对外表示,将不再开发Optane(傲腾)新产品,并逐步停止Optane业务。作为英特尔于2015年推出并寄予厚望的Optane业务,此举让不少人唏嘘。但让人关注的是,英特尔同时表态在放弃Optane业务后,将未来的重点转向基于CXL规范的产品上。而对于很多人来说,可能会好奇什么是CXL,英特尔又为什么看重它。今天,我们便来说道说道。

图片

CXL简介:什么是Compute Express Link?

Compute Express Link(CXL)是高速中央处理器(CPU)到设备和CPU到内存连接的开放标准,适用于处理器、内存扩展和加速器。从本质上讲,CXL技术保持了CPU内存空间和附加设备上内存之间的一致性,这可以实现资源共享以获得更高的性能,降低软件堆栈的复杂性,并降低整体系统成本。CXL联盟已经确定了受益于新互联的三类主要设备:

  • 类型1设备:智能NIC等加速器通常缺乏本地内存,但是,它们可以利用CXL.io协议和CXL.cache与主机处理器的DDR内存进行通信。
  • 类型2设备:GPU、ASIC和FPGA都配备了DDR或HBM内存,并且可以使用CXL.memory协议以及CXL.io和CXL.cache,使主机处理器的内存在本地可供加速器使用。它们还位于相同的缓存连贯域中,有助于提升异构工作负载。
  • 类型3设备:CXL.io和CXL.memory协议可用于内存扩展。例如,连接到CXL总线的缓冲区可用于实现DRAM容量扩展、增加内存带宽或添加持久内存,而不会损失DRAM插槽。实际上,这意味着以前取代DRAM的高速、低延迟存储设备可以用支持CXL的设备来补充它,包括各种形式的非易失性技术,如附加卡、U.2和EDSFF。

CXL协议和标准

CXL标准包括三种协议,即上面提到的CXL.io、CXL.cache和CXL.memory,以支持各种用例。

  • CXL.io:该协议在功能上等同于PCIe 5.0协议,作为基础通信协议,CXL.io用途广泛。
  • CXL.cache:该协议专为更具体的应用程序而设计,使加速器能够有效地访问缓存主机内存以优化性能。
  • CXL.memory:此协议使主机(如处理器)能够使用加载/存储命令访问设备连接的内存

这三个协议共同促进了计算设备(例如CPU主机和AI加速器)之间内存资源的一致共享,从本质上讲,这通过启用共享内存进行通信来简化编程。

CXL与PCIe 5.0:二者有何关联?

CXL 2.0建立在PCIe 5.0的物理和电气接口之上,协议建立了一致性、简化了软件堆栈并保持与现有标准的兼容性。具体来说,CXL利用允许替代协议使用物理PCIe层的PCIe 5.0功能。当启用CXL的加速器插入x16插槽时,设备会以默认的PCI Express 1.0传输速率(2.5GT/s)与主机处理器的端口进行协商。仅当双方都支持CXL时,才会激活Compute Express Link协议。否则,它将作为PCIe设备运行。

CXL特点和优势

CXL通过精简和改进低延迟连接以及内存一致性可显著提高计算性能和效率,同时降低TCO。此外,CXL内存扩展功能可在当今服务器中的DIMM插槽之外提供额外的容量和带宽。CXL可以通过连接CXL的设备向CPU主机处理器添加更多内存,当与持久内存配对时,低延迟CXL链路允许CPU主机将此额外内存DRAM内存结合使用。考虑到这些是大多数企业和数据中心运营商正在投资的工作负载类型,CXL的优势显而易见。

CXL 2.0规范:有什么新功能?

图片

内存池

CXL 2.0支持切换以启用内存池。使用CXL 2.0交换机,主机可以访问内存池中的一个或多个设备。尽管主机必须启用CXL 2.0才能利用此功能,但内存设备可以是启用CXL 1.0、1.1和2.0的硬件混合。在1.0/1.1中,设备被限制为一次只能由一个主机访问的单个逻辑设备。但是,一个2.0级别的设备可以划分为多个逻辑设备,允许多达16台主机同时访问内存的不同部分。
例如,主机1(H1)可以使用设备1(D1)中一半的内存和设备2(D2)中四分之一的内存,以使其工作负载的内存需求与内存池中的可用容量完美匹配。设备D1和D2中的剩余容量可供一台或堕胎其他主机使用。

交换

通过迁移到CXL 2.0直连架构,数据中心可以获得主内存扩展的性能优势以及内存池的效率和总拥有成本(TCO)优势。假设所有主机和设备都启用了CXL 2.0,通过也「切换」CXL内存池芯片中的交叉开关合并到内存设备中。这可以保持低延迟,但需要更强大的芯片,因为它现在负责由交换机执行的控制平面功能。通过低延迟直接连接,附加的内存设备可以使用DDR DRAM来提供主机内存的扩展。这可以在非常灵活的基础上完成,因为主机能够根据需要访问所有或部分设备的容量来处理特定的工作负载。

「按需」内存范式

CXL 2.0根据「需要」为主机分配内存,从而提高内存利用率和效率。这种架构提供了为名义工作负载配置服务器内存的选项,能够在需要高容量工作负载时访问内存池,并为TCO提供进一步好处。最终,CXL内存池模型可以支持向服务器分解和可组合性的根本转变。在这个范例中,计算、内存和存储的离散单元可以按需组合,以有效地满足任何工作负载的需求。

完整性和数据加密

分解或分离服务器架构的组件增加了供给面,这正是CXL包含安全设计方法的原因。具体来说,所有三个CXL协议都通过提供机密性、完整性和重放保护的完整性(IDE)和数据加密来保护。IDE在CXL主机和设备芯片中实例化的硬件级安全协议引擎中实现,以满足CXL的高速数据速率要求,而不会引入额外的延迟。应该注意的是,CXL芯片和系统本身需要防止篡改和网络攻击的保护措施。在CXL芯片中实现的硬件新人根可以为安全启动和安全固件下载的安全性和技术要求提供此基础。

总结

服务器架构从几十年来基本保持不变正向前迈出革命性的一步,以解决AI/ML应用程序生成的海量数据。具体来说,数据中心正在从每台服务器都有专用处理和内存以及网络设备和加速器的模型转变为智能匹配资源和工作负载的分解池模式。这种方法为数据中心提供了广发的好处,包括更高的性能、更高的效率和更低的总拥有成本(TCO)
尽管分解和通用接口的概念已经流传了一段时间,但业界正在果断地将Compute Express Link(CXL)作为处理器、内存和加速器的缓存一致互连。CXL建立在PCIe 5.0的物理和电气接口的基础上,其协议可建立一致性、简化软件堆栈并保持与现有标准的兼容性。除了资源共享和交换之外,CXL还可以通过连接CXL的设备向CPU主机处理器添加更多内存。当与持久内存配对时,低延迟CXL链路允许CPU主机将此额外内存DRAM内存结合使用。

点击此处关注获取最新资讯!

f328f6db93164f84bb23c090c28e7db.png88c1a0acd98aa6023fcbfa1f2ebf421.png

1.本文整理自网络,如有侵权,请联系删除。

2.所刊内容仅代表作者观点,非闪德资讯立场。

我的评论

登录后评论

最新评论

渠道报价
查看更多

DDR3

  • 一年
  • 半年
  • 三个月
  • 一个月

微信订阅

APP下载

存储未来,赢得先机

18126200184

Copyright©2008-2024 闪德资讯 版权所有 粤ICP备18080549号-1

粤公网安备 44030402002744号