本文参考自 SNIA Webcast《Unlocking CXL's Potential: Revolutionizing Server Memory and Performance》。
CXL 令人振奋,但它的发展方向何在?——Jim Handy
CXL 能实现诸多功能,但其核心价值究竟为何?
- 保持一致性?
- 消除闲置内存?
- 扩展内存容量?
- 提升内存带宽?
- 支持持久性内存?
- 屏蔽 DDR4/DDR5/DDR6 差异?
- 实现 xPU 间通信?
潜在用户如何看待 CXL?
Google(谷歌):闲置内存问题并不重要
IBM/佐治亚理工学院:DDR 并非理想的解决方案
AI 供应商:我们需要超大容量内存
同时要求快速加载 GPU HBM(高带宽内存)
超大规模云厂商:“任意互连”xPU(CPU/GPU/FPGA 等异构计算单元)
PC OEM 厂商:CXL 目前实用性有限
长期影响
重新思考系统架构
内存解耦
(Disaggregated memory)
基于网状网络的处理器阵列
(Processor arrays with mesh networks)
内存无关设计
(Memory agnostic)
更高带宽与容量 vs 更高延迟(Better memory bandwidth & size vs. worse latency)
针对性优化方案
(Design-arounds will optimize for this)
CXL 热区监测单元
(CXL Hot-Range Monitoring Unit, CHMU)
CXL 技术当前处于什么阶段?
现已实现
• CXL 内存扩展技术已商用落地
• 即用型系统(Off-the-shelf)现成可用且运行稳定
• CXL 的实际效益已得到验证
即将到来
• CXL 机架级内存池化设备即将面世
• 跨机架内存共享技术已初见曙光
DDR5 服务器内存的单位容量密度参考价格,以单条 64GB 为 1x Price/Gb。96GB 的 1.1x 应该已经达到“甜点”;而 128GB 的 1.4x 和 256GB 的 2.0x 当前性价比还不好。
这时用户倾向于用更多条内存来填满通道提高带宽,也有助于高核数 CPU 出货(以维持计算/RAM 的比例);而进一步就是 CXL 扩展,也能提高整体带宽。
传统 DIMM 内存的总延时是 100ns;
PCIe/CXL Root Port(CPU)直连 CXL 内存模组总延时为 170-210ns(实测 Round Trip Latency 205ns),其中包括 CXL 内存控制器的 40-80ns;
如果中间加上 CXL Switch 连接,总延时达到 270-510ns。
推荐扩展阅读:《CXL 分层内存测试:数据库、HPC 和 Spark 机器学习》
注:以上服务器平台发布时间仅代表之前的计划,实际正式发布可能延后。
参考资料:https://www.snia.org/sites/de...
扩展阅读:《企业存储技术》文章分类索引更新(微信公众号合集标签)
END
作者:唐僧整理
原文:企业存储技术
推荐阅读
欢迎关注企业存储技术极术专栏,欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。