企业存储技术 · 2021年05月08日

数据中心NVMe SSD和EDSFF前瞻:来自Intel、HPE、Dell & SNIA等

作者:唐僧 huangliang
来源:企业存储技术

Q:EDSFF中E1.S、E1.L、E3都是怎么划分定位的?

Q:EDSFF的发展与PCIe规范演进之间的关系是?

Q:为什么服务器厂商还在用U.2SSD,这背后的始作俑者是?

Q:如果EDSFF设备不只有SSD,还能支持啥?

这两天看到一份很不错的技术资料,上面那几条都有答案,赶紧写点东西分享给大家。

关于下一代数据中心SSD规格形态,无论E1.S、E1.L还是E3(EDSFF 3英寸),我以前都曾讨论过:

《_EDSFF 3英寸企业级SSD会成为下一代标准吗?_》

《_下一代数据中心SSD形态之争:调查报告篇_》

《_下一代数据中心SSD形态之争:来自Azure架构师的观点_》

今天要给大家分享的内容,基本上可以把EDSFF比较全面、系统地呈现了。我的参考资料来自OCP(Open Compute Project)的一场Webinar,下面可以看到其演讲阵容的强大:

image.png

其中Hyperscale超大规模数据中心用户和(服务器)OEM厂商,包括:微软、Facebook、HPE、Dell和联想;SSD存储厂商包括:Intel、Kioxia(前东芝)、WD、三星、Micron、SK hynix等。

与其说SNIA(存储网络工业协会)是EDSFF的规范制定者,不如说是Intel一直在背后推动。看看下图的配色风格吧:)

Intel**分享:EDSFF Overview
**

image.png

根据这个时间轴,E1.S(SFF-TA-1006)、E1.L(SFF-TA-1007)和E3(SFF-TA-1008)早在2018年Q1就发布了1.0规范,3年后的今天,也到了该成熟和大规模应用的时候了。

image.png
对于上述3类新的数据中心NVMe SSD尺寸和标准,E1.S定位是可扩展和灵活的性能型存储,E1.L针对高容量存储(如:QLC),E3则是用于2U服务器/存储中的高性能SSD。

image.png

可能有的朋友会问,OEM大厂的服务器新品中有些还清一色沿用U.2,比如Dell PowerEdge 15G。从上面这个“Intel推荐平台设计指导”不难找到答案。

在PCIe 4.0阶段之所以OEM仍青睐U.2,主要就是机箱的驱动器槽位、连接器部分能够与2.5英寸SATA、SAS乃至HDD机械盘通用。Hyperscale大型互联网和云服务提供商相对没有这个包袱,针对应用划分出的全闪存服务器机型可以更早试水E1.S。

而最终过渡到PCIe5.0的时候,U.2和M.2应该是电气上达不到要求了。到时2U服务器可能会普遍采用E3.S;用于服务器扩展的存储/JBOF使用E1.L;企业级存储阵列用E3.S和E3.L都能实现双端口。

image.png

PCIe Gen4和Gen5作为SSD接口的普及速度可能不算快,毕竟Gen3 x4对于许多应用来说也不慢了。上图右侧应该是数据中心SSD的出货Unit数量,M.2的占比似乎偏大?不过可以看出从2022年往后U.2/U.3的占比开始下降,E1.S和E1.L逐渐成为主流,而E.3还会晚一些。

image.png

上图是E1.L的应用场景,这个我想已经不用太多介绍,9.5mm厚度的E1.L SSD在1U标准机箱中可以放32个。
image.png

E1.S SSD的功耗和散热选项。上面这个图表,其实去掉那几张SSD图片我在去年就给大家列出过,这里也不想再细讲了。

image.png

E1.S针对1U(存储)性能扩展型服务器优化。对比当前机箱前部10个U.2热插拔NVMe SSD的Baseline设计,32个E1.S 9.5mm或者24个E1.S 15mm的密度提升显而易见。

image.png

如上图右侧红圈:EDSFF E3__的连接器具备从PCIex4__扩展到x8__或者x16__的空间

EDSFF E3 SSD如果按照上图中的放置方向,其高度都是76mm,E3.S和E3.L的深度分别为112.75mm、142.2mm,而宽度(厚度)都有标准(7.5mm)和2x(16.8mm)两种。4款规格的功耗覆盖了20-25W到70W的范围。目标用途如下:

-E3.S__:为NANDSSD__主存储服务器优化;

-E3.S, 2x__:支持高功耗设备,如基于SCM__的CXL__(未来的Optane SSD__,其实叫持久化内存盘更合适);

-E3.L__:支持高容量NAND__存储;

-E3.L, 2x__:支持像FPGA__和加速器那样的高功耗设备(PCIe__卡前置)。

注:关于在PCIe底层上面跑CXL等不同协议,我打算在下一篇中再跟大家讨论。

image.png

传统2U服务器,前置U.2 SSD数量最多24个,换成E3.S, 2x/Thick(厚盘)之后可以放23个;而E3.S/Thin(薄盘)则最多可以做到46个热插拔位。

image.png

E3 SSD在1U机箱中需要横过来放,16.8mm的厚盘可以放10个(与U.2数量相同),7.5mm薄盘则可以放20个。

注:Intel__分享的内容就先讲这么多,下面将按照厂商在Webinar__资料中的出现顺序来写,当然我会挑重点的东西。

HPE分享:E3.S ENABLES NEXT-GEN DEVICES AND OPEN NVME SSD SPECS

image.png

根据HP在这里的原型机和介绍,E3.S 2U设计可以和已有的2.5英寸驱动器共享机箱——即混用SAS/SATA/NVMe(注意背板的连接器不通用),同时还能够:

-切换2__个E3 thins__薄盘为1__个E3.S 2T__(thick__)厚盘;

-混用NVMe__和CXL__设备;

-共享仓位提升灵活性和降低成本。

E3.S可以支持较大的FPGA和SoC(不过前文中只有E3.LThick才有70W功耗),未来的设备类型如:NIC网卡、TPU/GPU、ComputerStorage计算型存储设备。

还有一点,就是E3.S的空气流动和散热比2.5寸驱动器更好,这样可以支持较高性能/TDP的设备。

image.png

同样是PCIe x4,E3设备的连接器尺寸比SFF-8639(同时还要提供向下兼容的2个SAS/SATA端口)明显小了许多,这样可以把背板做的更小——降低散热的流阻。

更好的散热,使E3.S双倍厚度支持到40W,从而适配PCIe Gen5和未来的Gen6性能。

Dell EMC分享:EDSFF E3 Form Facror,不只是SSD

image.png

          

记得我在《1U__双路风冷350W__?点评方升服务器散热设计》中讨论过流阻对服务器中后部CPU等组件的影响。上图就是一种设计参考,比如在1U机箱配置E3.S/E3.L SSD时空出中间一列用于空气流动,还能保持16个SSD的密度。

在SCM(存储级内存)配置中,2个E3薄盘位置可以替换成1个E3 FH 2x厚盘,除了支持SCM之外还可以是I/O设备(我看了第一反应就是OCP网卡,稍后会讲到)。

image.png
2U E3机箱的情况类似,如果觉得放40个E3.S或者E3.L SSD对服务器进风流阻影响大,可以考虑空出中间,两边各保留16个仍有32盘的密度。SCM配置与前面的1U机箱同理。

image.png

如上图,我理解这里应该是把E3(2T厚度)的连接器部分增加19.54mm(4C+),就能允许使用OCP3网卡了,也可以支持未来的高功耗设备。

我在《_下一代Xeon服务器:Ice Lake-SP通用云平台设计预览_》介绍过“2种中板、(前置)OCP网卡/U.2/EDSSF SSD灵活设计”。期待未来将网卡等统一到EDSFF E3,那时服务器设计将更通用模块化。

*Samsung、Micron、SK hynix和FADU*的PCIe Gen5 SSD
**

image.png

根据三星的介绍,其PM1743 PCIe Gen5 SSD将采用E3.S 1T尺寸,预计2022年Q2上市。

image.png

在美光的介绍中,M.2在数据中心的占比没有前文里那么高(这个统计应该是PB容量)。正如E1/E3在2022年之后逐渐替代U.2/U.3/2.5的趋势那样,“行业不能维持11种Form Factor,近期的焦点在E1.S,而长期还会有E1.L支持大容量、E3伴随PCIe Gen5增长。”

扩展阅读:《OCP__曝光NVMe/SAS RAID__卡、U.3__混合背板
image.png

SK hynix也提到了下一代E3.xPCIe Gen5 SSD,不过我觉得随着对IntelSSD的收购,海力士自己原有的数据中心产品线存在不确定性。

image.png

FADU这个品牌我还不太熟,这里他们给出了Gen5 x4 NVMe数据中心SSD(7% OP)的性能指标:顺序读14,x00MB/s、顺序写12,000 MB/s、随机读3,500 KIOPS(350万)、随机写410 KIOPS(41万)。

更多资料

image.png

未来EDSFF__规格的设备将不只是SSD

EDSFF规范的文档大家可以从SNIA网站下载。最后还是老规矩,我把这份OCP的参考资料也共享出来:

链接:https://pan.baidu.com/s/1LLbu...

提取码:k2x4



推荐阅读

注:本文只代表作者个人观点,与任何组织机构无关,如有错误和不足之处欢迎在留言中批评指正。 进一步交流技术可以加我的微信/QQ:490834312。
尊重知识,转载时请保留全文,并包括本行及如下二维码。感谢您的阅读和支持!《企业存储技术》微信公众号:HL_Storage,也欢迎关注企业存储技术极术专栏,定期更新。
42.jpg
推荐阅读
关注数
5613
内容数
260
关注存储、服务器、图形工作站、AI硬件等方面技术。WeChat:490834312
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息