作者:唐僧 huangliang
来源:企业存储技术
在SC2020超级计算大会上,Intel公布过下一代Xeon Scalable处理器(代号Ice Lake-SP,对应的双插槽服务器平台代号Whitley)的一些细节。比如10nm+制程工艺,每颗CPU支持8个DDR4内存通道,以及PCIe 4.0等。
从某种意义上来说,这应该才算全新架构的第三代Xeon SP。去年4月1日我在《第3__代双路Xeon SP__服务器取消:Fackbook__何去何从?_》_中提到的Cooper Lake有点像是“半代升级”——虽然换了LGA-4189新插槽,却被收窄到仅限四路、八路市场。
根据之前看到的新闻,IceLake-SP有可能就在今年上半年正式发布。近日我看到OCP(Facebook发起的开放计算项目)公开的一份技术文档《_Junction City -Whitley ICX 2S Common Cloud Platform_ 》,就在这里带大家解读一下。
这个只是1U__服务器的结构模型图。大家数一下,是不是每个CPU__插槽对应8__个内存通道?
代号Junction City的服务器是为云优化的系统方案而设计,ICX 2S就是Ice Lake-SP的简称。资料中写的支持19英寸机架式1U或者2U机箱,不过具体介绍的只有1U部分。
注:_本文中讨论的云计算特指公有云服务,不包括与传统企业级IT__基础架构接近的私有云。_
从主板PCIe Gen4连接到前面板的设备可以有:
-2个OCP 3.0网卡;
-6个EDSFF SSD;
-4个U.2 SSD;(实际可以支持更多,详见下文)
至于它们之间具体是和还是或的关系,后面我会列出示意图来解释。
服务器供电部分我们看到2个模块(支持冗余),我理解如果机柜提供12V应该可以直供;也可以支持48V直流电源模块(Power Shelf Busbar adapter)。当然,如果想改成110/220V交流电源的设计也不难。
上面图表是详细一些的规格。首先主板PCB是12层;CPU插槽没有意外为双Socket P4,LGA-4189。
Ice Lake-SP的UPI互联速率提升到11.2GT/s,当前的Xeon Gold和Platinum x200系列CPU为10.4GT/s。
PCH芯片组小幅更新到C621A,毕竟现在内存和PCIe控制器都在CPU里面,“南桥”的功能不需要多少变化。
内存部分的BPS NVM DIMMs应该指的就是AEP(Optane PM持久化内存)的下一代,Crystal Ridge是不是再下一代呢?
风冷限制:270WTDP,1U机箱支持到205W
Ice Lake-SP系列CPU最高TDP功耗可能是270W,但在Junction City的1U机箱中只支持到205W,这应该是风冷散热的限制。我在《S9200WK__:关于56__核400W Xeon__服务器的几点疑问》中曾提到过,液冷在1U半宽服务器节点中就可以支持2个400W处理器。
上图我引用了Intel龚海峰在OCP China Day 2020会议上的演讲资料_《__Air to Liquid Cooling Transition_》。从左到右的4种系统设计分别为:
-1U CPU插槽在散热风道上前后遮挡(双节点共4颗)——35℃进风温度情况下,典型支持到170W TDP;
-1U Socket左右并排——典型230W;
-2U Socket左右并排——典型270W;
-2U带有扩展面积风冷(ExtendedVolume Air Cool)设计——典型支持350W。
具体到DIMM内存的数量和间距也不一样,比如最左边的2节点各自支持16条,但间距要求大一点达到0.37”。
存储方面,最右边的2U EVAC平台只支持8个SSD,应该是为了减少对进风气流阻碍。
风量要求,这几种设计中2U 270W TDP相对最低只要75 CFM;1U双节点则需要100 CFM,类似的2U 4节点和刀片服务器通常也会是更高的风扇转速。
具体到Extended Volume Air Cool的散热片形态,可以参考我以前在《2U 4__节点Xeon SP__服务器设计:扩展性与散热的权衡》中列出过的下图:
1U和2U机箱都可以用这种通过导热管扩展面积的风冷散热片(_在当时这款服务器上,是为了补偿那个低密度的散热鳍片_)。
FAN cage、Front drawer:模块化机箱/免工具服务
通用化前面板布局——如上图,Junction City设计上可以支持横向放4个U.2 NVMe SSD(上下还可以2排),右边一个OCP3.0网卡;也可以像左下角那样左边再加一个OCP网卡,此时受限于宽度横向只能排列3个2.5英寸驱动器(最多6个)。
这部分还涉及到不同的中板连接,下文中会继续给大家介绍。
上图左边是模块化的FanCage设计,可以免工具服务;风扇的锁紧装置是自上而下维护的。
右边为模块化的机箱前部抽屉,里面包括SSD、OCP3.0网卡、中板和前面板操作的FIO Board及部分。这个Front drawer也是免工具服务(更换),根据不同的应用可以有多种选择。
这种模块化设计能够使工厂定制更加方便,我理解对于物料库存准备也可以更灵活高效。等到IceLake-SP服务器正式上市时,大家可以留意下有哪些机型符合这一特点。
2种中板、OCP网卡/U.2/EDSSF SSD灵活设计
上面从左到右依次为主板、中板(Midplane)、PCIe Riser卡和Front Panel Board。
中板这块有2种选择——如果不需要在机箱前部放置OCP网卡,就可以容纳一横排6个热插拔U.2 NVMe SSD。具体的连接方式和路径如下。
上图可以看作前文中“通用化前面板布局”的进一步解释。位于左右2端的OCP网卡都提供了PCIe 4.0 x16连接支持,U.2 SSD只需要PCIe x4。
这里也能侧面印证Ice Lake-SP__的每颗CPU控制PCIe 4.0__信道数量为64 lane__。
在Junction City平台已经通过中板支持底部一排6个U.2 SSD的情况下,上方一排可以从主板上预留给EDSSF的6个(PCIe 4.0 x8,这里只用到x4)接口加上线缆连到驱动器热插拔背板,这样1U机箱最多支持12个U.2 NVMe。
具体到支持EDSFF(E1.S或E1.L)SSD的机箱长啥样?这份资料里却没有提。特别是E1.L,我感觉更多是针对存放温冷数据的高密度闪存系统,U.2仍然主流是因为与2.5英寸SAS/SATA驱动器可以通用槽位(机框)。
互联网/云计算“不感冒”的NVMe RAID卡
写到这里,大家可以再次看出互联网/云计算行业对定制化服务器的要求——规格基本上是够用就好,增加成本的“花哨设计”尽量少搞(或者说追求性价比吧)。具体到OCP的Junction City平台,我们没有看到RAID卡,也没有看到PCIe Switch/SAS Expander。
扩展阅读:《直联还是交换?Intel__、AMD__服务器NVMe SSD IO__拓扑速查手册》,可以对比下通用型服务器的设计。
互联网行业流行用分布式存储,即使本地磁盘保护也可能考虑mdraid、VROC这些软RAID方案,毕竟自己有专业的运维团队。而传统企业需求特点则呈现多样化,凭硬件RAID卡成熟的可维护性,以及降低存储软件管理的复杂性,对于有些用户来说TCO未必就会增加。
上图引用自_《__Dell Technologies PowerEdge RAID Controller 11 User’s Guide_》,这是PERC H755新一代支持NVMe SSD的RAID卡。
以Dell服务器为例,目前发布的PERC 11系列RAID卡,物理形态上分别有标准PCIe插卡(兼容SAS/SATA/NVMe)、前置(固定在背板上)SAS、和前置NVMe三款。它们都使用了Broadcom SAS3916 RoC主控芯片。相关性能指标可以参考:《PCIe 4.0 SAS+NVMe RAID/HBA__卡:最高读IOPS300__万、写24__万》一文。
这张照片仅供参考,不用在意它是来自哪家服务器厂商
虽然IceLake-SP还没正式发布,可能是Intel还在调整自己的节奏/工艺/产能,并不是OEM和ODM没有准备好——事实上这一代服务器的研发周期已经够长了。上图是我在去年9月的ODCC开放数据中心峰会上,看到某互联网公司展出的服务器样机。我数了一下内存通道数是不是每CPU插槽8个…
参考资料《JunctionCity - Whitley ICX 2S Common Cloud Platform _》_
files.opencompute.org/oc/public.php?service=files&t=fcb376efa953f3f797c97bf1a9ac8365&download
推荐阅读
注:本文只代表作者个人观点,与任何组织机构无关,如有错误和不足之处欢迎在留言中批评指正。 进一步交流技术可以加我的微信/QQ:490834312。
尊重知识,转载时请保留全文,并包括本行及如下二维码。感谢您的阅读和支持!《企业存储技术》微信公众号:HL_Storage,也欢迎关注企业存储技术极术专栏,定期更新。