企业存储技术 · 2020年09月07日

25GbE助力云计算、端到端32Gb FC用在哪里?

此文发布于2016年12月28日

本文内容非商业用途可无需授权转载,请务必注明作者及本微信公众号、微博ID:唐僧\_huangliang,以便更好地与读者互动。

最近过了一遍Dell EMC World 2016大会的资料,有两点想跟大家分享的,而它们恰好都属于服务器/存储网络方面。

25GbE上联对资源池故障域的影响


在一台服务器上加块25GbE__网卡并不难,而这里说的是批量采用。

上图中的DCS全称为数据中心解决方案,可以理解为Dell专门给大型互联网/云服务提供商等定制服务器的部门,相关来龙去脉我在去年的《深入DellWorld2015__:从DCS__到DSS__的服务器反击》中曾有介绍。

时间轴最右边提到Dell宣布了业内第一款带有25GbE连接性的服务器(暂时还不是PowerEdge),并且是由超大规模云服务提供商的需求所驱动。

能达到这个体量的用户,国内如互联网行业的BAT,国外最大的几家应该包括亚马逊(AWS)、Google、微软(Azure)和Facebook,小一些的还有eBay、Yahoo等。


配图仅供参考

上面这张图是以前就在手头的,因为我也不确定Dell所指的25GbE服务器到底卖给了哪家。网络方面我的研究有限,这里引用一段国内IaaS领域专家巩小东在《_从__AWS__看块存储策略_》中写的一段话:

“_AWS__通过自研交换机/ENA__网卡实现了25Gb__的fabric__。ENA__的25G__网卡中拿出5G__实现EBS__优化带宽,实现全实例覆盖…_

_AWS__实现了25Gb__进入HOST__,固定分部分带宽实现EBS__优化带宽。降低2__个网络上联的组网复杂度以及成本…_”

简单解释一下,这里面反映出两个趋势:

1、大型互联网/云服务提供商对服务器的定制,已经从系统层面进一步深入到具体配件,比如我还听说微软Azure使用FPGA来实现40GbE网卡,还有传闻中Google的SSD等。

2、大型资源池中的故障域定义变化:我们知道传统企业级IT部署都是双上联计算/存储网络(有时甚至要求2块网卡)+双TOR交换机的冗余连接;在25Gb带宽满足需求的情况下,网卡单双口的成本我觉得差别不大,主要是加上相关的交换机端口、SFP模块全局考虑。

互联网服务器已经开始转向整机柜设计和交付(Rack Scale Design)。正如我在《IDF__随笔:RSA|__天蝎存储池化的理想与现实》和《ODCC__随笔:整机柜资源池化需要高可用吗?》中所写以及朋友的评论,其大规模分布式架构也能容忍单机柜的离线,所以TOR交换机这个单点就显得相对不重要了。

让32Gb FC在存储上更容易实现

再来看下这份资料里的截图,尽管目前Dell官方资料中SC7020支持的FC接口最高速率还是16Gb/s,而这个是否意味着32Gb FC不远了呢?

上图引用自《3U__机箱中多了些啥?DellSC7020__硬件解析》一文,与SC8000、SC9000存储系统的控制器基于标准2U服务器平台不同的是,SC7020有定制的控制器硬件,但仍然支持标准尺寸PCIe扩展卡。

这个就是SC7020控制器上使用的4端口16Gb FC接口卡。不难理解,如果把它换成32Gb FC比那些需要定制I/O模块的阵列更容易一些。单纯从技术上考虑,甚至PCIex16插槽的4端口32Gb FC接口卡也有办法支持,对此有意进一步讨论的朋友可以在本文下面留言:)

早在《FMS2016__之一:别让网络拖了闪存的后腿》一文中我就提到过32GbFC,但当时还不是端到端。上面的测试环境中有Bracade G620 32G FC SAN交换机,到R930服务器HBA卡之间可以走32Gb链路,SC9000全闪存阵列到交换机之间暂时还是16Gb FC。

FC-NVMe能分NVMe oF几杯羹?回想FCoE

另一方面,我们看到有的全闪存阵列FC接口暂时还停留在8Gb,估计是因为主要侧重于IOPS类应用,Scale-out架构性能扩展也不受限于单个控制器的带宽。目前传统双控/多控存储系统(非ServerSAN)中使用基本上还都是SAS SSD,等到双端口NVMe SSD开始普及,主机接口带宽就会面临需要提高的压力。

随着NVMe的应用增多,使人们对NVMe over Fabric互连也充满期待,此外QLogic还在推动FC-NVMe。如果说10Gb iSCSI已经不算慢,那底层基于RDMA网络的NVMe oF我还是更看好25GbE和40GbE,这时16Gb FC就会面临提升到32Gb的压力了。

扩展阅读:《单芯片方案能否加速NVMeover Fabric__普及?

FC-NVMe技术,是在当前FC网络硬件基础上传输原生NVMe协议,同时还能与传统的SCSI over FC一起跑是它的优势。QLogic计划推出一款新的适配卡,据我理解Firmware和驱动部分应该会有一些变化。

在上面的FC-NVMe拓扑图中,我们再来理解一下端到端32Gb FC的价值——除了每条链路带宽翻倍之外,还能提前把交换机上的端口数节省出来,如果未来FC-NVMe存储设备出现的话就更容易融入了吧?

我们首先肯定32Gb FC的带宽价值,而FC-NVMe恐怕没有这么乐观了。回想当年的FCoE,在以太网上同时跑FC协议,存储和网卡厂商并没有足够的动力来推。拿这个来直接对比可能不太合适,因为FC和FC-NVMe都是存储协议。

FC-NVMe的好处是只需要现有的光纤交换机,而在主机和目标端一旦运行NVMe Initiator和Target,是否还能保持良好的兼容性?还有个问题是HBA卡会不会单一供应商?要知道被Broadcom收购的Emulex可是QLogic的死对头。

推荐阅读

本文转载自企业存储技术微信公众号原文链接点这里

注:本文只代表作者个人观点,与任何组织机构无关,如有错误和不足之处欢迎在留言中批评指正。 进一步交流技术可以加我的微信/QQ:490834312。
尊重知识,转载时请保留全文,并包括本行及如下二维码。感谢您的阅读和支持!《企业存储技术》微信公众号:HL_Storage,也欢迎关注企业存储技术极术专栏,定期更新。
42.jpg

推荐阅读
关注数
5551
内容数
232
关注存储、服务器、图形工作站、AI硬件等方面技术。WeChat:490834312
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息