近日,第五届中国智算中心全栈技术大会暨中国数据中心绿色能源大会上,宁畅携新品自驱式相变液冷AI工作站参会,创新性将服务器散热技术下放到工作站产品,带来了全新的技术突破。据宁畅介绍,相较于传统风冷工作站,该工作站的CPU和GPU在满载运行时的温度分别降低了约21%和26%,同时,运行噪音控制在36dB(A),减少了约36.5%。
“这款创新的终端产品,填补了宁畅液冷产品线的最后一环,也标志着全栈全液方案在桌面端的完美落地。”宁畅资深液冷专家任达表示。
如今,数据中心建设正迈向新的发展阶段,宁畅近日提出的“全栈全液”AI基础设施方案,将为企业/行业级智算中心打造提供新的参照坐标。
数据中心向智算中心加速演化
随着数字化转型的深入与人工智能等新技术发展,数据中心行业正经历一场从传统数据中心向智算中心的深刻转变。根据工业和信息化部的数据,近五年来,数据中心规模年均增速达到近30%。数据中心快速扩张的同时,伴随人工智能技术的广泛应用,对高算力和低延迟的需求日益增长,传统的数据中心技术架构面临着挑战。算力的异构化趋势,尤其是GPU、FPGA等加速器的广泛应用,推动数据中心架构向更加灵活、高效和智能的方向演进,即智算中心。
不过,在智算中心的建设过程中,仍有两个核心问题亟待解决:
首先,算力利用效率仍待提升。中国工程院院士邬贺铨指出,我国算力资源的实际利用率仅约30%,这主要归咎于两方面原因:一是硬件资源的分散管理,使得整体优化调度变得困难;二是软件与硬件之间的适配优化尚不充分,模型算法和计算框架常常不能完全发挥硬件潜能。
其次,能耗问题日益凸显。随着算力密度的激增,数据中心的能耗也随之上升,成为了制约其可持续发展的一大瓶颈。为应对这一挑战,政策层面已开始引导数据中心降低PUE值。比如,北京和上海等一线城市对新建和改造数据中心的PUE值设定了严格标准,北京全市范围内禁止新建和扩建PUE值在1.35以上的数据中心;在上海存量改造数据中心PUE不高于1.4,新建数据中心PUE限制在1.25以下。同时政策明确表示,鼓励采用液冷技术等高效冷却方案,以促进数据中心的绿色转型。
智算中心建设应有全栈全液思维
面对智算中心建设的复杂需求,宁畅公司提出了“全栈全液”的AI基础设施建设方案,旨在从硬件到软件,全面优化数据中心的建设和运维。
全栈能力是指,在硬件层面,宁畅的解决方案涵盖了计算、存储、网络、建设和管理等多个维度,确保了智算中心基础设施的全方位支持,以整体视角规划智算中心建设。软件层面,通过AI算子的全栈优化,提供并行加速、性能分析工具以及模型开发优化服务,帮助用户快速推进AI应用的开发与部署,实现从算力定制到模型部署的无缝对接,有效提升了算力的使用效率和部署速度。
在全液技术方面,宁畅在液冷技术上的长期投入与创新,如其新发布的自驱式相变液冷工作站,采用了定制冷却液配方,通过液态到气态的相变过程高效带走热量,再通过冷源循环液化回流,形成了高效的自驱式散热循环系统。液冷技术不仅被应用于工作站,宁畅还能够提供从单个服务器到整个数据中心级的液冷解决方案,包括风转液、冷板式液冷以及浸没式液冷等多种形式,满足不同数据中心机房改造的个性化需求。特别是浸没式液冷技术,其PUE值最低可达1.05,显著优于传统冷却方式,对于降低能耗、提高能效比具有重要意义。
宁畅的“全栈全液”AI基础设施建设方案,不仅是对当前智算中心建设挑战的直接回应,也为行业树立了高效、环保的新标杆。通过集成硬件与软件的全栈优化、深化液冷技术的应用,宁畅不仅能帮助客户克服了算力部署与管理的难题,加速了AI应用的落地与迭代,更为智算中心的高效能、低能耗转型开辟了新路径。随着技术的不断成熟和应用场景的持续扩展,宁畅的全栈全液解决方案将落地于更多企业/行业级智算中心的建设,助力各行各业把握数字转型的时代机遇。