无线网络是现代互联的基础,经全球数百万个基站为数十亿 5G 用户提供连接服务。AI-RAN 所带来的机遇和优势,正加速推动电信网络和整个生态系统向 AI 原生无线网络转型。
当前,我们正致力于构建一个智能网络架构,连接数百亿个 AI 驱动的终端设备,如智能手机、摄像头、机器人和 AI 智能体。这一目标的实现需要将 AI 嵌入无线电信号处理中,以实现性能和效率的提升,并加速基站处理 AI 流量,尽可能将 AI 推理贴近用户。
AI-RAN 让这一切成为可能。它将当前基于 ASIC 的单用途 5G/RAN 纯系统发展为多用途商用现成 (COTS) 的多用途系统,能够在同一平台上同时运行 AI 和 RAN 工作负载、用于 RAN 的 AI 算法以及基于 RAN 的 AI 应用。这种转型为电信运营商带来了许多益处,包括能够提供新的 AI 服务、创造新的收入来源、提高网络利用率、频谱效率、能源效率和性能。AI-RAN 通过 100% 软件定义架构、依托虚拟化 RAN (vRAN) 技术,为迈向 6G 铺平了道路。
为了使 AI-RAN 在实际部署中成为现实,系统需支持集中式和分布式两种场景,根据具体位置的 AI 与 RAN 容量需求灵活调整。例如,集中式 RAN (C-RAN) 可能聚合来自数十个基站的 AI 和 5G vRAN 工作负载,需要更高容量的系统,而分布式 RAN (D-RAN) 则部署在单个基站,系统容量需求则相对较低。最终的目标是在任何部署场景下,都能基于同一套加速基础架构,建立无处不在的 5G vRAN 软件层,从而在易于管理和运维的情况下,充分利用 AI-RAN 的全部优势。
NVIDIA AI Aerial 采用基于 NVIDIA Grace Hopper 和 NVIDIA Grace Blackwell 的 Aerial RAN 计算系统,为高密度 AI-RAN 部署提供动力,适用于以 AI 为中心的场景。
全新推出的 NVIDIA Compact Aerial RAN 计算机 (ARC-Compact) 将这些能力扩展到边缘,使单个基站能够部署 AI-RAN,这些基站空间和功率资源有限,且以 RAN 为中心的工作负载占主导。它们共同支持集中式和分布式 AI-RAN。
NVIDIA ARC-Compact:适用于基站的低功耗 AI-RAN 解决方案
ARC-Compact 旨在实现分布式 AI-RAN 部署场景。它将能效、GPU 加速无线电处理和高性能 vRAN 结合起来,利用 Arm 生态系统将基站转变为多功能的 5G 和 AI 中心。它在典型功率和空间限制范围内提供最佳基站容量,同时满足外形尺寸要求,从而解决了基站的独特限制。
ARC-Compact 在 C-RAN 和 D-RAN 上支持相同的软件定义代码库,遵循可以将软件升级到 6G 这一首要原则。它采用 NVIDIA Grace CPU C1 构建,配备 72 个高性能且节能的 Arm Neoverse V2 核心。搭载 NVIDIA GPU 的 PCIe 插卡来加速无线电功能或 AI 工作负载的处理。通过 NVIDIA ConnectX-7 网络接口卡 (NIC) 提供快速以太网连接。
根据 NVIDIA 内部基准测试,ARC-Compact 满足表 1 中概述的分布式 AI-RAN 的关键要求。
表 1. ARC-Compact 满足分布式 AI-RAN 的关键要求
ARC-Compact 的采用与可用性
ARC-Compact 预计将通过多个 OEM 和 ODM 合作伙伴提供,如 Foxconn、Lanner、Quanta Cloud 和超微,我们正在与这些合作伙伴共同开发基于 Grace CPU C1 的系统。预计今年晚些时候市场将出现各种配置,以支持电信分布式 AI-RAN 用例。
T-Mobile 资本市场日宣布的 AI-RAN 创新中心合作伙伴关系,为 ARC-Compact 解决方案的分布式 AI-RAN 部署开发提供了帮助。新解决方案将作为 D-RAN 参考架构,用于下一阶段的 AI-RAN 协作。
沃达丰正继续与 NVIDIA 合作,并评估基于 ARM 的 ARC-Compact 解决方案,用于分布式 AI-RAN,这符合其主要 OpenRAN 目标,即在边缘优化的短深度服务器上提供更高性能和更高效的分布式计算。
作为抢先体验计划的一部分,诺基亚收到了 ARC-Compact 的种子系统,并正在通过早期基准测试测试其 5G Cloud RAN 软件,以证明 ARC-Compact 适用于分布式 RAN 部署场景。这进一步推进了诺基亚和 NVIDIA 在 AI-RAN 方面的持续合作。
三星正扩大与 NVIDIA 的 AI-RAN 合作,将其 5G vRAN 集成到 NVIDIA ARC-Compact 中,用于分布式 AI-RAN 解决方案。三星去年已完成概念验证,验证了其 vRAN 软件与 NVIDIA GPU 之间的无缝集成,展示了增强的网络性能和效率。现在,三星正在评估其搭载 NVIDIA Grace C1 和 NVIDIA GPU 的 vRAN 软件,以加速其他 AI 工作负载,包括 AI/ML 算法,以进一步提升性能和效率。
NVIDIA 凭借其 AI Aerial 产品组合,一直处于 AI-RAN 解决方案的前沿。现有的 Aerial RAN 计算机系统已经成为与 Indosat Ooredoo Hutchison、软银集团和 T-Mobile等客户,以及 Capgemini、富士通、京瓷和 SynaXG 等解决方案合作伙伴开展的 AI-RAN 合作的一部分。借助 ARC-Compact,它包括了高密度和低密度系统,以满足以 AI 为中心、以 RAN 为中心,甚至是仅 AI 或仅 RAN 模式的需求。这使得在集中式和分布式 AI-RAN 部署场景中实现同构的软硬件架构成为可能,这是运营商构建 AI-RAN 网络的关键要求。
ARC-Compact 的关键构建模块
ARC-Compact 旨在利用以下硬件和软件组件,高效处理 5G vRAN 和 AI 工作负载:
NVIDIA Grace CPU
Grace CPU 专为运行 AI、vRAN、云、边缘和高性能计算应用的现代数据中心设计。其能效是当今领先的服务器处理器的 2 倍。Grace 架构与 Arm 生态系统完全兼容,可确保数据中心中专为 Arm 设计的任何应用均在 Grace 上无缝运行,反之亦然,从而为电信运营商的 vRAN 部署提供所需的供应商多样性。
NVIDIA ConnectX-7
ConnectX-7 提供高速、低延迟以太网连接,支持前传、中传或回传,还可以路由 AI 流量或提供高级卸载。它提供多达四个端口的连接,总吞吐量高达 400 Gbps,并为电信行业提供数据中心规模的硬件加速网络、存储、安全性和可管理性服务,包括用于 Transport Layer Security (TLS) 、IP Security (IPsec) 和 MAC Security (MACsec) 的内联硬件加速等功能。
软件架构
ARC-Compact 基于 Aerial CUDA 加速 RAN 软件实现,利用 CPU 和 GPU 提供 5G vRAN。
对电信服务提供商的核心优势
对于希望在基站部署分布式 AI-RAN 的电信服务提供商,ARC-Compact 提供了一种低功耗、紧凑且经济高效的解决方案,用于交付高性能 5G 和 AI 推理。关键优势包括:
适用于蜂窝基站的高效解决方案:ARC-Compact 可在低功耗范围内提供高性能 5G vRAN 和 AI 工作负载,从而实现可持续、经济高效的分布式 AI-RAN 部署。
AI 赋能的无线电和边缘创新:通过集成 PCIe 插件 GPU,它可实现用于无线电信号处理的先进 AI/ ML 算法,从而提高频谱效率和网络利用率,并在边缘解锁新的 AI 驱动服务。
利用 ARM 生态系统实现灵活性和多样性:ARC-Compact 基于具有 Arm 核心的 Grace C1 CPU 构建,使电信运营商能够从不断发展的 ARM 生态系统中受益,并使其 vRAN 解决方案的供应商群体多样化。
在所有部署中实现同构、软件定义的 vRAN:ARC-Compact 运行的 5G vRAN 软件与集中式 AI-RAN 站点相同,可实现统一、完全软件定义的网络,该网络可轻松升级到 6G,并简化管理,无论部署场景如何。
针对现实世界的基站要求进行了优化:它外形紧凑、温度范围宽且符合全球电信标准,专为单个平台上的边缘 AI-RAN 部署而构建。
该系统可以灵活配置以支持各种 AI-RAN 用例,包括:
以 RAN 为中心或仅 RAN:这预计将成为大多数分布式部署的主要用例,并通过单个 Grace C1 CPU 和单个 GPU 配置提供服务。
以 AI 为中心:主要使用用于 RAN 的 Grace CPU(如 FDD),并将 GPU 专用于 AI 或视觉处理应用。
以 RAN 和 AI 为中心:利用专用于 AI 或视觉处理的附加 GPU,同时通过单个 C1 CPU 和 GPU 同时支持高端 RAN 工作负载。
结论:AI-RAN 催化剂
图 1. 用于 AI 原生无线网络的 AI Aerial 产品组合
2024 年,NVIDIA 推出了 Aerial RAN Computer-1,通过外部现场试验展示了 AI-RAN 的优势,如每美元资本支出的新收入增加 5 倍,与同类最佳 ASIC 系统相比能源效率提高 40%,容量利用率提高 3 倍。这一时刻标志着 AI-RAN 技术及其生态系统的转折点。许多客户和合作伙伴开始推进他们的 AI-RAN 目标。
ARC-Compact 是 AI-RAN 采用的下一个催化剂,使电信公司能够在每个基站部署强大、节能且灵活的 AI-RAN 解决方案。与 Aerial RAN Computer-1 相结合,通过全栈平台为 AI-RAN 构建块添加支持,该平台支持可扩展的硬件、通用软件和开放式架构,能够与生态系统合作伙伴一起在任何部署场景中提供高性能 AI-RAN。
电信公司还重视全套 AI Aerial 产品组合,包括用于训练、仿真和部署 AI-RAN三个计算平台。例如,同一个版本的 Aerial CUDA 加速 RAN 软件同时应用于 Aerial Omniverse 数字孪生平台和实际运行中的 Aerial RAN 计算系统,使客户能够在现场部署新 AI 模型之前以可预测的方式对其性能进行仿真,并继续通过数据循环对其进行微调。
随着行业加速迈向 AI 原生无线网络,AI Aerial 为分布式智能的新时代奠定了基础,释放了无线领域的空前效率、创新和价值。
关注 2025 年 NVIDIA GTC 大会电信行业领先企业的小组会议,了解更多关于 AI-RAN 的实践应用: