AI学习者 · 16 小时前

MetaShuffling:Meta 激进优化 Fused MoE kernel,规避Padding

blog链接:https://pytorch.org/blog/meta...

MetaShuffling: 加速LLama4 MoE推理

By Shikai Li, Gefei Zuo, Jianyu Huang, Jason Park, Zoey Sun, Xiaozhu Meng, Xiaodong Wang, Hongtao Yu, Changkyu Kim, CQ Tang, Stephen ChenMay 12, 2025

Mixture-of-Experts (MoE) 是一种流行的LLM模型架构。虽然它通过每个token激活更少的参数来减少训练和推理的计算量,但在实现最佳计算效率、高内存和通信压力以及处理模型动态和稀疏性方面带来了额外挑战。在这里,我们介绍了一种新的MoE推理解决方案,MetaShuffling,它使我们能够高效地部署Llama 4模型进行生产推理。

图片

Llama 4 Scout and Maverick模型正式发布。Scout / Maverick具有共享专家和16 / 128路由专家,使用dropless token选择路由和Top-1选择每个MoE层。此外,共享和路由专家都使用SwiGLU激活,具有3个线性层。有关模型的更多信息,请参阅The Llama 4 herd: The beginning of a new era of natively multimodal AI innovation(https://ai.meta.com/blog/llam...)。

关键概念

MoE层中引入了处理动态性和稀疏性问题的多种常见解决方案。在这里,我们展示了使用Top-1选择的不同token选择路由解决方案。

图片

上图显示了Padding设计。每个框代表一个token,黄色/绿色代表路由到不同专家的有效token,灰色代表Padding的token。第二步中的每一行框代表不同的路由专家。Ti代表来自数据并行组当前rank的第i个token。

  • Padding:在这种方法中,我们将激活Padding到每个专家的最大序列长度,并运行单个批量矩阵乘法(BMM)。这会导致:
  • 保存Padding数据增加内存占用。
  • 处理Padding数据增加延迟。注意,可以通过锯齿状kernel来避免处理Padding,但当专家数量很大时,锯齿状kernel也可能产生很高的开销。

图片

  • Slicing: 在这种方法中,我们将激活切片到每个专家的精确序列长度,并运行多个矩阵乘法(MM)。它避免了Padding的问题,但会导致:
  • 由于在小形状上重复kernel启动,导致kernel效率降低。
  • 由于频繁的主机和设备同步,以及动态形状的额外kernel启动开销,导致设备利用率降低,因为它与图捕获机制(如CUDAGraph和torch.compile)不兼容。

图片

  • Concatenation: 在这种方法中,我们在切片后进一步连接激活,并运行单个分组矩阵乘法(GMM)。它避免了切片中的kernel效率问题,但仍然会导致:
  • 由于仍然需要主机和设备同步,导致设备利用率降低,因为它与图捕获机制(如CUDAGraph和torch.compile)不兼容。

为了进一步改进解决方案,我们提出了一种基于shuffle的机制:

图片

  • Shuffling: 在这种方法中,我们直接对token进行排序,使得路由token按路由专家的ID排序。这样做,没有引入Padding或分割,并且分配给相同专家的token被存储在一起,可以在GroupedGEMM内部一起处理。它提供了一个密集模型接口,避免了上述所有问题。
  • 没有Padding,因为激活保持为密集张量。
  • 没有主机和设备同步,因为激活保持为静态形状的张量。

我们基于这个设计构建了一个端到端的MoE推理解决方案,MetaShuffling。

运行时设计

单GPU推理无需并行化

图片

上图是单GPU推理无需模型并行化的整体运行时设计。注意,为了优化性能,SwiGLU激活的第一层和第三层线性层被合并为GroupedGEMM13 / GEMM13。

  • 实心深蓝色/橙色框代表在路由/共享专家流上的Tensor Core密集型kernel。
  • 实心浅蓝色/橙色框代表在路由/共享专家流上的CUDA Core或内存流量密集型kernel。
  • 红色箭头代表激活张量的数据流。
  • 绿色箭头代表元数据张量的数据流。

所有元数据张量都放置在设备上。没有阻塞的设备到主机同步。所有kernel都是连续启动的,没有气泡。该图仅显示数据流,而不是实际性能分析Trace的演示。

Kernel接口和数据流

  • RoutingScores: 一个用于处理路由分数计算的函数或融合kernel。

    • 输入: input_tokens: [T, D] (T: token数量; D: 特征维度); router_weights: [D, E] (E: 专家数量); router_biases: [E];
    • 输出: routing_scores: [T, E]; scaling_factors: [T, E];
  • IndexShuffling: 一个用于处理索引shuffle和排序的融合kernel。我们将在Kernel设计部分介绍一个优化的实现。

    • 输入: routing_scores: [T, E]; K (top-k路由的阈值);
    • 输出: routed_token_indices: [K T]; routed_expert_indices: [K T]; routed_token_counts_per_expert: [E];
  • GatherMul: 一个用于根据排序的索引shuffle token并缩放它们的融合kernel。

    • 输入: input_tokens: [T, D]; routed_token_indices: [K T]; routed_expert_indices: [K T]; scaling_factors: [T, E];
    • 输出: scaled_routed_tokens: [K * T, D]
  • GroupedGEMM: 一个优化的GroupedGEMM kernel,可以处理M维度上批次的设备内形状信息,没有限制。我们将在Kernel设计部分介绍一个优化的实现。

    • 输入: tokens: [K * T, D]; weights: [E, D, HD] (HD: 隐藏维度); routed_token_counts_per_expert: [E];
    • 输出: tokens: [K * T, HD]
  • GEMM: 一个优化的GEMM kernel。与密集模型接口类似。
  • NonLinearity: 一个处理非线性的融合kernel。与密集模型接口类似。
  • ScatterAdd: 一个优化的kernel,基于排序的索引反转token shuffling,并直接执行scatter add到共享专家输出,无需具体化未shuffle的张量。
  • 输入: shared_output_tokens: [T, D]; routed_output_tokens: [K T, D]; routed_token_indices: [K T];
  • 输出: combined_output_tokens: [T, D]

注意:如果应用量化,则激活量化kernel会被融合到前面的非GEMM kernel中,这意味着对于GroupedGEMM13融合到GatherMul中,对于GroupedGEMM2融合到NonLinearity中,等等。

注意:如果使用较大的K * T,GatherMul和ScatterAdd操作可以进一步融合到后续/前置的GroupedGEMM操作中,这应该作为前序/后序中全局内存到共享内存/寄存器或共享内存到全局内存的步骤来完成。然而,这在kernel设计层面上增加了与tensor core执行重叠的额外挑战。此外,融合ScatterAdd需要共享专家在路由专家之前完成,如果这些kernel可以用来隐藏AlltoAll延迟,这可能不是一个好的设计选择。

单主机推理的张量并行化

图片

上图是单主机推理使用张量并行(TP)的整体运行时设计。与单GPU推理相比,额外增加的步骤是:

  • 实心浅薄荷色框代表网络通信密集型的通信kernel。

所有元数据张量仍然放置在设备上,没有设备到主机的同步。所有kernel都是连续启动的,没有气泡。该图仅显示数据流,而不是实际性能分析Trace的演示。

工作负载分片和额外的Kernels

与单GPU推理用例相比,没有引入额外的自定义kernel。对于GEMM、GroupedGEMM和非线性kernel,激活和权重都沿不同维度共享到1/TP,计算/内存开销也共享到1/TP。

如果仅应用张量并行,最后一步应该是AllReduce。或者,如果张量并行与序列并行一起应用,则使用ReduceScatter。

多卡推理的专家并行化

为了启用专家并行化(EP),我们将数据并行维度从路由专家中交换出来,作为路由专家内部的专家并行维度。注意,为了获得更好的GEMM效率,专家并行可以进一步与张量并行交换,但这会增加路由不平衡的风险,我们不会在本博客中介绍这种设计。

如果在token-choice路由中启用了专家并行,由于路由到不同专家组的token数量是动态的,我们必须在使用密集张量或使用静态形状之间做出选择。

  • 当优先使用eager模式时,我们使用密集张量和动态形状,以避免运行未Padding的AlltoAll造成的网络流量和内存空间浪费。
  • 当优先使用图模式时,我们使用稀疏张量和静态形状,以避免通过运行CUDAGraph导致的CPU启动开销和设备到主机同步产生的GPU气泡。

注意,使用Padding激活的网络流量浪费也可以通过使用自定义AlltoAll实现来避免,但我们不会在本博客中介绍任何关于自定义通信或通信和计算融合kernel的主题。

图片
上图是使用张量并行和专家并行的多主机推理的整体运行时设计。与使用张量并行的单主机推理相比:

  • 实心红色箭头表示节点内通信。
  • 实心紫色箭头表示节点间通信。

Kernel接口和数据流

对于增加的基于专家并行的通信,我们使用3次All2All通信来交换形状和token:

  • 第1次A2A:交换设备上关于路由到每个专家的token数量的元数据张量,即routed_token_counts_per_expert: [E],这是由IndexShuffling kernel生成的输出。
  • 第2次A2A:将token从基于数据并行转换为基于专家并行,根据路由分发到不同的EP ranks。
  • 第3次A2A:将token从基于专家并行转换为基于数据并行,根据路由从不同的EP ranks组合。

此外,我们增加了2个额外的shuffling kernel和1个特殊的scatter kernel:

  • CombineShuffling(密集或Padding): 将接收到的token从按rank排序重新排列为按expert排序。后面的T*表示从所有对等节点接收的总token数,可以根据routed_token_counts_per_rank_per_expert张量的形状信息进一步解释为不规则维度。

    • 输入:received_tokens: T*, D; routed_token_counts_per_rank_per_expert: [EP, E // EP];
    • 输出:reshuffled_tokens: T*, D; routed_token_counts_per_expert: [E // EP];
  • SplitShuffling(密集或Padding):CombineShuffling的反向过程。将待发送token从专家优先顺序重新排序为rank优先顺序。

    • 输入:reshuffuled_tokens: T*, D; routed_token_counts_per_rank_per_expert: [EP, E // EP];
    • 输出:to_send_tokens: T*, D;
  • ScatterAdd(Padding):从Padding张量中scatter adds有效token。

    • 输入:共享输出token: [T, D]; 接收到的Padding路由输出token: [EP, K T, D]; 路由token索引: [K T]; 每个专家的路由token数量: [E];
    • 输出:组合输出token: [T, D]

我们将在"图模式下使用静态形状的Padding通信"部分详细介绍上述kernel。

Eager模式下使用动态形状的非Padding通信

图片

图片

运行时行为的高层示意图。不同组件的实际运行时间可能会根据软件和硬件的不同而变化。

最小化动态形状的使用

由于路由是每个MoE层动态的,所需的最小设备/主机同步次数为每层一次。为了实现这一点,我们延迟了send_sizes的D2H复制,并将其与recv_sizes连接起来,通过单个D2H复制一起传输。这减少了设备/主机同步次数为每层一次。

最小化动态形状的负面影响

为了进一步隐藏设备/主机同步开销,我们进一步将共享专家分为两部分。

  • 我们首先分发第一部分,在路由之后,但在分发A2A之前。然后,当设备/主机同步发生时,设备仍然保持忙碌运行共享专家。
  • 我们第二部分在MoE之后,但在组合A2A之前分发。这将进一步帮助重叠第二个A2A。

图模式下使用静态形状的Padding通信

图片

最小化Padding的使用

在无丢弃token选择设计中,路由到任何单个专家的最大可能token数量是T。然而,如果我们通过专家并行分片将多个专家组合在一起并放置在单个GPU上,对于TopK路由:

  • 路由到1个专家的最大token数量是T。
  • 路由到2个专家的最大token数量是2 * T。
  • ...
  • 路由到K个专家的最大token数量是K * T。
  • 路由到K+1个专家的最大token数量仍然是K * T。
  • ...

因此,路由到N个专家组的最大token数量将被限制在min(N, K) * T个token。

对于Top1路由,路由到任意大小的专家组的token数量将始终被限制在T个token,由于有EP个专家组,分配和保存动态token所需的最小内存是EP * T个token。

为了实现最小所需的Padding,我们直接使用AllGather来从不同的EP ranks收集所有活跃token,然后通过自定义kernel在本地拆分和重新排列路由token。激活大小被压缩到1 / (E // EP),这对应于内存和网络流量的减少。

图片

上图展示了Padding设计。每个方框代表一个token,蓝色/绿色表示具有专家分配的有效token,灰色表示Paddingtoken。RiTj表示专家并行组中第i个rank的第j个token。

最小化Padding的负面影响

尽管Padding被减少到最小允许,我们还通过承担设备形状信息routed_token_counts_per_expertrouted_token_counts_per_rank_per_expert确保Padding只导致内存空间(分配)和网络流量(通信),而不是导致冗余计算(GroupedGEMM / NonLinear),冗余内存带宽(CombineShuffling / SplitShuffling / ScatterAdd)。

图片

激活的概念解释

  • 最重要的是,当所有EP ranks上的活跃token总数较小时,这样做很重要,以避免在GroupedGEMM中激活冗余专家并导致额外内存流量。
  • 当所有EP ranks上的活跃token总数较大时,这样做也很重要,以避免将GroupedGEMM从memory bound转换为compute bound。

CombineShuffling: 当前EP rank分配的token被重新排列为从专家优先顺序到rank优先顺序,在AllGather之后。未分配的token不会被复制,并且张量末尾剩余的分配内存空间保持不变。

图片

SplitShuffling: 当前EP rank分配的token被重新排列为从rank优先顺序到专家优先顺序,在AlltoAll之前。未分配的token不会被复制,并且重新排列的张量具有交错存储的Padding。

图片

ScatterAdd (Padded): 每个EP rank最终接收来自所有其他rank计算的激活,它将理解哪些是有效token,哪些是Padding token,然后只读取有效token进行scatter_add。

图片

通信去重

不同张量并行rank在第一个GroupedGEMM之前和第二个GroupedGEMM之后具有相同的激活,因此相同的token在节点之间重复交换。

图片

我们启用了通信去重,以均匀分布节点间通信工作负载到不同的rank,同时引入额外的节点内通信。DP2/TP8/EP2的示例:

  • 在eager模式下第一个AlltoAll,将节点间AlltoAll拆分为节点间AlltoAll和节点内AllGather。

图片

  • 在eager/图模式下,第二个AlltoAll,将节点间AlltoAll拆分为节点内ReduceScatter和节点间AlltoAll。

图片

  • 在图模式下,第一个AllGather,将节点间AlltoAll拆分为节点间AllGather和节点内AllGather。

图片

Kernel Design

我们实现了超过10个自定义kernel来支持MetaShuffling MoE推理设计,在Nvidia H100 GPU和AMD MI300X GPU上运行。我们开源了所有计算kernel作为PyTorch operators在FBGEMM Generative AI Kernel Library(https://github.com/pytorch/FB...)。我们希望它可以帮助用户高效地在他们的首选框架和首选加速器上服务Llama 4模型,例如vLLM / SGLang。在本博客中,我们将重点介绍2个最有趣的kernel设计,作为提高推理性能的关键,GroupedGEMM和IndexShuffling。

GroupedGEMM

我们实现了基于Triton的GroupedGEMM kernel,用于BF16 / FP16 / FP8 Rowwise。

接口
def grouped_gemm_fp8_rowwise(
 x: torch.Tensor,   # shape: [M, K]
 w: torch.Tensor,   # shape: [G*N, K]
 m_sizes: torch.Tensor,  # shape: [G]
 x_scales: torch.Tensor, # shape: [M]
 w_scales: torch.Tensor,  # shape: [G*N]
) -> torch.Tensor:               # shape: [M, N]
 ...

该接口与单个GEMM非常相似,它接收一个左矩阵、一个右矩阵作为输入,并产生一个输出。从运行时的角度来看,没有动态性或稀疏性。

然而,该kernel使用m_sizes的数据动态地分割左矩阵的M维度,并使用m_sizes的形状静态地分割右矩阵的N维度。这种设计有几个优点:

  • 不同批次的M之间不需要额外的填充或对齐要求。因此只要总和不超过M,m_sizes可以存储任何非负值。
  • m_sizes可以为零值以跳过未激活专家的权重加载。
  • m_sizes的总和可以小于M,以便在不产生额外开销的情况下跳过末尾填充token的计算。
  • m_sizes或左矩阵激活的分割对设备是已知的,但对主机是未知的。因此它支持动态路由信息而不会导致设备到主机的同步。
工作负载分区

我们采用持久kernel设计,每个SM启动1个CTA,并让所有CTA以交错方式运行所有分割的tile。概念上,工作负载分区如下所示。

图片

def partition_workload(G: int, Ms: List[int], N: int):
 partitions = []
 for g in range(G):
  for n in range(0, N, BLOCK_N):
   for m in range(0, Ms[g], BLOCK_M):
    partitions.append((g, m, n))
 paritions_per_cta = [[] for _ in NUM_SMS]
 for i, part in enumerate(partitions):
  paritions_per_cta[i % NUM_SMS].append(part)

工作负载在设备侧动态计算,开销很小。然而,通过这样做,我们可以实现:

  • 不同SM之间的工作负载平衡。
  • 每个SM只启动1个CTA的小启动开销。
  • 高L2缓存命中率。工作负载分区的顺序确保权重/激活最可能从HBM加载一次并缓存在L2中。因为相同权重/激活tile的使用几乎总是从不同SM并发/连续发生。
持久kernel与warp特化

图片

我们采用了主机侧tensor map-based的激活和权重加载,以及可选的设备侧tensor map-based的输出存储,以减少Hopper GPU上的内存传输开销。通过激活的连续存储格式,我们可以使用单个主机侧TMA (Tensor Memory Accelerator)描述符来加载激活并掩码属于其他专家的token。然而,我们需要创建多个设备侧TMA描述符来存储输出,而不支持动态掩码。

我们采用了基于warp特化的kernel设计,使kernel以真正的持久方式运行,每个SM在3个warp组之间切换(1个生产者和2个消费者)。这种设计保持了TMA引擎、Tensor core和CUDA core执行的交错,利用了异步TMA指令和WGMMA (Asynchronous Warpgroup Level Matrix Multiply-Accumulate)指令,以及共享内存上的内存屏障。我们收到了Meta的Triton编译器团队的大量帮助来实现它。只有通过warp特化,才能隐藏prologue和epilogue,因为传统的软件流水线方法无法处理带有指针追踪的复杂控制流。

IndexShuffling

我们实现了基于CUDA / HIP的index shuffling kernel。

接口
def index_shuffling(
 scores: torch.Tensor,           # shape: [T, E]
):
 token_counts: torch.Tensor = ...  # shape: [E]
 expert_indices: torch.Tensor = ...         # shape: [T]
 token_indices: torch.Tensor = ...  # shape: [T]
 return token_counts, expert_indices, token_indices

该kernel接收所有专家上所有token的路由分数,确定每个token被路由到哪个专家,重新排列token索引,使得所有被路由到同一个专家的token连续放置,并返回:

  • token_counts: 作为每个专家被路由到的token数量。它将被馈送到上面讨论的GroupedGEMM kernel。
  • expert_indices: 作为每个shuffled token所属的专家索引。它将被馈送到上面讨论的GatherMul kernel。
  • token_indices: 作为每个shuffled token所属的原始token索引。它将被馈送到上面讨论的GatherMul和ScatterAdd kernel。
Cooperative Kernel

我们采用了协作式kernel设计,并将kernel分为两个主要阶段:top-k归约阶段和桶排序阶段,中间有一个全局同步。

图片

1.加载分数:

  • 将路由分数的一个tile从全局内存(HBM)加载到共享内存(SMEM)
  • 同时将相关的专家索引也存储在SMEM中

2.归约:

  • 所有线程将在SMEM上并发处理多个token的归约
  • 每个线程将在SMEM上顺序处理多个token的归约
  • 在E维度上对SMEM执行TopK归约
  • 对于Llama 4用例,它执行ArgMax排序作为Top1归约,包括对SMEM上的分数和相关专家索引进行2D并行树归约
  • 在不同的树归约阶段:

3.计数和存储缓冲区:

  • 遍历tile上的所有token
  • 从SMEM获取选定的专家索引,将其存储到HBM上的缓冲区(buf_expert_index)
  • 对HBM上的输出计数器(token_counts)执行atomicAdd操作
  • 有趣的是,atomicAdd操作将返回内存位置上的先前值,这表示token在组内的位置
  • 我们将此值存储在缓冲区(buf_local_token_index)中,并使用它来确定所有token之间的全局顺序
  • 重复步骤1-3,直到处理完分配给CTA的所有token
  1. 全局同步:
  2. 对HBM上的全局计数器执行atomicAdd操作
  3. 之后,所有CTA将等待,直到全局计数器达到总token数
  4. 使用st.release + ld.aquire屏障来保护前面的存储操作和后面的加载操作,以确保正确性
  5. 扫描:
  6. 执行简单的加载和token_counts的前缀和
  7. 将其转换为SMEM上的token_counts_cumsums
  • 加载缓冲区和存储输出:
  • buf_expert_index加载token被分配到的专家索引
  • 然后计算shuffling后的新token索引,作为以下两项的和:
  • 属于前面专家的token数量(使用SMEM张量token_counts_cumsums)
  • 属于同一专家的之前token数量(使用HBM张量buf_local_token_index)
  • 遍历分配给此CTA的所有token
  • 对于每个token:
  • 最后,在shuffling后的新token索引位置直接存储到expert_indicestoken_indices输出

性能

示例内核性能

我们的测试环境使用了H100 80GB SMX5 HBM3 700W SKU、Python 3.12和CUDA 12.8。单个H100的理论峰值HBM内存带宽为3.35 TB/s。

分组GEMM

Prefill性能

下表展示了该kernel在Llama 4 Scout和Maverick单主机服务上的Prefill性能。实验设置假定总token数为16,384,并使用张量并行分片。

图片

注意: G表示组数。M表示每组的token数。N表示每组的输出特征维度。K表示每组的输入特征维度。FP8表示FP8行缩放(激活的每token缩放和权重的每通道缩放)快速累加。量化kernel未包含在基准测试中。缩放未包含在内存带宽计算中。使用rotating buffers和CUDAGraphs进行基准测试。

解码性能

下表展示了该kernel在Llama 4 Scout和Maverick单主机服务上的解码性能。实验设置假定总token数为128,并使用张量并行分片。

图片

IndexShuffling

下表展示了该kernel在Llama 4 Scout和Maverick单主机服务上的性能,与原生PyTorch实现进行比较。

图片

使用rotating buffers和CUDAGraphs进行基准测试。

示例Trace分析

Llama 4 Scout BF16 解码

这是使用我们的MetaShuffling MoE推理解决方案对64个token进行Llama 4 Scout BF16解码的示例Trace。

图片

  • MoE的总内存流量(忽略激活值):

    • 路由器: 5120x16x2 = 163,840 字节
    • 共享专家: (2048×5120 + 5120×1024)x2=31,457,280 字节
    • 路由专家: 16x(2048×5120 + 5120×1024)x2=503,316,480 字节
    • 总计: 163,840 + 31,457,280 + 503,316,480=534,937,600 字节
    • MoE的总执行时间为197.456微秒,实现的内存带宽为534,937,600 / (197.456 * 10^-6)=2,709,148,367,231 字节/秒 ~= 2.71 TB/秒,这达到了H100 80GB SMX5 HBM3理论峰值HBM内存带宽3.35 TB/秒的80.90%。

以下是Trace分析中不同组件的细分。

图片

首先,Router和Shared Experts的细分。这两个组件在2个不同的流上并发运行,以实现更好的资源利用。

对于Router流(标记为红色框):

  1. Router GEMM: 基于CuBLAS的GEMM,采用split-k设计。启动2个kernel,第二个kernel用于规约计算。
  2. Sigmoid(Router Activation): PyTorch原生sigmoid。
  3. IndexShuffling: 基于FBGEMM的索引重排,采用协作式kernel设计。可以看作是topk、bincount和sort这3个操作的融合。启动2个kernel,第一个kernel用于设置。
  4. GatherMul: 基于FBGEMM的gather缩放。可以看作是gather(tokens)、gather(scores)和mul这3个操作的融合。

对于共享专家流(标记为橙色框):

  1. 共享专家GEMM13: 基于CuBLAS的GEMM,采用split-k设计。启动2个kernel,第二个kernel用于规约计算。
  2. SwiGLU: 融合的SwiGLU。可以看作是sigmoid和mul这2个操作的融合。
  3. 共享专家GEMM2: 基于CuBLAS的GEMM。

图片

其次是路由专家的细分。该组件专门在1个流上运行,以让GroupedGEMM kernel完全占用所有SM。

对于路由专家流(标记为红色框):

  1. 路由专家GroupedGEMM13: 基于FBGEMM的GroupedGEMM,采用持久化kernel设计。
  2. SwiGLU: 融合的SwiGLU。如6中所述。
  3. 路由专家GroupedGEMM2: 基于FBGEMM的GroupedGEMM,采用持久化kernel设计,在epilogue中融合了scatter add。

解码步骤使用CUDAGraph在具有静态形状的密集张量上运行。

Llama 4 Maverick FP8 Prefill

这是使用我们的MetaShuffling MoE推理解决方案的Llama 4 Maverick FP8预填充的5000个token的示例Trace。注意路由专家的FP8行缩放,以及Router和共享专家的BF16数据类型。

与解码Trace相比:

  • 它使用单个流来避免路由器和共享专家之间的kernel交互。由于kernel处理的问题规模足够大,可以饱和计算资源,额外的重叠只会导致资源竞争,尤其是在L2缓存上。
  • 它在具有静态形状的密集张量上以eager模式运行。由于kernel执行时间足够长且没有设备/主机同步,kernel可以连续启动而不会产生气泡。

以下我们重点介绍这两个Trace之间的kernel差异(不包括执行时间):

  • Router GEMM和SharedExpertGEMM13: 基于CuBLAS的GEMM,不使用split-k设计。因此它只启动1个kernel而不是2个。

图片

  • 4 GatherMul (FP8按行量化): 基于FBGEMM的gather缩放和量化。可以看作是8个操作的融合:gather(tokens)、gather(scores)、mul、max、divide、mul、clamp和类型转换。
  • 9 SwiGLU (FP8按行量化): 融合的SwiGLU和量化。可以看作是7个操作的融合:sigmoid和mul、max、divide、mul、clamp和类型转换。

图片

Takeaway

我们逐步采取以下步骤来优化MoE解决方案的推理性能:

  • 通过避免主机和设备同步来提高设备级利用率。
  • 通过删除填充或避免处理填充来减少浪费的资源。
  • 通过激进的kernel融合来减少kernel启动和I/O开销。
  • 通过各种kernel优化来提高计算和内存效率,推动性能接近硬件极限。
  • 通过并发执行计算、内存流量或网络流量密集的kernel来提高硬件组件级利用率,但同时避免不希望的资源竞争。

单主机服务

我们使用1000个随机提示基准测试了Llama 4 Maverick和Llama 4 Scout的单主机服务性能,使用我们的内部MetaShuffling MoE推理堆栈。我们使用FP8运行Maverick,使用BF16运行Scout,在一个8xH100主机上,最大批量大小为64。我们的设置使用了H100 80GB SMX5 HBM3 700W SKUs、Python 3.12和CUDA 12.8。我们开源了所有计算kernel(https://github.com/pytorch/FB...)和MetaShuffling MoE推理堆栈的示例实现(https://github.com/pytorch/FB...)。

图片

为了保持最佳精度,我们在路由专家上使用FP8精度基准测试Llama 4 Maverick,在注意力线性层、注意力、共享专家、路由器和KV缓存上使用BF16精度。

图片

我们使用BF16精度基准测试了Llama 4 Scout的所有线性层(注意力线性层、共享专家、路由器和路由专家)、注意力和KV缓存。

最后,我们希望社区能够持续打破记录,提高服务Llama 4模型的效率,并期待更好的数字被报告。

致谢

我们感谢Jing Zhang、Ying Zhang和Manman Ren提供的技术审查和指导。

我们还要感谢Bradley Davis、Yan Cui、Rengan Xu、Josh Fromm、Jiawen Liu、Sarunya Pumma、Jie Wang、Xinfeng Xie、Benson Ma、Michael Shu、Bingzhe Liu、Jingyi Yang、Min Si、Pavan Balaji、Dhruva Kaushal对本项目的贡献。

END

作者:BBuf
来源:GiantPandaLLM

推荐阅读

欢迎大家点赞留言,更多 Arm 技术文章动态请关注极术社区嵌入式AI专栏欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。

推荐阅读
关注数
18966
内容数
1477
嵌入式端AI,包括AI算法在推理框架Tengine,MNN,NCNN,PaddlePaddle及相关芯片上的实现。欢迎加入微信交流群,微信号:aijishu20(备注:嵌入式)
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息