27

腾讯技术工程 · 2023年09月13日

主流大语言模型的技术原理细节

1.比较 LLaMA、ChatGLM、Falcon 等大语言模型的细节:tokenizer、位置编码、Layer Normalization、激活函数等。2. 大语言模型的分布式训练技术:数据并行、张量模型并行、流水线并行、3D 并行、零冗余优化器 ZeRO、CPU 卸载技术 ZeRo-offload、混合精度训练、激活重计算技术、Flash Attention、Paged Attention。3. 大语言模型的参数高效微调技术:prompt tuning、prefix tuning、adapter、LLaMA-adapter、 LoRA。

0. 大纲

image.png

1. 大语言模型的细节

1.0 transformer 与 LLM

image.png

1.1 模型结构

image.png

1.2 训练目标

image.png

1.3 tokenizer

image.png

1.4 位置编码

image.png

1.5 层归一化

image.png

1.6 激活函数

image.png

1.7 Multi-query Attention 与 Grouped-query Attention

image.png

1.8 并行 transformer block

image.png

1.9 总结-训练稳定性

image.png

2. LLM 的分布式预训练

image.png

2.0 点对点通信与集体通信

image.png

2.1 数据并行

image.png

2.2 张量并行

image.png
image.png
image.png
image.png
image.png

2.3 流水线并行

image.png

2.4 3D 并行

image.png

2.5 混合精度训练

image.png
image.png

2.6 激活重计算

image.png

2.7 ZeRO,零冗余优化器

image.png
image.png
image.png

2.8 CPU-offload,ZeRO-offload

image.png

2.9 Flash Attention

image.png
image.png

2.10 vLLM: Paged Attention

image.png

3. LLM 的参数高效微调

3.0 为什么进行参数高效微调?

image.png
image.png

3.1 prompt tuning

image.png

3.2 prefix tuning

image.png

3.3 adapter

image.png

3.4 LLaMA adapter

image.png

3.5 LoRA

image.png

3.6 实验比较

image.png

4. 参考文献

image.png

  1. 分析 transformer 模型的参数量、计算量、中间激活、KV cache
  2. 【万字长文】LLaMA, ChatGLM, BLOOM 的高效参数微调实践
  3. FlashAttention:加速计算,节省显存, IO 感知的精确注意力
作者:腾讯程序员
文章来源:腾讯技术工程

推荐阅读

更多腾讯AI相关技术干货,请关注专栏腾讯技术工程 欢迎添加极术小姐姐微信(id:aijishu20)加入技术交流群,请备注研究方向。
推荐阅读
关注数
8150
内容数
230
腾讯AI,物联网等相关技术干货,欢迎关注
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息