V · 2023年05月16日 · 北京市

LayerNorm 在 Transformers 中对注意力的作用研究

LayerNorm 一直是 Transformer 架构的重要组成部分。如果问大多人为什么要 LayerNorm,一般的回答是:使用 LayerNorm 来归一化前向传播的激活和反向传播的梯度。

其实这只是部分正确:Brody、Alon 和 Yahav 的一篇题为“On the Expressivity Role of LayerNorm in Transformer's Attention”的新论文表明,LayerNorm 的作用要深得多。

LayerNorm其实为Transformer的Attention提供了两个重要的功能:

1、Projection:LayerNorm 帮助 Attention 设计一个注意力查询,这样所有的Key都可以平等地访问。它通过将Key向量投影到同一个超平面上来实现这一点,从而使模型能够将查询对齐。这样一来,Attention 组件就无需自己学习如何执行此操作。

论文包含了更精细的细节,比如论文中的这图片可以让我们进行可视化的查看

2、Scaling:这是更明显的部分,LayerNorm 重新缩放输入。但这种重新缩放做了什么呢?根据这篇论文潜在的好处是有两个好处:

每个Key都有可能获得“最高”关注

没有Key可以在“un-selectable”区域结束。

论文中的第二张图片在视觉上给了我们答案:

他们还注意到:Attention 之后的 LayerNorm仍然实现了相同的目的,但是作用是用于下一个 Attention 块的。并且在较大的 Transformer 模型中,这些好处似乎并不那么明显。论文认为这是由于更大尺寸的模型能够找到替代解决方案(也就是上面说的Attention不需要帮助而是自己学习到了如何执行这个操作)。

但是 LayerNorm 的确隐含地具有两个核心功能,即投影和缩放。这篇论文的细节要多得多,本文的总结并以直观的形式展示这两个主要发现,因为这论文中这两个图可以直接的表达这个内容。

如果你像详细阅读,论文地址:

https://avoid.overfit.cn/post/ac6bbc9b20fb4bd292009d0a5370bb46

作者:Less Wright

推荐阅读
关注数
4221
内容数
978
SegmentFault 思否旗下人工智能领域产业媒体,专注技术与产业,一起探索人工智能。
目录
极术微信服务号
关注极术微信号
实时接收点赞提醒和评论通知
安谋科技学堂公众号
关注安谋科技学堂
实时获取安谋科技及 Arm 教学资源
安谋科技招聘公众号
关注安谋科技招聘
实时获取安谋科技中国职位信息