网易首页 > 网易号 > 正文 申请入驻

HuggingFace工程师亲授:如何在Transformer中实现最好的位置编码

0
分享至



机器之心报道

编辑:蛋酱

一个有效的复杂系统总是从一个有效的简单系统演化而来的。——John Gall

在 Transformer 模型中,位置编码(Positional Encoding) 被用来表示输入序列中的单词位置。与隐式包含顺序信息的 RNN 和 CNN 不同,Transformer 的架构中没有内置处理序列顺序的机制,需要通过位置编码显式地为模型提供序列中单词的位置信息,以更好地学习序列关系。

位置编码通常通过数学函数生成,目的是为每个位置生成一个独特的向量。这些向量在嵌入空间中具有特定的性质,比如周期性和连续性。

在最近的一篇文章中,HuggingFace 机器学习工程师 Christopher Fleetwood 介绍了逐步发现 Transformer 模型中最先进位置编码的方法。为此,作者会讲述如何不断改进位置编码方法,最终形成旋转位置编码 (RoPE),并在最新的 LLama 3.2 版本和大多数现代 Transformer 中使用。在读这篇文章前,你需要掌握一些基本的线性代数、三角学和自注意力的知识。

问题陈述

与所有问题一样,最好首先了解我们想要实现的目标。Transformer 中的自注意力机制用于理解序列中 token 之间的关系。自注意力是一种集合运算,这意味着它是置换等变的。如果我们不利用位置信息来丰富自注意力,就无法确定许多重要的关系。

举例说明最能说明这一点。

考虑一下这个句子,其中同一个单词出现在不同的位置:

「这只狗追赶另一只狗」

直观地看,「狗」指的是两个不同的实体。如果我们首先对它们进行 token 化,映射到 Llama 3.2 1B 的真实 token 嵌入,并将它们传递给 torch.nn.MultiheadAttention ,会发生什么。

import torchimport torch.nn as nnfrom transformers import AutoTokenizer, AutoModelmodel_id = "meta-llama/Llama-3.2-1B"tok = AutoTokenizer.from_pretrained(model_id)model = AutoModel.from_pretrained(model_id)text = "The dog chased another dog"tokens = tok(text, return_tensors="pt")["input_ids"]embeddings = model.embed_tokens(tokens)hdim = embeddings.shape[-1]W_q = nn.Linear(hdim, hdim, bias=False)W_k = nn.Linear(hdim, hdim, bias=False)W_v = nn.Linear(hdim, hdim, bias=False)mha = nn.MultiheadAttention(embed_dim=hdim, num_heads=4, batch_first=True)with torch.no_grad(): for param in mha.parameters(): nn.init.normal_(param, std=0.1) # Initialize weights to be non-negligibleoutput, _ = mha(W_q(embeddings), W_k(embeddings), W_v(embeddings))dog1_out = output[0, 2]dog2_out = output[0, 5]print(f"Dog output identical?: {torch.allclose(dog1_out, dog2_out, atol=1e-6)}") #True

可以看到,如果没有任何位置信息,那么(多头)自注意力运算的输出对于不同位置的相同 token 是相同的,尽管这些 token 显然代表不同的实体。

让我们开始设计一种利用位置信息增强自注意力的方法,以便它可以确定按位置编码的单词之间的关系。

为了理解和设计最佳编码方案,让我们探讨一下这种方案应具备的一些理想特性。

理想特性

属性 1 :每个位置的唯一编码(跨序列)

每个位置都需要一个无论序列长度如何都保持一致的唯一编码 - 无论当前序列的长度是 10 还是 10,000,位置 5 处的标记都应该具有相同的编码。

属性 2 :两个编码位置之间的线性关系

位置之间的关系在数学上应该是简单的。如果知道位置 p 的编码,那么计算位置 p+k 的编码就应该很简单,这样模型就能更容易地学习位置模式。

如果你想一想如何在数线上表示数字,就不难理解 5 距离 3 是 2 步,或者 10 距离 15 是 5 步。同样的直观关系也应该存在于编码中。

属性 3:可泛化到比训练中遇到的序列更长的序列上

为了提高模型在现实世界中的实用性,它们应该在训练分布之外泛化。因此,编码方案需要有足够的适应性,以处理意想不到的输入长度,同时又不违反任何其他理想特性。

属性 4:由模型可以学习确定性过程生成

如果位置编码能从一个确定的过程中产生,那将是最理想的。这样,模型就能有效地学习编码方案背后的机制。

属性 5:可扩展至多个维度

随着多模态模型成为常态,位置编码方案必须能够自然地从 1D 扩展到 nD。这将使模型能够使用像图像或脑部扫描这样的数据,它们分别是 2D 和 4D 的。



整数位置编码

我们首先想到的方法是将 token 位置的整数值添加到 token 嵌入的每个分量中,取值范围为 0→L,其中 L 是当前序列的长度。

IntegerEncoding



在上面的动画中,我们为索引中的 token 创建了位置编码向量,并将其添加到 token 嵌入中。这里的嵌入值是 Llama 3.2 1B 中真实值的子集。可以观察到,这些值都集中在 0 附近。这样可以避免在训练过程中出现梯度消失或爆炸的情况,因此,我们希望在整个模型中都能保持这种情况。

很明显,目前的方法会带来问题,位置值的大小远远超过了输入的实际值。这意味着信噪比非常低,模型很难从位置信息中分离出语义信息。



有没有更好的方法来确保我们的数字介于 0 和 1 之间呢?如果我们认真思考一段时间,也许会想到将十进制数转换为二进制数。

二进制位置编码

我们可以将其转换为二进制表示法,并将我们的值(可能已归一化)与嵌入维度相匹配,而不是将我们的(可能已归一化的)整数位置添加到嵌入的每个分量中,如下图所示。

BinaryEncoding



我们将感兴趣的位置(252)转换为二进制表示(11111100),并将每一位添加到 token 嵌入的相应组件中。最小有效位(LSB)将在每个后续标记的 0 和 1 之间循环,而最大有效位(MSB)将每 2^(n-1) 个 token 循环一次,其中 n 是位数。你可以在下面的动画中看到不同索引的位置编码向量。



我们已经解决了数值范围的问题,现在我们有了在不同序列长度上保持一致的唯一编码。如果我们绘制 token 嵌入的低维版本,并可视化不同值的二进制位置向量的加法,会发生什么情况呢?

可以看到,结果非常「跳跃」(正如我们对二进制离散性的预期)。优化过程喜欢平滑、连续和可预测的变化。那么有哪些具有类似取值范围的函数是平滑连续的吗?

如果我们稍加留意,就会发现 sin 和 cos 都符合要求!

正弦位置编码



上面的动画形象地展示了我们的位置嵌入,如果每个分量都是由波长逐渐增加的 sin 和 cos 交替绘制而成。如果将其与之前的动画进行比较,你会发现两者有惊人的相似之处。

现在,我们已经掌握了正弦波嵌入的方法,这最初是在《Attention is all you need》论文中定义的。让我们来看看方程式:



其中,pos 是词块位置索引,i 是位置编码向量中的分量索引,d 是模型维度。10,000 是基本波长(下文简称为 θ),我们根据分量索引的函数对其进行拉伸或压缩。我鼓励大家输入一些实际值来感受这种几何级数。

这个等式有几个部分乍看之下令人困惑。作者是如何选择 10,00 的?为什么偶数和奇数位置分别使用 sin 和 cos?



考虑一串正弦和余弦对,每对都与频率 ω_i 相关联。我们的目标是找到一个线性变换矩阵 M,它能将这些正弦函数移动一个固定的偏移量 k:



频率 ω_i 随维度指数 i 递减,其几何级数为:



要找到这个变换矩阵,我们可以将其表示为一个包含未知系数 u_1、v_1、u_2 和 v_2 的一般 2×2 矩阵:



根据三角加法定理,我们可以将右边的公式扩展为:



通过匹配系数,此展开式为我们提供了两个方程的系统:



通过比较两边的 sin (ω_ip) 和 cos (ω_ip) 项,我们可以解出未知系数:



这些解决方案为我们提供了最终的变换矩阵 M_k:



如果你以前做过游戏编程,你可能会发现我们的推导结果非常熟悉。没错,这就是旋转矩阵。

因此,早在 2017 年,Noam Shazeer 在《Attention is all you need》论文中设计的编码方案就已经将相对位置编码为旋转。从正弦编码到 RoPE 又花了 4 年时间,尽管旋转已经摆在桌面上......

绝对 vs 相对位置编码

在了解了旋转在这里的重要性之后,让我们回到我们的激励样本,尝试为下一次迭代发现一些直觉。



在上面,我们可以看到 token 的绝对位置,以及从 chased 到其他 token 的相对位置。通过正弦编码,我们生成了一个单独的向量来表示绝对位置,并使用一些三角函数技巧来编码相对位置。

当我们试图理解这些句子时,这个单词是这篇博文的第 2149 个单词重要吗?还是我们关心它与周围单词的关系?一个单词的绝对位置对其意义来说很少重要,重要的是单词之间的关系。

上下文中的位置编码

从这一点出发,在自注意力的背景下考虑位置编码是关键。重申一下,自注意力机制使模型能够衡量输入序列中不同元素的重要性,并动态调整它们对输出的影响。



在我们以前的迭代中,我们已经生成了一个单独的位置编码向量,并在 Q、 K 和 V 投影之前将其添加到我们的 token 嵌入中。通过将位置信息直接添加到 token 嵌入中,我们正在用位置信息污染语义信息。我们应该尝试在不修改规范的情况下对信息进行编码。转向乘法是关键。

使用字典类比,当查找一个词 (查询) 在我们的字典 (键) ,附近的词应该比遥远的词有更多的影响。一个 token 对另一个 token 的影响是由 QK^T 点积决定的 —— 所以这正是我们应该关注位置编码的地方。



上面显示的点乘的几何解释给了我们一个洞察:我们可以通过增加或减小两个向量之间的夹角来调整我们的两个向量的点积的结果。此外,通过旋转向量,我们对向量的范数完全没有影响,这个范数编码了我们 token 的语义信息。

因此,现在我们知道注意力集中在哪里,并且从另一个角度看到了为什么旋转可能是一个合理的「通道」,在其中编码我们的位置信息,让我们把它们放在一起。

旋转位置编码

RoForm 的论文中定义了旋转位置编码或 RoPE (苏剑林在他的博客中独立设计了它)。如果你直接跳到最终结果,这看起来像是巫术,通过在自注意力 (更具体地说是点积) 的背景下思考正弦编码,我们可以看到它是如何整合在一起的。

就像在 Sinusoidal Encoding 一样,我们把向量 (q 或 k,而不是预先投影 x) 分解成 2D 对 / 块。我们没有直接编码绝对位置,而是加入一个我们从频率缓慢递减的正弦函数中提取的矢量,我们切入 chase,通过将每对旋转矩阵相乘来编码相对位置。

设 q 或 k 是位置为 p 的输入向量。我们创建了一个块对角矩阵,其中 M_i 是该组件对所需旋转的对应旋转矩阵:



与正弦编码非常相似,M_i 是简单的:





在实践中,我们不使用矩阵乘法来计算 RoPE,因为使用这样一个稀疏的矩阵会导致计算效率低下。相反,我们可以利用计算中的规则模式,将旋转直接应用于独立的元素对:



就是这样!通过巧妙地将我们的旋转应用于点积之前的 q 和 k 的 2D 块,并从加法转换为乘法,我们可以在评估中获得很大的性能提升。

将 RoPE 扩展到 n 维

我们已经探讨了 1D 情况下的 RoPE,这一点,我希望你已经获得了一个直观的理解,公认的非直观组成部分的 transformer。最后,让我们探索如何将其扩展到更高的维度,例如图像。



在 1D 情况下,我们通过从输入向量旋转一对值来编码相对位置 m-n。对于 2D 数据,我们需要编码水平和垂直的相对位置,比如 m-n 和 i-j 是独立的。RoPE 的优势在于它如何处理多个维度。我们没有尝试在一个旋转中编码所有位置信息,而是将同一维度内的组件配对并旋转它们,否则我们将混合使用 x 和 y 偏移量信息。通过独立处理每个维度,我们保持了空间的自然结构。这可以根据需要推广到任意多个维度!

位置编码的未来

RoPE 是位置编码的最终化身吗?DeepMind 最近的一篇论文(https://arxiv.org/pdf/2410.06205)深入分析了 RoPE,并强调了一些基本问题。

我预计未来会有一些突破,也许会从信号处理中获得灵感,比如小波或者分层实现。随着模型越来越多地被量化用于部署,我也希望在编码方案中看到一些创新,这些编码方案在低精度算术下仍然具有鲁棒性。

参考链接:https://fleetwood.dev/posts/you-could-have-designed-SOTA-positional-encoding

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
特朗普签字了!美国传出风声,中美关系大变,中方表态出人意料

特朗普签字了!美国传出风声,中美关系大变,中方表态出人意料

锦然苍穹
2025-03-13 14:40:13
韩娱地震!金秀贤金赛纶关系实锤,家属晒出女方16岁医院堕胎记录

韩娱地震!金秀贤金赛纶关系实锤,家属晒出女方16岁医院堕胎记录

白面书誏
2025-03-13 18:12:45
单场造4球!“圆神”安东尼全场表现:长途奔袭破门+助攻+两策动

单场造4球!“圆神”安东尼全场表现:长途奔袭破门+助攻+两策动

直播吧
2025-03-14 06:07:14
为什么劝中年男人“衣不塞裤腰、裤不紧身”?看55岁雷军就知道了

为什么劝中年男人“衣不塞裤腰、裤不紧身”?看55岁雷军就知道了

校长侃财
2025-03-10 10:03:36
中超接到通知!奥斯卡身份问题被查,归化失败非退籍、金钱问题

中超接到通知!奥斯卡身份问题被查,归化失败非退籍、金钱问题

小金体坛大视野
2025-03-14 09:30:03
实锤致敬小米!iPhone 17 Pro Max模具曝光

实锤致敬小米!iPhone 17 Pro Max模具曝光

泡泡网
2025-03-13 11:07:16
CBA最新消息!曝弗格常规赛报销,迪亚洛被罚,北控或换掉萨林杰

CBA最新消息!曝弗格常规赛报销,迪亚洛被罚,北控或换掉萨林杰

体坛瞎白话
2025-03-14 08:38:43
小杨阿姨感慨湾湾物价贵,一斤草莓850元,难怪大S当初要记账!

小杨阿姨感慨湾湾物价贵,一斤草莓850元,难怪大S当初要记账!

古希腊掌管月桂的神
2025-03-13 21:10:32
心理学有个词叫"蔡格尼克效应":让人对你念念不忘的底层逻辑

心理学有个词叫"蔡格尼克效应":让人对你念念不忘的底层逻辑

化作人间一帘梦
2025-03-11 13:00:46
罢免34:0,赖清德下台倒计时?蓝营主席也要换人,赵少康态度明确

罢免34:0,赖清德下台倒计时?蓝营主席也要换人,赵少康态度明确

史行途
2025-03-13 11:38:13
格陵兰议会选举结果出炉,独立派遥遥领先,美国这回要吃定丹麦了

格陵兰议会选举结果出炉,独立派遥遥领先,美国这回要吃定丹麦了

碳基生物关怀组织
2025-03-13 19:52:18
女老师穿“孕妇装”上课被举报,家长:薄如蝉翼,孩子上课都分心

女老师穿“孕妇装”上课被举报,家长:薄如蝉翼,孩子上课都分心

星辰生肖馆
2025-03-06 00:41:05
赵本山徒弟程野奶奶去世,葬礼豪华连办三天,杨树林吹唢呐太热闹

赵本山徒弟程野奶奶去世,葬礼豪华连办三天,杨树林吹唢呐太热闹

二月侃事
2025-03-13 14:39:02
毛主席晚年:如果蒋介石主动回来,我愿意亲自去机场接他

毛主席晚年:如果蒋介石主动回来,我愿意亲自去机场接他

历史小书生
2025-03-13 09:44:50
郑爽发长文回应生子传闻,和母亲游泳池玩水,美国网友爆她快生了

郑爽发长文回应生子传闻,和母亲游泳池玩水,美国网友爆她快生了

南城无双
2025-03-12 13:22:34
广东明确:不得强制购买!

广东明确:不得强制购买!

潮TV
2025-03-13 16:58:33
特朗普威胁普京:不签,我将搞垮俄经济!乌总司令:库尔斯克苏贾市被空袭,几乎全毁!波兰要求美国在波部署核武

特朗普威胁普京:不签,我将搞垮俄经济!乌总司令:库尔斯克苏贾市被空袭,几乎全毁!波兰要求美国在波部署核武

每日经济新闻
2025-03-13 16:59:11
新一代奥迪A6实车惊艳:连车标更新了!25款A6L最低28.4万抄底吗

新一代奥迪A6实车惊艳:连车标更新了!25款A6L最低28.4万抄底吗

蜗牛车志V
2025-03-13 14:41:10
果然是闷声发大财,都是“野”路子

果然是闷声发大财,都是“野”路子

东洲清
2025-03-13 16:39:30
看过马少骅扮演的邓小平后,叶帅之子打去电话:你认识老爷子?

看过马少骅扮演的邓小平后,叶帅之子打去电话:你认识老爷子?

红色先驱
2025-03-13 09:33:33
2025-03-14 10:59:00
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
10204文章数 142256关注度
往期回顾 全部

科技要闻

OpenAI游说白宫放宽监管 同时打压DeepSeek

头条要闻

俄军1天连下3城后普京就停火表态 泽连斯基:他在拖延

头条要闻

俄军1天连下3城后普京就停火表态 泽连斯基:他在拖延

体育要闻

被NBA淘汰的黄毛,要成58亿豪门赘婿了……

娱乐要闻

记者说还有金秀贤更劲爆的视频!

财经要闻

315调查|起底万元冲锋衣的售假产业链

汽车要闻

14.78-17.78万元 2025款新哈弗H5正式上市

态度原创

教育
艺术
手机
旅游
军事航空

教育要闻

中考数学求最值,需经换元、变形、配方才能求出答案

艺术要闻

故宫珍藏的墨迹《十七帖》,比拓本更精良,这才是地道的魏晋写法

手机要闻

苹果iPhone 16e蓝牙音频翻车 声音卡顿明显

旅游要闻

“小伙泰山陪爬年入30万”引热议 当事人回应:已考虑退出

军事要闻

普京:俄同意停火30天建议 或将与特朗普讨论落实问题

无障碍浏览 进入关怀版