赞
踩
本文主要介绍4种位置编码,分别是NLP发源的transformer、ViT、Sw-Transformer、MAE的Position Embedding
使用的是1d的绝对位置编码,使用sin+cos将每个token编码为一个向量【硬编码】
Attention Is All You Need
在语言中,单词的顺序及其在句子中的位置非常重要。 如果重新排列单词,整个句子的意思可能会发生变化。 因此,位置信息被明确地添加到模型中,以保留有关句子中单词顺序的信息。
位置编码描述了序列中每个单词(token)的位置或位置,以便为每个位置分配一个唯一的表示。 不使用单个数字(例如索引值)来表示位置的原因有很多。 对于长序列,索引的幅度可能会变大, 如果将索引值规范化为介于 0 和 1 之间,则可能会为可变长度序列带来问题,因为它们的规范化方式不同。
Transformers 将每个单词的位置都映射到一个向量。 因此,一个句子的位置编码是一个矩阵,其中矩阵的每一行代表序列中的一个token与其位置信息相加。 下图显示了仅对位置信息进行编码的矩阵示例:
1D absolute sincos constant position embedding 位置编码的计算公式:
让我们以 n=100 和 d=4 的短语“I am a robot”为例。
这样就将每个单词的position映射到一个4维度的张量中了,并且每个单词对应的张量是不同的
一个简单的实现:
- import torch
-
- # Section : 1. 1D absolute sincos constant position embedding
- def create_1d_absolute_sincos_embedding(n_pos_vec, dim):
- # n_pos_vec: torch.arange(n_pos, dtype=torch.float)
- # dim: torch.arange(dim)
- assert dim % 2 == 0, "dim must be even"
- # 常数初始化一下position_embedding
- position_embedding = torch.zeros(n_pos_vec.numel(), dim, dtype=torch.float)
- # 完成指数部分的初始化
- omege = torch.arange(dim // 2, dtype=torch.float)
- omege /= dim / 2.
- omege = 1./(100 ** omege)
- # 扩充列向量和行向量:行数为pos, 列数为dim/2
- out = n_pos_vec[:, None] @ omege[None, :]
- emb_sin = torch.sin(out)
- emb_cos = torch.cos(out)
- # 交替填充:偶数列为sin, 奇数列为cos
- position_embedding[:, 0::2] = emb_sin
- position_embedding[:, 1::2] = emb_cos
-
- return position_embedding
-
- if __name__ == "__main__":
- n_pos = 4
- dim = 4
- n_pos_vec = torch.arange(n_pos, dtype=torch.float)
- position_embedding = create_1d_absolute_sincos_embedding(n_pos_vec, dim)
- print(position_embedding.shape)
- print(position_embedding)
输出:
使用的是1d的绝对位置编码,但是这个位置编码是可训练的(可学习的)。【软编码】
其实我感觉这种软编码,相对于硬编码来说不是很好,因为它并没有将位置的归纳偏置给模型,这种方式更像是增加了模型参数量的感觉。
【ICLR 2021】An Image is Worth 16x16 Words + Transformers for Image Recognition at Scale
- import torch
- import torch.nn as nn
-
- # Section : 2. 1D absolute trainable position embedding
- def create_1d_absolute_trainable_embedding(n_pos_vec, dim):
- # 创建一个n_pos_vec * dim维度的绝对位置编码的embedding,这个embedding是可以训练的。【与torch.nn.Parameter()用法有一些类似】
- position_embedding = nn.Embedding(n_pos_vec.numel(), dim)
- # 初始化嵌入层的权重为0
- nn.init.constant_(position_embedding.weight, 0)
- return position_embedding
-
- if __name__ == "__main__":
- n_pos = 3
- dim = 4
- n_pos_vec = torch.arange(n_pos, dtype=torch.float)
- position_embedding = create_1d_absolute_trainable_embedding(n_pos_vec, dim)
- print(position_embedding)
# TODO:待更新...懒得写了,大概你知道PE的意思就行了
transformer计算位置编码的过程示例_哔哩哔哩_bilibili
46、四种Position Embedding的原理与PyTorch手写逐行实现(Transformer/ViT/Swin-T/MAE)_哔哩哔哩_bilibili
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。