头图
写在前面

之前一直对自注意力机制不太理解,现在突然悟了,可能还是没有理解,但先记录下,万一是正确的呢,欢迎大家的批评指正!

  1. 首先是自注意力机制的实现代码

    import torch
    import torch.nn as nn
    
    class SelfAttention(nn.Module):
     def __init__(self, input_dim):
         super(SelfAttention, self).__init__()
         
         self.query_transform = nn.Linear(input_dim, input_dim)
         self.key_transform = nn.Linear(input_dim, input_dim)
         self.value_transform = nn.Linear(input_dim, input_dim)
         
     def forward(self, x):
         batch_size, seq_len, input_dim = x.size()
         
         # 将输入序列映射到查询、键和值
         queries = self.query_transform(x)
         keys = self.key_transform(x)
         values = self.value_transform(x)
         
         # 计算相似度得分
         scores = torch.bmm(queries, keys.transpose(1, 2))  # 点积计算得分
         
         # 归一化得分
         attention_weights = torch.softmax(scores, dim=2)
         
         # 加权求和得到自注意力表示
         weighted_values = torch.bmm(attention_weights, values)
         
         return weighted_values
    
    # 示例用法
    input_dim = 64  # 输入维度
    seq_len = 10  # 序列长度
    batch_size = 32  # 批量大小
    
    # 创建自注意力层
    self_attention = SelfAttention(input_dim)
    
    # 创建输入数据
    input_data = torch.randn(batch_size, seq_len, input_dim)
    
    # 前向传播计算自注意力表示
    output = self_attention(input_data)
  2. 从代码可以看出有keys、values、queries,怎么理解,这是我问chatgpt得到的回答:

    在自注意力机制中,值(values)、键(keys)和查询(queries)是三个重要的组成部分,用于构建每个位置的表示和计算注意力权重。

    1. 值(Values):值是原始序列中每个位置的表示或特征。在自注意力机制中,通过将原始输入序列经过线性变换映射得到值。值表示的是原始序列中每个位置的信息,可以看作是每个位置的特征向量。
    2. 键(Keys):键用于衡量查询与值之间的相似度。与值类似,键也是通过线性变换将原始输入序列映射得到的。键是用来与查询进行相似度计算的重要组成部分。
    3. 查询(Queries):查询是用于计算注意力权重的参考向量。查询也是通过线性变换将原始输入序列映射得到的。查询向量可以被看作是关注某个位置或特征的“问题”。查询的目的是通过与键进行相似度计算来确定每个位置的重要性或权重。

    在自注意力机制的计算过程中,查询会与所有键进行相似度计算,生成一个相似度得分矩阵。这个得分矩阵会通过归一化操作转化为注意力权重,然后将这些权重与对应的值进行加权求和,生成每个位置的加权表示。通过值、键和查询,自注意力机制允许模型在处理序列中的每个位置时,根据其他位置的信息来赋予不同位置的权重。这种机制使得模型能够动态地聚焦于不同位置的重要信息,并构建出每个位置的表示。

  3. 还是有点抽象,一个很简单的例子,我问chatgpt:

我问:

也就是说,有三个字“早上好”,每个字都用一个词向量表示,
在这个词向量中,选定一个位置作为查询,其他的位置作为键,
通过计算“查询”和每个“键”的关系,得出该查询和其他键的相关程度?

chatgpt答:

是的,您理解得非常正确。    
在这个例子中,假设有一个序列 "早上好",每个字都用一个词向量来表示。
对于自注意力机制,可以将每个字的词向量视为序列中每个位置的值(value)。
在计算自注意力时,选择一个位置的词向量作为查询(query),而其他位置的词向量作为键(keys)。
然后,通过计算查询与每个键之间的相似度得分,可以确定查询与其他键的相关程度。

例如,假设选择第二个字 "上" 的词向量作为查询,而其他的词向量("早"、"好")作为键。
通过计算查询和每个键之间的相似度得分,可以获得查询与其他键的相关程度。
这些得分可以用于计算注意力权重,并将权重与对应的值进行加权求和,得到每个位置的加权表示。
这样,自注意力机制可以根据查询和键之间的相似度,动态地计算出每个位置的注意力权重,从而捕捉到序列中不同位置之间的相关关系。
  1. 画个图说明下:
    自注意力机制的理解

自由自在像小鸟
4 声望1 粉丝

« 上一篇
os.walk()的理解