购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

2.1 Transformer

Transformer模型是深度学习,尤其是自然语言处理(NLP)领域的一次重大突破。自2017年Google的开创性论文“Attention is all you need”发表以来,Transformer已经成为许多深度学习应用的核心架构。

从概念上看,Transformer模型可以被视为一个“黑盒子”,以机器翻译任务为例,它能够接收某种语言的输入文本,并输出对应语言的翻译版本,流程如图2-1所示。

从内部结构来看,Transformer由编码器(encoder)和解码器(decoder)两大部分构成。这两部分在原始的“Attention is all you need”论文中各包含6个模块,但在实际应用中,这个数字可以根据具体任务进行调整。图2-2展示了编码器-解码器的结构。

图2-1 机器翻译流程

图2-2 编码器-解码器结构

以机器翻译为例,Transformer的工作流程大致分为以下几个步骤:

1)获取句子中每个单词的表示向量 X X 可以通过词嵌入(embedding)得到。 X 中包含单词数据特征和位置信息特征,图2-3展示了词嵌入的表示过程,如果以简单的框来表示向量,则每个单词都可以被表示为一个高维向量,最终的输入句子被表示为一个词向量矩阵。

2)将得到的词向量矩阵传入编码器部分,每个单词的词向量都会经过编码块,在经过6个编码块后可以得到编码矩阵 C ,图2-4展示的是编码器部分的工作流。单词向量矩阵表示为 X n × d n 代表输入语句中的单词个数, d 代表向量的维度,论文中 d =512。

图2-3 词嵌入表示

图2-4 编码器部分

3)解码器部分也由6个完全相同的解码块堆叠而成,解码时,解码块会接收编码器部分输出的编码矩阵 C 和上一个解码块的输出,即解码层会根据当前词 i i 之前的词信息翻译下一个单词 i +1。如图2-5所示,在实际的执行过程中, i +1位置后的单词需要被掩盖掉以防止 i +1知道后面的信息。

如图2-6所示,Transformer的核心结构由词嵌入、编码器、解码器、输出生成四个部分组成,下面分别进行介绍。

图2-5 解码器部分

图2-6 Transformer的核心结构

2.1.1 词嵌入

Transformer中输入单词的词嵌入包含单词编码和位置编码。单词编码用于编码单词的语义,位置编码用于编码单词的位置,如图2-7所示。

图2-7 词嵌入

1.单词编码

单词编码(word embedding)是一种以数字方式表示句子中单词的方法,该方法用来表示单词语义特征。这里介绍三种编码方式:神经网络编码、词向量编码和全局词向量表示。

(1)神经网络编码

基于神经网络语言模型(Neural Network Language Model,NNLM)的编码方式最早由Bengio等人提出,它用于解决统计语言模型(如N-Gram模型)中常见的维度灾难问题。该方法是训练一个神经网络,在训练中,每个参与训练的句子告诉模型有哪些单词在语义上相近,最终模型为每个单词生成一种分布式表示,这种表示能够捕捉并保留单词的语义和句法关系。

Bengio的神经网络主要由三个部分组成:一个词嵌入层,用于生成词嵌入表示,且单词之间参数共享;一个或多个隐藏层,用于生成词嵌入的非线性关系;一个激活层,用于生成整个词汇表中每个单词的概率分布。具体如图2-8所示。

该网络使用损失函数在反向传播过程中更新参数,并尝试找到单词之间相对较好的依赖关系,同时保留语义和句法属性。下面通过简单的代码来理解其训练过程。

1)单词索引。对单词建立索引,句子中的每个单词都会被分配一个数字。

图2-8 神经网络编码

2)构建模型。

在该过程中,首先初始化词嵌入层。词嵌入层相当于一个查找表,被索引表示的单词通过词嵌入层,然后再通过第一个隐藏层并与偏置量求和,求和结果传递给tanh函数。最后计算输出,代码如下。

3)损失函数。这里使用交叉熵损失函数,并将模型输出传递给softmax函数获得单词的概率分布。

4)进行训练。经过训练最终得到单词的编码结果。

(2)词向量编码

词向量(Word2vector)模型由Mikolov等人在2013年提出,它比Bengio的神经网络语言模型的复杂性更小。词向量模型可以在更大的数据集中训练,但缺点是如果数据较少,就无法像神经网络语言模型那样精确地表征数据。词向量模型包含两种模式:词袋(Bag-of-Words)模型和跳跃(Skip-gram)模型。

词袋模型又称为CBOW模型(见图2-9),它基于目标词前后的 n 个单词来预测目标单词。假设句子为:“她正在踢毽子”,我们以“踢”作为目标词,取 n =2,那么[正,在,毽,子]等前后单词及目标单词踢将被一起输入给模型。CBOW模型通过计算log 2 V 来降低计算词表中单词分布概率的复杂性, V 代表词汇表大小。该模型速度更快,效率更高。

图2-9 CBOW模型

同样的,我们通过代码来理解CBOW模型,其训练过程如下:

1)定义一个窗口函数,该函数提取目标单词的左、右各 n 个单词。

上述CBOW函数包含两个输入参数:数据和窗口大小。窗口大小定义了应该从单词左侧和右侧提取多少个单词。for循环首先定义了句子中迭代的开始索引和结束索引,即从句子中的第3个单词开始到倒数第3个单词结束。在循环内部将窗口提取到的单词和目标单词存储在列表中。例如,给定句子为:“她正在踢毽子”,CBOW模型的窗口大小为2,此时窗口提取的单词为“正”“在”“毽”和“子”,目标单词是“踢”,当i=2(窗口大小)时,代码如下。

执行CBOW函数:

上述输出为:

2)构造模型。CBOW模型只包含一个词嵌入层、一个经过ReLU层的隐藏层和一个输出层。代码如下:

该模型非常简单,单词索引输入词嵌入层,之后经过隐藏层,隐藏层输出经过一个非线性层ReLU之后经过输出层得到最终结果。

3)损失函数。与神经网络语言模型一样,我们采用交叉熵损失函数。优化器选择随机梯度下降,代码如下:

4)训练模型。训练代码与神经网络语言模型的代码一致,具体如下:

最终将语句单词转化为数字序列。

对比词向量模型,跳跃模型是基于目标单词来预测目标单词的上下邻近单词。假设目标单词 n =2,同样以句子“她正在踢毽子”为例,单词“踢”将被输入模型用于预测目标单词("正","在","毽","子")。其结构如图2-10所示。

图2-10 跳跃模型

跳跃模型与词袋模型类似,不同点在于创建上下文和目标单词。其训练过程如下:

1)设置目标单词和上下文变量。由于跳跃模型只需要一个上下文单词和 n 个目标单词变量,因此只需要反转CBOW模型的代码,如下:

2)构建模型。

3)损失函数和优化器。

4)训练模型。

相比词袋模型,跳跃模型增加了计算的复杂性,因为它必须根据一定数量的相邻单词来预测邻近单词。在实际的语句中,距离较远的单词相关性往往比较差。

(3)全局词向量表示

全局词向量表示(Global Vectors for Word Representation,GloVe)是一种基于全局信息来获得词向量的方法。该方法使用了语料库的全局统计特征,也使用了局部的上下文特征,GloVe通过引入共现矩阵(Co-occurrence Probabilities Matrix)来表征。

定义词到词的共现矩阵为 X X ij 代表单词 j 出现在单词 i 的上下文中的次数。 X i k X ik 表示出现在单词 i 的上下文的词的总数。 P ij = P j | i )= X ij / X i 表示单词 j 出现在单词 i 的上下文中的概率。

定义词 i j 与词 k 的共现概率为 ,词与词之间的关系可以通过共现概率体现,即如果词 k 与词 i 相近,与词 j 较远,则希望 越大越好,如果词 k 与词 j 相近,与词 i 较远,则希望 越小越好,如果词 k 与词 i 和词 j 都相近或都较远,则 趋近于1,具体如表2-1所示。

表2-1 共现概率

共现概率既很好地区分了相关词和不相关词,又反映了相关词的关联程度。GloVe模型就是基于该共现概率的信息构建的,其核心目标是为每一个词生成一个词向量,这样词向量就能映射出词与词之间的共现概率,以此捕捉它们的语义关系。假设定义GloVe模型为 F ,则上述共现概率可以使用如下公式来表示:

其中, w R d 代表词向量, w R d 代表上文词向量。我们希望模型 F 在向量空间能够表征共现概率信息,考虑向量空间的线性关系,只需要计算 F 中词向量的差异,考虑关系对称性对上述公式进一步优化:

其中, ,令 F =exp,则有:

由于log( X i )相对独立,令 b i =log( X i ),添加偏置 ,则有:

该值反映了词 i k 之间的相关性,这里的 w b 构成了嵌入矩阵。

综上,单词词嵌入编码方法的特点如下:

❍神经网络语言模型的性能优于早期的统计模型,例如n-gram模型。

❍神经网络语言模型解决了维度灾难问题,并通过其分布式表示保留了上下文语义和句法属性,但计算成本很高。

❍词向量模型降低了计算复杂性,比神经网络语言模型效率更高,它可以在大量数据上进行训练,用高维向量表示。

❍词向量模型有两种:词袋模型和跳跃模型。前者比后者运算更快。

❍GloVe纳入了全局信息但无法解决一词多义和陌生词问题。

2.位置编码

位置编码(Position Embedding)用来表示句子中单词的位置,且每个位置被赋予唯一的表示。如图2-11所示,位置编码要满足以下特点:编码值可以表示单词在句子中的绝对位置,且是有界的;句子长度不一致时单词间的相对位置距离也要保持一致;可以表示从未见过的句子长度。

图2-11 位置编码矩阵

Transformer使用正余弦函数来进行位置编码。其公式如下:

其中,pos表示单词在句子中的位置, d 表示PE的维度(与单词编码一样),2 i 表示偶数的维度,2 i +1表示奇数维度(即2 i d , 2 i +1≤ d )。使用这种公式计算PE有以下的好处:

❍能够适应比训练集中所有句子更长的句子。假设训练集中最长的句子有20个单词,此时有一个长度为21的句子,则使用公式计算的方法可以计算出第21位的编码。

❍能够较容易地计算出相对位置。对于固定长度的间距 k ,PE(pos+ k )可以用PE(pos)计算得到。

接下来通过代码来理解位置编码,为了更容易理解,我们对代码进行了简化。

我们来看一下 n =10000和 d =512的不同位置正弦曲线。

上述代码的输出结果如图2-12所示。

图2-12 不同位置正弦曲线

可以看到,每个位置 k 对应于不同的正弦曲线,它将位置编码为向量。波长函数如下:

λ i =2π n 2 i / d

即正弦曲线的波长形成几何级数,并且变化范围为2π到2π n ,该方案的优点如下。

❍正弦和余弦函数的值在[-1,1]范围内,即编码值是有界的。

❍由于每个位置的正弦曲线不同,因此可以采用独特的方式对每个位置进行编码,即每个位置的编码都是唯一的。

❍基于正余弦变化可以测量或量化不同位置之间的相似性,从而能够对单词的相对位置进行编码。

进一步地,通过Matplotlib来可视化位置矩阵,如图2-13所示。

图2-13 n =10000、 d =512、序列长度=100的位置编码矩阵

综上,我们将整个句子所有单词的位置编码向量与单词编码向量相加得到输出矩阵。整个流程如图2-14所示。

图2-14 Transformer词嵌入过程

2.1.2 编码器

如图2-15所示,编码器由多头注意力、加法和归一化、前馈层组成。

1.多头注意力

在介绍多头注意力之前,首先介绍下自注意力。

自注意力是机器学习使用的一种学习机制,它属于仿生学的一种应用,即人类会把注意力放在重点关注的信息上。在自然语言处理任务中,自注意力用于捕获输入序列内的依赖性和关系,它让模型通过关注自身来识别和权衡输入序列不同部分的重要性。在编码器中,自注意力的输入参数有三个:查询(query)、键(key)、值(value),如图2-16所示。

图2-15 编码器结构

图2-16 自注意力的输入参数

这三个参数在结构上很相似,都是被参数化的向量。每个单词的词嵌入向量都由这三个矩阵向量来表征,帮助计算机理解和处理句子中单词之间的关系。这三个矩阵向量的作用各不相同。

1)查询:该矩阵表示正在评估其上下文的目标单词。系统通过使用查询矩阵转换该目标单词的表示形式,生成一个查询向量。此查询向量用于衡量其与句子中其他单词的关联度。

2)键:该矩阵用于生成句子中每个单词对应的键向量。通过对每个键向量和目标单词的查询向量进行比较,计算得出目标单词与句子中其他词之间的相关性。查询向量和关键向量之间的相似度分数越高,表示相应单词之间的关系越紧密。

3)值:该矩阵用于生成句子中所有单词的值向量。这些向量保存每个单词的上下文信息。使用查询向量和键向量计算相似度分数后,系统计算值向量的加权和。每个值向量的权重由相似度分数确定,确保最终的上下文表示更多地受到相关单词的影响。

如图2-17所示,语句中单词“一”的查询矩阵向量 q 3 与所有词的键矩阵向量 k 进行计算,得到注意力得分 y 31 y 32 y 33 y 34 。之后分别与自身的值矩阵向量做乘积,得到每个词抽取信息完毕的向量,最后所有向量求和得到 z 3 ,即为单词“一”经过注意力后的结果,计算公式如下:

图2-17 自注意力计算过程

Transformer中的自注意力使用的是多头注意力,即通过组合多个类似的注意力计算给予了Transformer更大的辨别能力。图2-18所示的是多头注意力的结构。

缩放点积注意力的结构如图2-19所示,这是多头注意力的核心组成部分。

图2-18 多头注意力的结构

图2-19 缩放点积注意力的结构

在多头注意力中,查询、键和值分别通过单独的线性层,每个层都有自己的权重,产生三个结果,分别称为 Q K V 。然后在缩放点积注意力中基于注意力公式进行组合运算:

从而产生注意力分数,计算过程如图2-20所示。

在上述过程中, Q K V 携带了序列中每个单词的编码表示,之后注意力计算将每个单词与序列中的其他单词结合起来,以便注意力分数对序列中每个单词的分数进行编码。在该过程中提到了掩码。由于输入的序列可能具有不同的长度,因此我们需要使用填充标记对句子进行扩展对齐长度,以便可以将固定长度的向量输入Transformer中,这里的掩码主要是为了将填充部分的注意力输出为0,确保填充标记不会对注意力分数产生影响,掩码过程如图2-21所示。

2.加法和归一化

加法过程是一种残差机制,主要为了解决深层神经网络训练过程的不稳定性,即深度神经网络随着层数的增加,损失逐渐减小然后趋于稳定,继续增加层数损失反而增大的现象。简单来说就是用来防止梯度消失。

图2-20 多头注意力的计算过程

图2-21 掩码过程

归一化用来归一化参数,加快训练速度,提高训练的稳定性。

3.前馈层

前馈层作为注意力层后面的子层,由两个线性层或致密层构成。第一层的大小为(d_model,d_ffn),第二层的大小为(d_ffn,d_model)。Transformer中的前馈层公式如下:

FFN( x , W 1 , W 2 , b 1 , b 2 )=max(0, xW 1 + b 1 ) W 2 + b 2

即输入模型的 x 大小为(batch_size,seq_length,d_model。)因此输入将经过以下变换:(batch_size, seq_length, d_model)×(d_model, d_ffn)=(batch_size, seq_length, d_ffn)→max(0, (batch_size, seq_length, d_ffn))=(batch_size, seq_length, d_ffn)→(batch_size, seq_length, d_ffn)×(d_ffn, d_model)=(batch_size, seq_length, d_model)。

我们通过以下代码来理解这个过程。

2.1.3 解码器

如图2-22所示,解码器也由多头注意力、加法和归一化、前馈层组成,每个解码器包含两层多头注意力,这两个多头注意力与编码器中的多头注意力作用不同。

图2-22 解码器结构

1.掩码多头注意力

掩码多头注意力与编码器不一致的地方在于掩盖的步骤,此处的掩码过程主要为了防止解码器在预测下一个单词时“偷看”目标语句的其余部分,如图2-23所示。

图2-23 掩码多头注意力的掩码过程

2.多头注意力

解码器中的多头注意力与编码器中的主要区别在于,它的 K V 矩阵不是基于上一个解码器的输出计算而来的,而是来自编码器的输入,但 Q 矩阵还是根据解码器的输出计算得到的。计算过程与编码器中的一样,掩码步骤也与编码器的一致。

2.1.4 解码头

在图2-6中,解码器将输出传递给解码头,解码头将接收到的解码器输出向量映射为单词分数。词库中的每个单词在句子中的每个位置都会有一个分数。假设我们的最终输出的句子有4个词,词库中有1000个词,那么在这4个词的每个位置都会生成1000个分数,这些分数代表词库中每个词出现在句子中每个位置的可能性。之后这些分数将被送入softmax层,softmax将这些分数转换为概率(加起来为1.0)。在每个位置上,我们找到概率最高的单词的索引,然后将该索引映射到词汇表中相应的单词。最后,这些单词形成Transformer的输出序列。 Dw4nPPz2AHzg6uzI62tBFqVfql+OBSblPllrPABt+izRqhfqsy02wKKsOFVcXeNe

点击中间区域
呼出菜单
上一章
目录
下一章
×