Transformer算法
最后更新于
最后更新于
在机器学习的自然语言处理(Natural Language Processing)领域中,通常会遇到的问题场景被称作seq2seq。通俗地说,seq2seq指的就是输入为序列,输出也为序列的机器学习模型问题。
首先对于序列的输入,为了建模其中的时序关系,=把一定顺序的输入数据处理成多个输出和状态隐变量,这个阶段被称作encoder。
针对encoder的结果,需要将隐变量通过某种运算得到最终的输出结果,这个阶段被称作decoder。
在transformer提出之前,学者们普遍是采用rnn循环神经网络(包括lstm,gru等rnn的变体)用作encoding,attention机制用作decoding。
Transformer算法由Google团队在《Attention is all you need》中提出,提出用attention机制完全取代rnn的self-attention。由此构建的完整的transformer算法开始得到了广泛应用,除了解决seq2seq问题外还被拓展到了计算机视觉等非序列预测的领域。
本文也将主要结合《Attention is all you need》一文的内容进行介绍。
Attention机制的基本思想很简单,就是在decoding阶段为输入的信息赋予不同的权重。以一个中文到英文的翻译问题为例:
图中h1、h2、h3、h4分别表示从"机器学习"这四个词经过rnn等网络得到的四个隐变量。α表示h1-h4对输出的贡献权重。
从常识出发我们会知道,"machine"一词与"机器"两个字相关,因此从"机器"两个字encode得到的h1、h2这两个隐变量对于"learning"这个词的影响自然比较小,而h3、h4的权重则比较大。
因此如果合理设计网络,模型应该能学习到上述结论,从而主要根据后两个字的输入来翻译后一个输出词语,得到状态c1,进而得到正确的翻译结果。
一般来说会将attention机制分解为下图所示的结构:
Query对应前一张图的输出状态z0、z1,key和value相同都是指h1、h2、h3、h4。模型根据Query和key进行匹配计算权重α,再使用α和value得到输出结果。即:
Attention(Q, K, V) = softmax( sim(Q, K) ) V
实际运用中,在计算α权重的sim函数以及后续输出的网络结构上还有更多复杂的选择,在此不做赘述。
开头说过,Transformer和传统rnn_based attention模型最大的不同在于将rnn从encoder中移除,使用attention同时完成encoding和decoding两个工作。其总体框架图如下所示,左侧为encoder右侧为decoder。
可以看到图中主体结构是三个Multi-Head Attention。如果原本的Attention产生的是n_embd长度的vector,那么Multi-Head其实就是将n_head个Attention结果concat起来产生n_head*n_embd大小的vector,以提高其鲁棒性。
MultiHead(Q, K, V) = Concat(head1, head2, ... , headh)W^O
headi = Attention(Q·WQ, K·WK, V·WV)
其中的每一个Attention模块采用的是scaled dot-product的计算方法,该方法被作者实验证明是最佳实践。
Attention(Q, K, V) = softmax( (Q·KT) / (√dk) ) · V
Python简单实现如下(PyTorch):
我们已经在前文说明了在decoding部分的Attention使用encoder结果作为K和V,输出状态作为Q。而在encoding部分的Q、K、V是相同的均为输入值。这种计算被称为self-attention
Attention(x, x, x)
直观地理解,对"I love my family"这句话中的"love"位置进行self attention计算时,实际上考虑到了句子中其他三个词对其的影响权重。
根据实际情形,有时还需要对输入进行mask处理,比如在decoder部分的输入中我们认为后面的词语对前面的词语不会有影响,因此需要将排在"love"后面的词语权重人为设置为0。这就是图中右下角所写Masked Multi-head Attention的含义。
由于放弃了rnn结构,在decoder层还需要添加额外的操作以表达输入的顺序信息,这样我们的输入才会是"I love my family"而不是"family love I my"这样畸形的句子。此处引入了位置编码(positional embedding)的思想。
首先对于长度为length的句子,构造一个从0~length-1的Tensor
然后将其输入到一个embedding层中,这个embedding层会将编号为0到最大窗口大小的序号值映射到n_embds的空间里。
这种做法其实有一定局限性,即对句子长度有所限制,当我们的输入非常长的句子时,使用网络来进行embedding就不是很可取。因此作者提出了另一种直接利用不同频率的cos/sim函数来直接计算位置编码的做法,经实验验证效果与embedding一致。
计算效率的提升。在encoder部分用大量可并行的矩阵运算取代了必须线性按顺序计算的rnn,大大提高了模型运行的效率。
可解释性的提升。在附录中,论文作者给出的例子显示,对于那些在语义上类似或者有联系的词语,Transformer能够在计算self-attention时训练出较高的权重,可以利用这一点提高模型的解释性。这种特点也在图像等领域得到了验证。
效果优秀。这一点当然也是一个算法得到广泛应用的前提。除了NLP,在推荐、视频等涉及sequence的研究中Transformer都得到了广泛应用。即使是在图像等与序列毫无关联的领域,人们都发现了self-attention机制优越的表示能力能为模型带来提升。
```