在科学研究中,从方法论上来讲,都应“先见森林,再见树木”。当前,人工智能学术研究方兴未艾,技术迅猛发展,可谓万木争荣,日新月异。对于AI从业者来说,在广袤的知识森林中,系统梳理脉络,才能更好地把握趋势。为此,我们精选国内外优秀的综述文章,开辟“综述专栏”,敬请关注。
地址:https://zhuanlan.zhihu.com/p/108703757 这篇文章记录词向量的发展历程,包括tf-idf、word2vec、GloVe、ELMo、OpenAI GPT以及Bert,只记录个人认为比较核心的内容,以及一些值得思考的边角细节。 01
tf-idf是一种比较传统的文本表示方法,它首先为每个词计算出一个值,再组成向量来表示当前文档。它的大小等于词表数。首先tf是词频,也就是当前词在文档中出现的次数,通常会除以文档总词数来做归一化。idf的计算方法是log(语料库中总文档数 / 包含当前词的文档数),可见分子是固定值,idf将随着包含当前词的文档数的增加而减小,也就是说常见词的idf值会相对较小,而当前文档比较有代表性的词发挥更大的作用。tf-idf的缺点是它是词袋模型,无法考虑词的位置信息,上下文信息以及一些分布特征。 02
实际上tf-idf就是one-hot的一种优化,还是存在维度灾难以及语义鸿沟的问题。因此后来的工作着重于构建分布式低维稠密词向量。word2vec就是它们的开山之作。我们知道NNLM(语言模型)是一种自监督训练的模型,用上文来预测下一个词的概率,那么词向量就可以作为它的副产物学习到这种基于序列共现的语境信息。word2vec基于这种思想提出了更专注于词向量学习的模型(比如舍弃隐藏层),用滑动窗口来指定固定大小的上下文,试图用当前词来预测上下文(skip-gram)或用上下文来预测当前词(CBOW)。具体细节可以参考 这篇论文https://arxiv.org/pdf/1411.2738.pdf 。 用哈夫曼树来计算词的概率,每个词对应一个叶节点。非叶节点也各自对应一个向量,词的概率可由它到根节点的唯一路径来计算。 哈夫曼树的构造方法:将词表中的每个词看作只有一个结点的树,用词频来表示它们的权重。选择根节点权重最小的两棵树合并,合并后的父节点权重等于两个子结点之和。下面是一个例子:
为了保证概率相加等于1,在路径上采用sigmoid来计算向左或向右(n表示结点,v表示结点向量):
[[·]]是个1/-1函数,左子结点取1,右子结点取-1。再算cross entropy即可: 这样就代替了softmax,复杂度从O(N)变成O(log N)。 采样概率:在词频上取0.75次幂,减小词频差异带来的采样影响,即
是目标词, 是输入词。对于skip-gram, ,对于CBOW, 。 word2vec只能抽取局部特征,词的上下文信息局限于滑动窗口大小。 03
细节推荐 这篇博客https://blog.csdn.net/coderTC/article/details/73864097 。主要的几个步骤包括: GloVe指定特定大小的上下文窗口,通过滑动该窗口统计共现矩阵X(|V|*|V|), 表示中心词i与上下文词j的共现次数。 同时还定义了衰减函数,令距离为d的两个词在计数时乘以1/d。 作者发现可以用概率之比来建模共现关系。定义条件概率P:
表示词j出现在i上下文的概率。而用词k出现在i的上下文与它出现在j上下文的概率之比:
来表示i,j,k三个词之间的共现关系。当i,k和j,k相关程度近似时,该比率趋近于1;i,k相关度大于j,k相关度时该比率值较大,反之则较小。GloVe的目标就是使学习到的词向量满足这样的规律,既有自身上下文信息,又能和其它词联系起来。目标函数:
要同时满足三个词的约束关系,训练复杂度会变得很高。作者通过一系列变(硬)换(凑),把上式转换成了两个词的约束目标:
成为新的目标函数。然而这种内积计算方式具有对称性,为了避免这种错误的性质,作者继续变(硬)换(凑):
将 看作常数项,再添加一个偏置,目标函数最终形式为:
word2vec面向局部特征,基于滑动窗口,而GloVe综合了全局语料。 word2vec可以增量学习,而Glove是由固定语料计算的共现矩阵。 04
Fasttext最早其实是一个文本分类算法,后续加了一些改进来训练词向量。概括了几点: fasttext在输入时对每个词加入了n-gram特征,在输出时使用分层softmax加速训练。 fasttext将整篇文章的词向量求平均作为输入得到文档向量,用文本分类做有监督训练,对输出进行softmax回归,词向量为副产品。 fasttext也可以无监督训练词向量,与CBOW非常相似。 05
之前那些方法构造的都是独立于上下文的word embedding,也就是无论下游任务是什么,输入的embedding始终是固定的,这就无法解决一词多义,以及在不同语境下有不同表现的需求。所以后续的ELMo,GPT以及BERT都是针对于这类问题提出的,通过预训练和fine-tune两个阶段来构造context-dependent的词表示。 ELMo使用双向语言模型来进行预训练,用两个分开的双层LSTM作为encoder。biLM的loss是:
其中 是softmax层参数。 作者认为第一层学到的是句法信息,第二层学到的是语义信息。 这两层LSTM的隐状态以及初始的输入加权求和就得到当前词的embedding。 ELMo还设置了一个参数,不同的下游任务可以取特定的值,来控制ELMo词向量起到的作用。 总体来说第k个token得到的预训练embedding就是:
在面对具体下游任务时,首先固定biLM的参数得到一个词表示,再与上下文无关的词表示(word2vec,或者charCNN获得的表示)拼接作为模型输入,在反向传播时fine-tune所有参数。 biLM不同层的activation分布不同,在加权求和之前使用layer normalization有时会很有效。 增加dropout和L2正则化可能会有用,这对ELMo的权重提出了一个归纳偏差,使其接近所有biLM层的平均值。 在获得上下文无关词表示时,原文采用的方式是先用2048个charCNN卷积核做卷积,再过两层highway networks,然后用一个线性层把输出降到512维。 06
GPT和BERT与ELMo不同,ELMo使用LSTM作为编码器,而这两个用的是编码能力更强的Transformer。 GPT也是用语言模型进行大规模无监督预训练,但使用的是单向语言模型,也就是只根据上文来预测当前词。它实现的方式很直观,就是Transformer的decoder部分,只和前面的词计算self-attention来得到表示。在下游任务上,之前的ELMo相当于扩充了其它任务的embedding层,各个任务的上层结构各不相同,而GPT则不同,它要求所有下游任务都要完全与GPT的结构保持一致,只在输入输出形式上有所变化: 这是在NLP上第一次实现真正的端到端,不同的任务只需要定制不同的输入输出,无需构造内部结构。这样预训练学习到的语言学知识就能直接引入下游任务,相当于提供了先验知识。比如说人在做阅读理解时,先通读一遍全文再根据问题到文章中找回答,这些两阶段模型就类似这个过程。为了防止fine-tune时丢失预训练学到的语言知识,损失函数同时考虑下游任务loss(L_2)和语言模型loss(L_1):
用足够复杂的模型结构担任不同NLP任务的中间框架,启发了统一的端到端实现策略。 07
推荐 这篇博客https://jalammar.github.io/illustrated-bert/ (这位大佬的其它文章质量也超高,尤其Transformer那篇估计是好多人的入门必看) GPT虽然效果很好,但它在预训练时使用的是transformer的decoder部分,也就是单向语言模型,在计算attention时只能看见前面的内容,这样embedding获得的上下文信息就不完整。ELMo虽然是双向语言模型,但实际上是分开执行再组合loss,这就会带来一定的损失。 7.1 Bert预训练 与GPT不同的是,bert在预训练时除了语言模型loss以外,还增加了一个“next sentence prediction”任务,即两个句子组成sentence pair同时输入,预测第二句是否是第一个句子的下文,是一个二分类任务。 7.1.1 输入 每个位置的输入:
wordpiece-token 词向量,这里的wordpiece是将token拆分成子词。
position emb 位置向量
segment emb 句子标识,属于第一个句子则为0,第二个句子则为1
整体输入:[CLS] ; sent1 ; [SEP]; sent2 ;[SEP]
所谓双向LM,就是在预测当前词时同时考虑上文和下文,也就是
但LM是要逐词预测的,用这种概率计算方法会导致信息泄露,也就是当前词已经在之前的预测中作为下文而暴露了。作者由此提出了MASK策略,只选取15%的词进行预测,在输入时用[MASK]标记替代,而仍然以原词作为训练target。类似于阅读理解中的Cloze任务。当然,预测的词少了,模型收敛速度就会变慢,需要的训练step也要相应增加。
mask解决了信息泄露问题,但实际输入(也就是fine-tune阶段)不会包含这种标记,导致两阶段不一致,对训练效果产生影响。作者的解决方案是在这随机选取的15%词当中,80%的概率替换为[MASK],10%的概率替换成其它词(负采样) ,10%的概率保留原词。这样有一个好处是,模型不知道当前要预测的词是否被篡改了,迫使其更关注上下文,学习到上下文相关的表示,这正是我们的目的。
作者还在附录里给出了一个扩展实验,对比不同的预训练mask策略对后续结果的影响:
可以看到至少在这两个任务中,结果对不同的mask法是鲁棒的,差别不大。但从最后两条可以看出,直接去掉[MASK],80%或100%取负样本的效果相比之下差了很多。按理说使用负样本相当于构建去噪自编码器,到底比MASK差在哪?思考了一下,原因很可能是负采样词作为其它词的上下文输入,使得这些词学到的embedding融合了错误的信息,对训练造成影响;而[MASK]本身并没有任何含义,它从未作为target出现过,也就没有特定的出现语境,因此其embedding没有实际意义,对其它词的影响也就相对较小。 2、 Next Sentence Prediction 0/1分类任务。从语料中选取两个片段AB(注意这里是两个“span”,而不是实际意义上的“句子”,因为希望输入尽可能长)作为一条输入,50%的概率AB连续(1),50%不连续(0)。输出在[CLS]处取FFNN+Softmax做二分类预测。输入的最大长度是512,超过则直接截断。 7.1.3 训练细节 预训练数据及规模
BooksCorpus (800M words) 加 Wikipedia (2,500M words)
参数设置
batch_size:256 sequences(256*512 tokens) , step 1,000,000 (40 epochs on 3.3 billion word corpus)
Adam优化器。lr=1e-4, =0.9, =0.999,l2 weight decay=0.01
learning rate warmup:10,000 steps,lr线性缩减
所有层均设dropout=0.1
激活函数:gelu
训练loss
masked LM与NSP的log likelihood之和
7.2 Bert Fine-tune fine-tuning的任务主要分成基于句子的和基于token的。基于句子的一般取[CLS]的embedding输出预测,基于token的则直接取对应位置的输出进行预测。 一般需根据特定的任务重新设置batch_size, learning rate, epochs超参数,其余与预训练保持一致即可。 预训练好的Bert除了用于fine-tuning以外,还可以像ELMo一样作为特征抽取器,也就是直接用学习到的word embeddings当做其它模型的输入。目前看来最好的选择是最后四层向量拼接。 GPT与Bert训练数据不同,GPT使用BooksCorpus (800M words); BERT是BooksCorpus (800M words)加Wikipedia (2,500M words)。 GPT在预训练时没有[CLS]和[SEP],在下游任务时才有 GPT在fine-tuning时加入LM的loss,而Bert是完全使用任务特定的目标函数。 GPT的lr在两阶段保持一致,Bert认为任务特定的lr效果更好 预训练除了语言模型,还加入了next sentence prediction,试图学习更高层面的语言关联性。提供了很好的扩展思路。
本文目的在于学术交流,并不代表本公众号赞同其观点或对其内容真实性负责,版权归原作者所有,如有侵权请告知删除。
“综述专栏”历史文章
更多综述专栏文章, 请点击文章底部“阅读原文 ”查看
分享、点赞、在看,给个三连击呗!