BERT

配合源码才能看懂系列

介绍

传统的语言模型是从左到右或者从右到左的利用上文或者下文去预测当前词,这种设计是依据最初的概率语言模型的思想。但是实际上,当前词出现不只是单单依靠上文 或者下文,其实应该是同时依赖于上下文,在ELMo里面,就是用了bi-lm的结构,但是这种bi-lm只是两个独立的前向和后向模型合并起来的,并不是一种完美的结合上下文,所以需要一种新的语言模型去更好的利用上下文的信息对当前词进行编码。因此谷歌在《Bidirectional Encoder Representation from Transformers》一文中,提出了一种Masked Language Model,他的语言模型结构是在一个句子中随机挑选一部分词汇,用一个MASK标记替换掉该词汇,然后在模型训练的时候去预测该词汇,完成训练过程,最终用encoder的输出作为语言的representation。

上述过程是一个无监督的过程,可以充分利用新闻,文章,对话等无标记的语料,进行无监督的预训练,得到一个预训练模型,然后我们将预训练得到的模型利用有标签的下游任务语料进行有监督的fine tuning,得到可以满足下游任务的模型。所以我们要介绍bert模型需要介绍两处地方,第一处是无监督的预训练过程,产出的是预训练语言模型,第二处是有监督的fine tuning过程,得到的是可以满足下游任务的模型。

预训练过程

Bert模型的预训练过程是利用了无监督的语料训练得到一个包含了大量参数的模型,该模型可以作为下游任务的权值初始值,这种方式类似于迁移学习的理念。

模型语料

模型的输入语料是无标签的文章,利用这些语料本身自带的上下文语义联系,获取语言的表征向量。一篇文章内的句子是有顺序的,不同文章之间的句子是无关联的,bert在预训练的时候,会将这种上下句子的关联也作为一种训练目标。

输入语料预处理

句子对的构造

模型输入的语料是许多个由句子构成的文章(document),模型的目标是构建一个句子a和一个句子b,两个token之间如果是从源于同一个文章的上下文,那这两个句子就是连贯的,如果不是,则需要记录这种两个句子是不连贯,这就是next_sequence_prediction的设计,因为模型并不能处理过长的句子,因此,需要用这种设计将长文本的上下文信息纳入到预训练过程。
我们每次构建的句子对的样本有一个最大长度,称之为max_sequence_len,构建预训练样本时,我们可以轻松将句子a的长度填充到max_sequence_len,但是我们需要和fine tuning过程保持一致,fine tuning可能很难填充这么大的长度。所以我们sometimes(约为10%的概率)将句子a的长度随机选取一个较小的值,作为构建句子a的实际最大限制长度。构建时,从当前文章中连续选取句子,直到句子长度大于实际最大限制长度或者文章已经被选取完了。构建完句子a之后,构建句子b,句子b会以50%的概率选择从句子a后面紧挨着的下一句,还有50%概率随机从另一篇文章中随机抽取连续的几句话,当然如果原文章的句子已经全部用来构造句子a了,那么句子b就只能随机从另一篇文章中随机抽取了。
这样构建出来的句子a和句子b都有可能超过样本最大长度。这时候将对样本进行截断,动态判断句子a或者句子b哪一个更长,将更长的句子随机从开头或者结尾移除一个字符,然后再重新判断,直到句子a加上句子b的总长度,满足最大长度限制。

构建mask字符

模型除了上述的下一句预测next_sequence_prediction,还有mask language model prediction,这里会从两个token中,随机选择15%的词(不包含[CLS]和[SEP]),然后对这15%的词,有80%的概率替换为[MASK],有10%的概率替换为词汇表中的其余词,还有10%的概率不变,然后记录下这15%的词的位置,以及他们原词本身,作为后面计算mask位置的预测函数损失的数据来源。
由此我们获得了以下一组输入,
input_ids:句子中的token位于词表中位置id组成的一维列表,长度为max_seq_len,其中有一些位置已经被替换为[MASK]的id。
input_mask:padding矩阵,非padding部分为1,padding部分为0
segment_ids:句子a部分为0,句子b部分为1
masked_lm_positions:mask的位置序列,也进行了padding到max_predictions_per_seq,padding部分为0
masked_lm_ids:各mask位置对应的真实的token id
masked_lm_weights:各mask位置预测时计算loss的权重比例,暂时都为1
next_sentence_labels:句子a和句子b是否来源于连续的句子,是的话为0,随机下一句则是1.

模型结构

embedding

假设输入的batch大小为B,max_seq_len长度为S,首先要进行word embedding,假设word embedding的大小为E,则word embedding是将(B,S)转换为(B,S,E),word embedding之后,需要进行positional embeddings 和token type embedding,其中positional embedding是编码了位置信息进去,因为后续用的是attention结构,所以需要提前将位置信息写进去,这里positional embedding和之前的transformer还是不一样的,这里其实是根据位置学出了一个embedding出来,具体操作是从一个trainable的shape为(max_position_embeddings,E)的矩阵里面切出来(S,E)作为各位置的embedding。而token type embedding是句子a和句子b的区别,是对segment_ids进行了embedding,其维度也是E。最后这三者相加作为最终的embedding。
embedding的结果还需要增加一个layer norm和drop out

transformer层的encoder层

上面输入的(B,S,E)将进入transformer的结构里面,该结构可以参考transformer里的描述,bert输出了每个attention layer的隐藏层输出,我们将最高层的attention layer隐藏层作为序列中各token对应的输出即sequence_output。
将序列输出的第一个位置[CLS]的隐藏层输出,接一个全连接激活层作为句子的输出pooled_output。

masked language model

由sequence_output获取masked_lm_positions这些位置的隐藏层输出,之后接一个全连接激活层和layer normal获取表征各mask位置的向量,之后需要利用这些维度为E的向量,与之前embedding lookup table向量的转置进行矩阵乘法,假设mask位置为M,那么需要进行mask 预测的向量转为(BM,E),然后将embedding lookup table向量(vocab_size,E)转置为(E,vocab_size),这样矩阵乘法之后得到(BM,vocab_size)的logits向量,logits向量的每个位置有一个真实的值masked_lm_ids,这几个位置互不影响,所以各自独立做一个交叉熵损失函数,然后将损失函数的值求个平均值,这里求平均值是因为不同batch,以及同一个batch的不同sequence里面的mask数目是不一样的。

next sentence prediction

将transformer里面的pooled_output(B,E),然后将该tensor与一个(E,2)的初始化变量进行矩阵乘法,得到句子a与句子b是否连续的logits向量,然后与next_sentence_labels联合起来求出每个句子的交叉熵损失函数,同样的,最终我们仍然获取的是均值。

loss

最终的loss是masked_lm_loss与next_sentence_loss的相加,由此就可以进行反向传播了。

fine tuning过程

fine tuning过程是指利用预训练出来的参数作为初始值,然后在下游任务的监督语料上进行微调,以达到快速收敛,并增强泛化能力的作用。这里预训练结构的参数并非完全使用,而是只利用到sequence_output和pooled_output,这两个一个作为序列表征,另一个作为句子的表征,可以用在下游的任务上,损失函数也是由下游任务的具体需要自行构建,比如序列标注任务,可以利用sequence_output作为各词的编码结构,然后直接用上softmax求交叉熵损失函数,比如文本分类任务,可以利用pooled_output的值,然后接一个全连接激活层,然后再利用softmax求多分类的交叉熵损失函数。

参考文献
google-research/bert
Bert系列(三)——源码解读之Pre-train

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342

推荐阅读更多精彩内容