Pytorch学习记录-使用attention的GEC分类模型

Pytorch学习记录-GEC语法纠错05
五月第一周要结束了,接下来的三个月主要是文献阅读,准备8、9月的开题报告,技术类的文献集中在GEC和Text maching的应用方面,读完之后找demo复现,然后应用。
理论方面的论文也都是英文的

4. A Simple but Effective Classification Model for Grammatical Error Correction

这一篇是流利说2018年的论文,和之前深度语言模型相比看看区别。题目是《一个简单有效的GEC分类模型》

4.1 摘要

  • 将GEC任务看成是一个分类问题,分类之后找到目标词并进行预测。基于特征表达和分类模型搞- 了一个神经网络,使用大范围文本语料库进行训练(不使用人工标注)。
  • 模型中增加了attention机制,用于表达目标词的左右上下文。
  • 使用Seq2Seq。
  • 模型适合工业化生产

4.2 介绍

GEC最近的发展中主流的两个方式:分类器和机器翻译。

  • 分类器:能够处理指定错误类型。
  • 机器翻译:目标是将错误文本“翻译”成正确文本。《A multilayer convolutional encoder-decoder neural》这篇论文要看一下。
    发现都是用的Seq2Seq模型,不过现在主流就是这样。
    使用机器翻译手段的问题就是需要很大的平行语料库以及标注好的训练数据。
  • 在这篇论文中,研究者基于分类器的方式让神经网络学习句子和上下文表示,从大范围文本中生成数据用于训练神经网络。
  • 使用不同的attention捕捉句子中词的依存。

4.3 定义分类任务

这次依旧是五个错误类型:冠词、介词、动词时态、名词单复数、主谓一致。使用神经网络进行单独训练。

  • 冠词:3类a/an、 the、 没有。出现的位置应该在名词词组之前
  • 介词:8个常用介词in、to、of、on、by、for、with、about
  • 动词时态:3类
  • 名词单复数:2类
  • 主谓一致:两类


    image.png

使用stanford Corenlp作为分词和词性标注工具。

4.4 神经网络

image.png

和之前的那个简直一模一样的有没有……


image.png

模型使用Glove对输入词进行嵌入,在发现目标词汇的错误类型后,将句子以目标词为界限分成两部分(左侧上下文和右侧上下文),使用GRU进行处理。提出两种注意机制来更好地表示上下文和目标词。它们之间的区别在于是否使用目标词信息。

  • 第一种Attention仅仅使用上下文词。这是为输入上下文单词之间的内部连接建模。以下等式显示如何计算左GRU输出lo_{1:i-1}的注意力。
    score(lo_t)=lo_t^T W_a lo_{i-1}
    a(t)=\frac {exp(score(lo_t))}{\Sigma_{j=1}^{i-1}exp(score(lo_j))}
    lstate=(\Sigma_{t=1}^{i-1}a(t)lo_t)+lo_{i-1}
    可以看到W_a是矩阵,最终左侧上下文被表示为加权平均向量与最后的GRU输出连接。而右侧的上下文状态类似,除了右侧GRU最后输出是ro_{i+1},因为输入的顺序是从右往左。

OK,可以看到两边的输入顺序都是向那个目标词集中,所有左侧是从左往右,右侧是从右往左

  • 第二种Attention使用目标词来模拟它与其上下文之间的关系。以下等式用于左上下文。
    score(lo_t)=lo_t^T W_b e_i
    a(t)=\frac {exp(score(lo_t))}{\Sigma_{j=1}^{i-1}exp(score(lo_j))}
    lstate=(\Sigma_{t=1}^{i-1}a(t)lo_t)+eˆi+lo_{i-1}

其中W_b是矩阵,e_i是对目标词汇做的嵌入。左侧上下文状态是加权平均向量与最后目标次会嵌入、GRU输出的连接。同样的注意力也适用于右侧上下文。

注意,以下是重点
文章中只使用这个目标词依赖注意名词单复数和动词时态错误类型,因为在为这两种类型决定正确的单词形式时,单词本身与其上下文之间的相互作用是至关重要的;而对于其他三种类型,目标词信息没有必要或不正确有用,所以我们只对它们使用第一个注意。
对于介词错误类型,目标词本身可能是错误的(例如,目标词是,而右词可能是)。对于主谓一致或冠词错误类型,不需要关于目标词(动词,文章位置)的信息来预测正确的形式。

在计算完左右状态后,我们将它们连接起来并将其传递到多层感知器(MLP)。在MLP的最后一层,使用softmax函数来计算错误类型的每个类的概率。
其中L(x)是全连接线性操作。
L(x)=W_x+b
MLP(x)=softmax(L(ReLU(L(x)))

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,723评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,080评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,604评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,440评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,431评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,499评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,893评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,541评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,751评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,547评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,619评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,320评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,890评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,896评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,137评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,796评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,335评论 2 342

推荐阅读更多精彩内容