Improving Neural Fine-Grained Entity Typing with Knowledge Attention

文章首发于zhkun的小窝

Title: Improving Neural Fine-Grained Entity Typing with Knowledge Attention
Author: Ji Xin, Yankai Lin, Zhiyuan Liu, Maosong Sun
Link: http://nlp.csai.tsinghua.edu.cn/~lzy/publications/aaai2018_entitytyping.pdf

任务

本文针对的是Named Entity Typing(NET)任务,该任务主要是判断一个实体表示(entity mention)的类别,粒度的分类可以分为:person, location, organization,others。细粒度的分类根据不同的数据有着不同的分类情况,例如:FIGER dataset 有112类;也可以根据需要自定义类别个数进行分类,例如:从DBpedia中抽取22类。

该任务也是一个比较基础的任务,可以为问答,对话,语义理解等提供一些辅助理解的信息,而且和语义理解类似,同一个实体表示在不同的情境(context)下的类别是不一样,同样需要考虑情境信息。

现状

传统的方法大多集中在特征抽取,例如选取多种特征抽取的方法,例如pattern-based extractor,Knowledge base,mention-based extractor等,利用这些不同的方法得到实体表示的不同类别候选,然后利用词义消歧(word sense disambiguation )的方法选择最合适的类别。这里边最受关注的地方在于知识图谱的运用,知识图谱将很多先验知识及关系整合到图中,尤其是NET中的细粒度分类, 单纯利用神经网络来做是不行的,很多类别的样本都很少,而知识图谱可以提供必要的帮助。

神经网络的方法目前也慢慢多起来,神经网络在提取特征阶段已经被证明非常有效,因此在该任务上神经网络+知识图谱应该是一种非常有效的方法,而本文就是这样的一种方法。

模型

model structure

模型整体看起来是比较简单的,而本文主要是为了解决NET中的两个问题:

  1. 在实体表示分类时需要考虑其所存在的情境,而这点是被忽略的;
  2. 虽然知识图谱已经很早就被用到了NET中,但是知识图谱中实体之间的关系,并没有得到很好的利用。

因此,作者提出了如上的模型,具体如下:

首先适用预训练的模型对所有的词进行标识 ,得到每个词的词向量,

实体表示的向量表达

考虑到实体表示的短语是比较短的,大多是都是一个或者两个词,因此直接将每个词的向量相加,取均值,得到实体表示的向量表达:

公式1.PNG

情境信息的表示

为了更好的表示中心词的情境,例如中心词所存在的句子,作者使用BiLSTM分别整合左边和右边的情境信息,并利用注意力机制整合他们在LSTM中的隐层状态,最后整合为一个情境表示向量:

公式2.PNG

这个公式还是很好理解的,将每个状态的两个方向表示拼接起来,乘以对应的权重,然后做加权和,最后再做平均,就得到了情境信息的向量表示,那么接下来就是如何表示情境信息的权重了。

注意力机制

在这里作者考虑了很多不同的注意力机制,

  1. 语义注意力机制,就是考虑情境信息的权重,由自身的语义信息来计算所占的比重,类似于self-attention:
公式3.PNG
  1. 因为我们需要考虑的是实体表示的类别,那么也可以计算实体表示所关注的重点在什么地方,也就是基础版的attention:
公式4.PNG
  1. 正如之前问题里提到的那样,知识图谱不仅包含了实体,同时还有实体之间的关系信息,这点也是十分重要的,因此作者使用了知识图谱中表示关系的方法TransE来处理知识图谱中的关系表示,并将其应用到注意力机制中:
公式5.PNG

这其中$e$就是实体的embedding表示,

类别预测

有了实体表示的向量和情境信息的向量,最后就是一个分类了,作者将得到的两个向量表示拼接起来,然后通过一个两层的MLP进行分类,得到最后的结果:


0.PNG

最后使用二分类的交叉熵作为损失函数,因为每一个实体表示的类别可能不止一个,这可能是一个多分类问题,因此作者在每个类别上都是用了二分类的交叉熵,最后将所有的全都加起来作为最终的损失函数。


公式6.PNG

实验结果

照例,还是贴一个最后的结果图,因为使用了神经网络将情境信息融入到了实体分类中,可以更好地分类出在特定情境下的类别,也就更符合实际情况,从而获得更好的效果,当然将知识图谱中的关系信息也考虑进去也是本文的另一个创新点,这点还是很有意思的。

result table

个人评价

这是我接触NET之后读的第一篇利用神经网络来做的方法,对比那些利用不同的特征抽取方法来对实体表示进行分类,神经网络在抽取特征方面确实是省了不少的力气,而且整个模型简单有效,这就是一种非常好的方法。当然,该方法相对来说还是比较简单的,例如在情境信息的表示,情境信息和知识图谱的融合,相互辅助等方面还有很多可以做的,而且这个问题对语义理解也是一个很重要的方面,很值得学习研究。

以上就是这篇文章的整体介绍,NET还是很有意思的,搞起来搞起来♪(^∀^●)ノ

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 201,924评论 5 474
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,781评论 2 378
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 148,813评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,264评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,273评论 5 363
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,383评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,800评论 3 393
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,482评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,673评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,497评论 2 318
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,545评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,240评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,802评论 3 304
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,866评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,101评论 1 258
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,673评论 2 348
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,245评论 2 341

推荐阅读更多精彩内容