在总结|对话系统中的口语理解技术(SLU)(一),我们一起聊了聊任务型对话中的NLU之领域分类和意图识别;
在总结|对话系统中的口语理解技术(SLU)(二),我们一起聊了聊任务型对话中的NLU之槽填充。
今天我们一起来聊聊任务型对话中的NLU之上下文LU、结构化LU以及SLU各方法的对比、SLU的评估等。
1.简介
略,上同
2. 上下文LU,结构化LU
先来看看我汇总的任务型对话系统中的NLU之上下文LU、结构化LU。
2.1 上下文 LU
这是一类结合上下文来进行SLU的方法,这类方法的主要好处是:在多轮对话中,解决歧义问题。
先来看看多轮对话和单论对话的区别:
为了把抽象问题具体化,再来看个歧义的例子:
人:我想去美国。
机器:那你有什么需要呢?
人:我想问下签证的时间。
机器:一脸懵逼(因为可能是问签证的有效期,也肯能是问办理签证需要多长时间)
人:我想在那边待3个月。
机器:好的,签证的有效期是xxxx。(根据上句话可以确定是问签证的有效期)**
明确了这类方法的定位和需要解决的问题,接下来我们分别介绍几种常用的方法:
基于Seq2Seq模型对上下文建模,一次输入一个词,每句结束时输出标签。这种模型还具有对话者角色相关的LSTM层,并使用角色状态控制门来决定角色是不是active,而且角色状态随时间而线性传播,agent和client的角色也被加以区分。这种方法对上下文比较敏感,能解决多轮对话的歧义问题。
Chen et al., 2016 这篇论文的所有作者都是任务型对话领域的知名学者。
这种方法的主要idea是在作slot tagging时加入上下文知识, 然后以一种潜在的方式进行对话状态的追踪。
这是一种基于端到端的记忆网络携带Knowledge来做多轮对话中的上下文理解,将RNN和Memory Networks结合起来应用于SLU模块。具体分为4步:
1.记忆表示:为了存储前面对话轮中的知识,通过RNN将前面对话轮中的每个话语嵌入到连续的空间中,将每个话语转换成一个记忆向量;
2.知识注意力分布:在嵌入空间中,通过取内积然后softmax来计算当前输入和每个记忆向量间的匹配,该结果可以被看作是为了理解当前输入而建模知识传递的注意力分布;
3.知识编码表示:为了对来自历史的知识进行编码,历史向量是对由注意力分布加权的记忆嵌入的总和;
4.序列标注:提供携带的知识来提高序列标注的效果。
使用RNN探索新的建模对话上下文的方法,提出了序列对话编码网络,它允许按时间顺序对来自对话历史的上下文编码。之前轮和当前轮的encodings被输入一个共享所有存储器权重的前馈网络。并将序列对话编码网络的性能与仅使用先前的上下文的模型、在memory网络中编码失去对话顺序的上下文的模型进行比较,在多域对话数据集上的实验表明,序列对话编码网络能减少歧义。
2.2 结构化LU
论文:(Chen et al., 2016)
本文提出了K-SAN:用先验知识当作引导,句子结构知识当作menory来存储。这是由先验知识引导的结构化注意力网络,其实就是RNN+attention+先验知识,但是跟RNN不同的是:该模型充分利用自然语言丰富的、结构化的信息而不再是线性扁平链。
该模型的两大优势是:可从少量数据中获取重要的子结构,增强模型的泛化能力;针对给定句子,可自动找出对其语义标签至关重要的显著子结构,从而缓解测试集中的unseen data,进一步提升NLU的效果。并在ATIS数据上表明 K-SAN 可以使用注意力机制有效地从子结构中提取出显著的知识,达到SOTA的效果。
3.SLU各方法的对比
以上简单介绍了对话系统中的SLU中的领域分类和意图识别、槽填充、上下文LU和结构化LU技术,下面简单总结下它们的优势和劣势。
4.SLU的评估
任何一项技术想要取得进步,那么他的评测方法是至关重要的(就相当于目标函数之于机器学习算法),所以我列出一些关于SLU的评估。遗憾的是,目前SLU的评估我感觉并不成熟,这也是制约SLU发展的一个重要原因,如果谁能想出更好的评估方法或整理出一个业内公认的高质量评测数据集,那么一定会在对话系统领域有一席之地,引用量也会蹭蹭上涨。
5. 本文涉及到的论文
以上是我关于对话NLU中的上下文LU、结构化LU以及SLU各方法的对比、SLU的评估等的一些总结。下面贴出了一些代表性的paper,大家可以深入学习。
5.1 Contextual LU
5.1.1 Context Sensitive Spoken Language Understanding using Role Dependent LSTM layers, Hori et al, 2015
5.1.2 E2E MemNN for Contextual LU
End-to-End Memory Networks with Knowledge Carryover for Multi-Turn Spoken Language Understanding, Chen et al., 2016
5.1.3 Sequential Dialogue Encoder Network
Sequential Dialogue Context Modeling for Spoken Language Understanding, Bapna et.al., SIGDIAL 2017
5.2 Structural LU
K-SAN:prior knowledge as a teacher,Sentence structural knowledge stored as memory
Knowledge as a Teacher: Knowledge-Guided Structural Attention Networks, Chen et al., 2016
5.3 LU Importance
Investigation of Language Understanding Impact for Reinforcement Learning Based Dialogue Systems,Li et al., 2017