初识Recurrent Neural Network

本篇翻译自Denny Britz(Google Brain Team成员)的RNN系列教程

RNN也就是Recurrent Neural Network,在语音识别,自然语言处理(NLP)等很多领域广泛应用,人气很高。这个系列教程包含以下:
1、RNN简介(本文)
2、使用Python和Theano实现RNN
3、了解方向传播算法和梯度消失问题
4、实施GRU/LSTM RNN

本文假设你对基本的神经网络有所了解。

什么是RNN?

RNN是按照时间维度的展开,代表信息在时间维度从前往后的的传递和积累,后面的信息的概率建立在前面信息的基础上,在神经网络结构上表现为后面的神经网络的隐藏层的输入是前面的神经网络的隐藏层的输出。

假定所有输入(输出)是相互独立的,那这对于许多任务来说是扎心的。比如你想预测一个句子中的下一个单词,单词之间都独立还预测个DD,跟妹子陌路,还想拉拉小手。另外RNN称为循环因为它们是对序列的每个元素执行相同的任务,输出取决于先前的计算。考虑RNN的另一种方法是,它们有一个“记忆”,捕获到目前为止所计算的信息。在理论上RNN可以以任意长的序列来使用信息,但在实践中,它们仅限反向几步。一个典型的RNN:


A recurrent neural network and the unfolding in time of the computation involved in its forward computation. Source: Nature

上图显示了RNN正展开成一个完整的网络。展开意味着我们写出了完整序列的网络。例如,如果我们关心的序列是5个字的句子,则网络将被展开为5层神经网络,每个单词一层。RNN中计算的公式如下:

  • Xt是输入t的时间步长。X1可以是对应于句子的第二个单词的ont-hot 向量。

  • St是时间t时的隐藏状态。它是构建网络的“记忆”。St是基于以前的隐藏状态和当前步骤的输入计算的:st = f(Uxt + Wst-1)。该函数F通常是非线性的,如tanh或ReLU。 s-1存在是为了计算第一个隐藏状态,通常全被初始化为零。

  • Ot是在t时的输出。例如,如果我们想预测一个句子中的下一个单词,会输出一个词汇概率的向量。
    ot = softmax(Vst)
    这里有几件事要注意:

  • 你可以将隐藏状态ST视为网络的记忆。ST捕获所有先前time step中的信息。在时间t可以根据时间记忆计算出输出Ot。如上所述,在实践中有点复杂,因为ST通常无法从太长的时间捕获信息。

  • 不同于传统的深层神经网络,其在每个层使用不同的参数,RNN 在所有步骤中共享相同的参数(U,V,W)。这反映了我们在每个步骤上执行相同的任务,只用不同的输入。那这大大减少了我们学习的参数数量。

  • 上述图表在每个time step都有输出,但是根据任务,这不是必需的。例如,当预测句子的情绪时,我们可能只关心最终输出,而不是每个单词之后的情绪。类似地,我们可能不需要在每个time step都有输入。RNN的主要特征是它的隐藏状态并且能捕获有关序列的一些信息。

RNN可以做什么?

在许多NLPtask中,RNN已经取得了巨大的成功。与此同时也想到了LSTM,是的它的长期依赖性要好于RNN。不用担心的是LSTM与本教程中将要开发的RNN基本上是一样的,它们只是具有不同的计算隐藏状态的方法。我们将在稍后的文章中更详细地介绍LSTM。以下是NLP中RNN的一些示例应用。

语言建模和生成文本

给定一系列单词,我们想预测并给出先前任一单词的概率。语言模型允许我们去衡量句子相似性,这是机器翻译的重要输入(因为高概率句子通常是正确的)。在能够预测下一个单词时会有一个slider-effect,它会得到一个生成模型,允许我们从输出概率中抽样生成新的文本。根据我们的训练数据,我们可以生成各种各样的东西。在语言建模中,我们的输入通常是一系列单词(例如,编码为one-hot),我们的输出是预测单词的序列。我们构造ot = xt + 1可以在step t中的输出单词是实际中我们想要的。

关于语言建模和生成文本的研究论文:

机器翻译

机器翻译类似于语言建模,因为我们的输入是一系列单词(例如德语),输出的是一系列的单词(比如中文)。一个关键的区别是,我们的输出只有在我们看到完整的输入之后开始,因为翻译的句子的第一个单词可能需要从完整输入序列中才能获取。


机器翻译RNN。图片来源:http://cs224d.stanford.edu/lectures/CS224d-Lecture8.pdf

机器翻译研究论文

语音识别

给定来自声波的声信号的输入序列,我们可以预测语音段的序列及其概率。

关于语音识别的研究论文:

生成图像说明

与卷积神经网络一起,RNN已被用作模型的一部分,以生成未标记图像的描述。这是非常惊人的,这似乎是有效的。组合模型甚至将生成的单词与图像中发现的特征对齐。

Deep Visual-Semantic Alignments for Generating Image Descriptions. Source: http://cs.stanford.edu/people/karpathy/deepimagesent/
Deep Visual-Semantic Alignments for Generating Image Descriptions. Source: http://cs.stanford.edu/people/karpathy/deepimagesent/

如何训练RNN

看了上面,RNN这么牛逼,那么怎么实现呢,不要着急,其实它类似训练传统的神经网络,我们也使用反向传播算法,不过是变化了下,由于参数由网络中的所有time step共享,每个输出的梯度不仅取决于当前time step的计算,而且还取决于以前的tiem step。例如,计算t = 4的梯度我们需要按照时间序列反向计算3个然后累加起来就是第四个时间的梯度,这称为基于时间的反向传播算法(BPTT)。要注意的是:RNNs的当层级比较多时(相距很远的步骤之间存在依赖关系)由于梯度消失/爆炸问题在训练上会存在一定的学习困难。当然,在业内也设计了一些类型(如LSTMs)避开这些问题。

RNN扩展

多年来,研究人员开发了更复杂类型的RNN来处理RNN模型的一些缺点。我们将在稍后的文章中更详细地介绍这些内容,但是我希望本节作为简概,可以让读者熟悉一些模型的分类。

  • 双向RNNs(Bidirectional RNNs) 是一种当前时刻不仅仅取决于以前时刻同时还取决于未来时刻的RNN变体。举个例子, 比如我的一段文本不仅仅和前面有关系, 还和后面有一定的关系,要预测序列中缺少的单词,你要查看左侧和右侧上下文。双向RNN非常简单,你理解两个堆叠在一起的RNN。然后基于两个RNN的隐藏状态来计算输出。
  • LSTM RNNs(LSTM networks)是近几年比较火的一种RNN变体, 实际上也是运用最为广泛的一种形式, 它克服了梯度衰减问题, 这个问题在NN中也同样存在, LSTM本身也有变体, 至少不下十几种形式, 但是本质都差不多.

我的
简书地址
uqlai`blog

扩展阅读:
循环神经网络(Recurrent)——介绍

翻译原文地址

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342

推荐阅读更多精彩内容