浅析RNN循环神经网络

冒泡!小李又上线啦~周末愉快呀
今天主要是对RNN循环神经网络的一个概述。


RNN循环神经网络

定义

RNN(Recurrent Neural Network)循环神经网络是一类用于处理序列数据的神经网络。那么这边涉及到一个关键词,即序列数据。做个解释,序列数据是在不同的时间点里采集的数据,因为是不同时间点故会反映相对应的的事物或者现象跟随时间的变化状态或者程度。举个例子,比如音频数据等等。总而言之,序列数据的最大特点就是,后面的数据要与前面的数据有相关联。(划重点!)

模型

RNN循环神经网络是基于"人的认知是基于过往的经验和记忆"这一观点提出的,它与CNN不同的是: 它不仅会考虑前一时刻的输入,而且赋予了网络对前面的内容的一种'记忆'功能。接下来就通过RNN的模型来解释一下这个记忆功能的实现。模型图如下:

通过图片可以看到,RNN模型分为三大部分:input layer(输入层)、hidden layer(隐藏层)、output layer(输出层)。比较特别的是,在中间的隐藏层,有个箭头,这个箭头表示数据的循环更新,也就是记忆的功能实现。因而从模型上可以看出,网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出

Hidden Layer的具体详解

如上图所示的Hidden Layer的层级展开图, t-1, t, t+1表示时间序列。 X表示输入的样本.。St表示样本在时间t处的的记忆,St = f(WSt-1 +UXt)。 W表示输入的权重,U表示此刻输入的样本的权重,V表示输出的样本权重。在t =1时刻, 一般初始化输入S0=0, 随机初始化W,U,V。进行下面的公式计算( 其中,f和g均为激活函数。 其中f可以是tanh,relu,sigmoid等激活函数,g通常是softmax也可以是其他,注意这里的权重是共享的):

那么以此类推,下一个时刻与最终时刻的计算如下:
通过这些公式做一些总结:我们可以这样理解,比如我们在处理一个文本,t取5,那么可以理解为一句话有五个词,它们依次输入RNN网络中,那么就可以理解为把一个神经元拉为5个,S就是我们说的记忆,它把五个词语都记录下了,最后的输出就是基于S的。. 所以,隐藏状态可以理解为:S=f(现有的输入+过去记忆总结)

这边对于hidden layer主要是前向传播的分析,反向传播我们更新的是相同的参数。具体可以参考深度学习之RNN循环神经网络(理论+图解+Python代码部分

RNN种类

通过图片做一个详解:
RNN的特点与应用
特点:

除了刚刚所说的循环更新以及隐藏层的特性外,由于RNN特有的memory会造成梯度时大时小,learning rate没法个性化的调整,导致RNN在train的过程中,Loss是波荡起伏。
应用

① 自然语言处理(NLP): 主要有视频处理, 文本生成, 语言模型, 图像处理 ② 机器翻译, 机器写小 ③ 语音识别④ 图像描述生成 ⑤ 文本相似度计算 ⑥ 音乐推荐、网易考拉商品推荐、Youtube视频推荐等新的应用领域。

最后附上用keras建立RNN模型的部分代码(完整的代码移步至上文第一个链接)

#####建立模型
from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation
from keras.layers.embeddings import Embedding
from keras.layers.recurrent import SimpleRNN
 
model = Sequential()
model.add(Embedding(output_dim=32,
                    input_dim=3800, 
                    input_length=380))
model.add(Dropout(0.35))
model.add(SimpleRNN(units=16))
model.add(Dense(units=256,activation='relu' ))
model.add(Dropout(0.35))
model.add(Dense(units=1,activation='sigmoid' ))
model.summary()
#####训练模型
model.compile(loss='binary_crossentropy', 
              optimizer='adam', 
              metrics=['accuracy'])
 
train_history =model.fit(x_train, y_train,batch_size=100, 
                         epochs=10,verbose=2,
                         validation_split=0.2)

今日份资料参考
深度学习之RNN(循环神经网络)


小李的今日输出结束!下次再会!~

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,524评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,869评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,813评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,210评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,085评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,117评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,533评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,219评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,487评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,582评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,362评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,218评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,589评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,899评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,176评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,503评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,707评论 2 335

推荐阅读更多精彩内容