卷积神经网络详解

卷积神经网络和人工神经网络的差异是什么?

利用卷积神经网络训练的数据预处理

全连接带来的问题:
1.参数w会非常多,这样的话就需要电脑的gpu性能足够好。
2.网络的学习能力会非常强大,较为精确的学习到当前图片或者当前文本的内容,容易出现过拟合的现象。

为了减少参数的数量,并能达到相同的训练效果,我们选用卷积神经网络。

卷积神经网络:

  • 去均值的做法是相对原点做了一个平移,即将将所有点(空间向量)减去均值。有人做实验 发现在不做均值处理时收敛速度会很慢。
    求均值的方式有两种,方法一,如Alexnet卷积神经网络,有1w张图像,每张图像是227x227x3的,也就相应的表示为一个三维的矩阵。它将这一万图像求和然后除以10000得到均值。方法二,如VGG卷积神经网络是将图像表示为三维的一个空间向量(R,G,B), 然后相应的每一个颜色通道上来求均值。
    需要注意的一点是,是在训练集上求这个均值,然后测试集也要利用训练集的均值来进行去均值操作,因为测试集在某种意义上是没有全集的,所以我们只能用训练集的均值。

  • 不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以使得数据指标之间具有可比性。也有两种常见的归一化方法。
    一、min-max标准化:
    也称为离差标准化,是对原始数据的线性变换,使结果值映射到[0 - 1]之间。转换函数如下:


二、Z-score标准化方法:
这种方法给予原始数据的均值(mean)和标准差(standard deviation)进行数据的标准化。经过处理的数据符合标准正态分布,即均值为0,标准差为1,转化函数为:

其中u为所有样本数据的均值,为所有样本数据的标准差。

  • 降维和白化

卷积神经网络结构

图片.png

卷积神经网络有两种神器可以降低参数数目,第一种神器叫做局部感知野。一般认为人对外界的认知是从局部到全局的,而图像的空间联系也是局部的像素联系较为紧密,而距离较远的像素相关性则较弱。因而,每个神经元其实没有必要对全局图像进行感知,只需要对局部进行感知,然后在更高层将局部的信息综合起来就得到了全局的信息。网络部分连通的思想,也是受启发于生物学里面的视觉系统结构。视觉皮层的神经元就是局部接受信息的(即这些神经元只响应某些特定区域的刺激)。
在图像处理中,往往把图像表示为像素的向量,比如一个1000×1000的图像,可以表示为一个1000000的向量。在上一节中提到的神经网络中,如果隐含层数目与输入层一样,即也是1000000时,那么输入层到隐含层的参数数据为1000000×1000000=10^12。卷积神经网络的局部关联作用可以使得每个神经元只和10×10个像素(局部图像)值相连,那么权值数据为1000000×100个参数,减少为原来的万分之一。而那10×10个像素值对应的10×10个参数,其实就相当于卷积操作。隐含层的每一个神经元都可以看做是一个filter,那么就相当于有10000个卷积核。可以把每个filter比作人,每个人有自己的看待事物的原则(权重w),我们需要多个人来捕捉不同的信息(一个人可能能看到另外一个人看不到的信息)来对图片信息进行学习。
而每一个神经元开一个窗口(receptive)通过滑动,对整幅图像感知(从左到右从上往下滑动),上图中的stride指滑动的步长。深度(depth)是指有下一层(隐层)有多少个神经元,或者叫filter,每个人看完之后就会得到自己观念中的一幅图,有n个人(filter)就会有n个图,即depth的大小。如果原图像大小是32x32的,而窗口大小是5x5,这样会导致窗口不能正好从最左侧不多不少的滑到最右侧。所以一般会通过对图像周围填充0来使得滑动窗口很合适的能从图像左侧滑到右侧。(步长小可以学习的很细致,但是太小时计算量就会很大)

上图中展示的卷积的过程,7x7x3的原图像,有w0和w1卷积核,即depth为2,3x3x3的窗口,窗口滑动步长为2,窗口中相应的权重与对应图像矩阵相乘然后求和,三个通道的值再对应相加得到输出值。最后生成3x3x2的矩阵,depth是2(两个过滤器)。
局部连接中,每个神经元都对应10x10的局部区域,隐含层有10000神经元,则每个对应100个参数,这100个参数在任何局部区域中的都是不变的,体现了一个人看待外界是都有一个不变的原则,即权值共享的原理。如下图,窗口在滑动过程中,四条连接线的权重(w1,w2,w3,w4)保持不变。

图片.png

激励层

激励层中要判断哪部分信息要往后传递,那部分信息保留(做一个非线性的映射)


图片.png
各种激活函数
相应函数图像
  1. 在神经网络中我们利用BP做反向传播利用sigmoid或者tanh作为激励函数,过程中会利用莲式求导法则,sigmoid或者tanh函数趋于平滑是求导后值趋近于零,那么在调节权重w时,w= w - wt, wt的值非常小,导致整个神经网络模型训练速度会非常慢。
    2.针对sigmoid函数和tanh激活函数的问题,Relu运应而生。当x < 0时,y = 0; 当x > 0时, y=x; 但是当x < 0时,y值求导为0,会使得网络模型停止学习,由此提出了leaky Relu. 即当 x< 0时,y = ax, a可以取很小的值。

小象学院-寒小阳给出意见

sigmoid函数可能会使得神经网络出现梯度消失。(但是RNN网络中的激活函数却不用relu,原因是使用relu会出现梯度爆炸问题,梯度消失可以通过一些方法进行调节,但是梯度爆炸很难解决。

图片.png

下采用使得图像的维度减少。


池化层可以采用最大池化或者平均池化的方法,上图中是利用了max pooling,窗口大小为2x2,步长为2.


卷积神经网络后面不一定要有全连接层,只是因为前面做了很多减少参数,降维等运算,简单理解全连接层的作用就是还原信息。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335

推荐阅读更多精彩内容