卷积神经网络—CNN

一、为什么需要CNN

在全连接神经网络中,每相邻两层之间的每个神经元之间都是有边相连的。当输入层的特征维度变得很高时,这时全连接网络需要训练的参数就会增大很多,计算速度就会变得很慢,例如一张黑白的 28×28 的手写数字图片,输入层的神经元就有784个,如下图所示:

全连接

若在中间只使用一层15个神经元的隐藏层,那么参数 w 就有 784 × 15 = 11760 多个;若输入的是 28×28 带有颜色的RGB格式的手写数字图片,那么参数 w 的个数还需要再乘以 3。这很容易看出使用全连接神经网络处理图像中的需要训练参数过多的问题。

而在卷积神经网络(Convolutional Neural Network,CNN)中,卷积层的神经元只与前一层的部分神经元节点相连,即它的神经元间的连接是非全连接的,且同一层中某些神经元之间的连接的权重 w 和偏移 b 是共享的(Shared Weights),这样大量地减少了需要训练参数的数量。

二、CNN的卷积层

在卷积层中有几个重要的概念:

1、Local receptive fields(感受视野)

假设输入的是一个 28×28 的的二维神经元,我们定义5×5 的 一个 Local receptive fields(感受视野),即 隐藏层的神经元与输入层的 5×5 个神经元相连,这个 5×5 的区域就称之为 Local Receptive Fields,如下图所示:

Local receptive fields

2、Shared weights(共享权值)

我们知道,隐含层的每一个神经元都连接 5x5 个图像区域,也就是说每一个神经元存在 5x5=25 个连接权值参数。那如果对下一层的每个神经元来说,这 25 个参数是相同的呢?也就是说下一层的每个神经元用的是同一个卷积核去卷积图像。这样我们就只有多少个参数??只有 25 个参数啊!不管你隐层的神经元个数有多少,两层间的连接我只有 25 个参数啊!这就是卷积神经网络的主打卖点。

但是,你就会想,这样提取特征也忒不靠谱吧,这样你只提取了一种特征啊?我们需要提取多种特征对不?假如一种滤波器,也就是一种卷积核就是提出图像的一种特征,那么我们需要提取不同的特征,怎么办,加多几种滤波器不就行了吗?对了。所以假设我们加到 100 种滤波器,每种滤波器的参数不一样,表示它提出输入图像的不同特征。这样每种滤波器去卷积图像就得到对图像的不同特征的放映,我们称之为Feature Map。所以 100 种卷积核就有 100 个 Feature Map。这 100 个 Feature Map 就组成了一层神经元。到这个时候明了了吧。我们这一层有多少个参数了?100 种卷积核 x 每种卷积核共享 25 个参数= 100 x 25 = 2500,也就是2500个参数。

需要注意的一点是,上面的讨论都没有考虑每个神经元的偏置部分。所以权值个数需要加1 。这个也是同一种滤波器共享的。

因此在CNN的卷积层,我们需要训练的参数大大地减少到了 (5×5+1)×100=2600个。

图片卷积

三、“卷积”操作

当给一张新的图时,CNN并不能准确地知道这些 Features 到底要匹配原图的哪些部分,所以它会在原图中每一个可能的位置进行尝试。这样在原始整幅图上每一个位置进行匹配计算。这个我们用来匹配的过程就被称为卷积操作,这也就是卷积神经网络名字的由来。

这个卷积操作背后的数学知识其实非常的简单。要计算一个滤波器和其在原图上对应的某一小块的结果,只需要简单地将两个小块内对应位置的像素值进行乘法运算,然后将整个小块内乘法运算的结果累加起来,最后再除以小块内像素点总个数即可。具体过程如下:

卷积操作

最后整张图算完,大概就像下面这个样子:

卷积完成

然后换用其他滤波器进行同样的操作,最后得到的结果就是这样了:

多卷积和

四、池化(Pooling)

当输入经过卷积层时,若感受视野比较小,步长stride比较小,得到的feature map (特征图)还是比较大,可以通过池化层来对每一个 feature map 进行降维操作,输出的深度还是不变的,依然为 feature map 的个数。

池化可以将一幅大的图像缩小,同时又保留其中的重要信息。池化背后的数学顶多也就是小学二年级水平。它就是将输入图像进行缩小,减少像素信息,只保留重要信息。通常情况下,池化都是 2×2 大小,比如对于 max-pooling 来说,就是取输入图像中 2×2 大小的块中的最大值,作为结果的像素值,相当于将原始图像缩小了 4 倍。(注:同理,对于average-pooling来说,就是取 2×2 大小块的平均值作为结果的像素值。)

池化

所以,池化的实质就是把图片变模糊了,相当于给图片打了马赛克,如下图:

马赛克

通过加入池化层,可以很大程度上减少计算量,降低机器负载。

到现在为止,已经讲了从输入到池化的过程,图片也从原来的 28 × 28 变成了 12 × 12,如下图

输入->卷积->池化

五、激活函数Relu (Rectified Linear Units)

这里,我们用Relu作为激活函数:

Relu激活函数

六、全连接层(Fully connected layers)

到这里,卷积神经网络基本介绍完毕,总结(敲黑板),卷积神经网络的目的就是降低网络复杂度,减少权值W和偏置值b的个数,它不是一个完整的网络,所以,在最后还须加入普通的神经网络(全连接层)。

卷积神经网络总体图

参考:

http://blog.csdn.net/v_JULY_v/article/details/51812459

https://www.jianshu.com/p/fe428f0b32c1#comment-21577884

http://blog.csdn.net/u012641018/article/details/52238169

http://blog.csdn.net/cxmscb/article/details/71023576

http://blog.csdn.net/u010555688/article/details/24848367


作者:小道萧兮

链接:https://www.jianshu.com/p/d813215b27fc

來源:简书

简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,607评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,047评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,496评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,405评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,400评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,479评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,883评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,535评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,743评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,544评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,612评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,309评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,881评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,891评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,136评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,783评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,316评论 2 342

推荐阅读更多精彩内容