Google Inception系列(V1~V4)算法简短总结

    这一阵子源于好奇心,我把Google出的Inception系列文章粗略读了一遍,当然这中间还读了这个算法的引子NiN,还有就是这中间有一篇叫做Xception的文章,不过这篇文章似乎是讲深度可分离网络的,之前在做实验和读MobilenetV1的时候稍微接触过,关于它以后再写吧!

    首先来讲讲NiN(Network In Network),这篇文章不是来自Google,但它对Inception的产生起了非常重要的作用,打一个不恰当的比方,它相当于Selective Search 对RCNN系列文章的推动一样。好了,废话不多说。NiN的创新点有2个:

    1. 采用mlpconv的结构来代替传统的卷积层。所谓mlpconv层其实就是传统的卷积层后面加了两个串联的全连接层,在实际代码中,全连接层是用1x1的卷积层实现的。所以mlpconv=传统conv+1x1conv+1x1conv。再说地通俗点NiN就是在原来的2个传统的卷积层中间又加了2个全连接层来提升网络抽取特征的能力,因为传统的卷积层可以认为是线性模型,局部接收域上的一小块数据跟卷积核加权求和,再激活,它的抽取能力不够;

    2. 将原来的最后的全连接层替换成了全局平均池化层。全连接层容易造成过拟合而且非常依赖Dropout技术,再者就是参数量大,如今大部分高性能模型基本在最后放全局平均池化层。

讲完引子NiN,正式进入Inception系列算法,先来说说InceptionV1(GoogLeNet), Inception的文章其实不确切地讲就是在两个卷积层之间做手脚,V1最初的版本是拓宽了网络的宽度,产生了4部分:1x1conv、3x3 conv、5x5 conv、3x3 max pooling,之所以拆成这么多是考虑到了抽取不同尺度特征的问题。随后在V1上的改进是引进了1x1卷积,先来介绍一下它的作用:

    1. 实现跨通道的交互和信息整合;

    2.  对输出通道进行升、降维。

在这里是用来降维减少计算量的,具体怎么减少参数量的我就不详细介绍了,其他博客有很多讲这个的,其实在NiN就已经提出了1x1卷积的方法,只是到了InceptionV1才得到重视,1x1卷积在残差网络的残差块中也有大量使用,升降维都用到了。接下去的模型我就讲重点部分,论文中的细节我就不多讲了,主要是我自己有些细节也没看懂。

     再就是InceptionV2,V2主要结合了当时最新的批量归一化技术(BN),防止过拟合,在训练时加速收敛,我首次接触到BN是在当时用Tensorflow做cafir10分类,效果的确很出色。V2就是将原来V1中的5x5conv换成了两个3x3conv,主要是5x5conv计算量太大,因为两个3x3conv的感受野跟一个5x5conv的感受野是一样的,但计算量小了从5x5→2x3x3。

    V3是在V2的基础上运用高数里矩阵相乘的原理对nxn又进行了拆分,变成了1xn和nx1,然后组成了两种并行和串行模块,论文本身串行用的是n=7,并行是n=3,      V3其他两个改进是把网络开头的7x7卷积改成了3个3x3卷积,目的还是在感受野不变的情况下降低计算量,然后就是把V2的模块跟新改进的2个模块(并行、串行)堆叠起来形成一个新网络,反正Inception系列算法就是不断拆,拆到满意为止。还有就是提出了缩减模块,通过减少特征图大小来减少计算量,其里面的结构跟Inception模块相似。

    V4还有Resnet-InceptionV2 两者性能差不多,但V4训练时收敛速度慢一点,这两个模型是在同一篇论文中提出来的,其实还有个Resnet-InceptionV1,不过它不是重点,只是个过渡角色,这里我不讲。先吐槽一下这篇文章,结构图真的是多,看其他文章我都嫌图太少,这下真是满足了。V4还有Resnet-InceptionV2的区别就是网络的后半部分,后者用了恒等映射,前者没用。两者有一个共同的结构是stem模块,这个模块挺复杂的,不过主要的思想是并行连接,其实这也是残差网络里残差块的思想,所以这也很好解释V4的后半段没有用恒等映射,却跟用了恒等映射的Resnet-InceptionV2性能差不多。两者后半段,其实跟V3差不多,V4的后半段起码跟V3一样,Resnet-InceptionV2因为加了恒等映射去除了Inception模块里的max pooling。(其实我一直没搞明白Inception模块里面的max pooling是用来干嘛的?)

    总体Inception系列文章看下来收获还是很大的,不过就是头很大,留下的唯一印象就是拆拆拆。这个系列的文章主要以略读为主,代码我没有去分析,我本身是做图像的,经常在论文中看到这些模型所以就找出来看看,如有讲的不对的地方,恳请大家指正。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,271评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,275评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,151评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,550评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,553评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,559评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,924评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,580评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,826评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,578评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,661评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,363评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,940评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,926评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,156评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,872评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,391评论 2 342