segmentation论文总结:Deeplab-v2; FCN-xs; Resnet based FCN

1. Fully Convolutional Neural Nets

论文:Fully Convolutional Networks for Semantic Segmentation, Jonathan Long
提出了一种end-to-end的segmentation网络结构,并且由于全卷积神经网络自身的一定程度上不受空间位置及尺度的影响的特性,可以实现任意大小的输入。

1.1 从fully connected到fully convolution

Transforming

上图的上半部分是经典的AlexNet的分类网络结构(或者说是一半的AlexNet),最后三层都是全连接层,最后输出1000分类的结果,从结果看出是猫的概率最大。下图是Long的FCN结构,前面五层没有任何区别。为了保证转换过程参数个数没有变化,用一个和输入一样大小的卷积核,对于一个7×7*512的conv(第五层,这里用512是因为图里的256只是AlexNet的一半)输出,为了转换为4096×1×1,用4096个filter,每个filter为512组,每组大小7×7,也就是说filter大小为512×7×7。

1.2 学习upsampling - Deconvolution

Deconvolution1
Deconvolution2

Deconvolution的过程更像是一个input变为权重,filter才是组成图片的主体。初始化的时候可以初始化为双线性插值的效果,计算过程就如同convolution的误差反向传播一样。

1.3 结合high resolution层来refine结果


得到的结果与pool3或者pool4层结合(pool层需要先用1×1 convolution来得到pixel predication)。FCN-8s就是利用了pool3层的,(原始输出结果本身是stride=32,也就是FCN-32s),pool3等价于融入了stride为8的结果,再做upsampling还原为原图大小,称为FCN-8s。从结果可以看出,这样的输出是最为精细的。

2. Dilated Convolution

论文:DeepLab: Semantic Image Segmentation with Deep Convolutional Nets, Atrous Convolution, and Fully Connected CRFs, Liang-Chieh Chen
这里不讨论CRF的用法,只说这篇文章提出的Dilated Convolution,一种更为简单粗暴的做法,在segmentation任务重起到不小的作用。

Dilated Convolution也可以叫做atrous convolution,是从信号处理中借鉴到的技术。它的意思是filter本身是有“洞”的:

Paste_Image.png

这种做法避免了直接使用跨度很大的upsampling,在网络原有参数不变的情况下,可以提升最后的score map的分辨率,增加每一个单元对应的receptive field的大小。在这篇论文中,还利用了不同rate的atrous convolution,并在最后将数据进行融合。

3. Resnet based FCN

论文:Wider or Deeper: Revisiting the ResNet Model for Visual Recognition, Zifeng Wu

了解了以上背景,再读这篇文章就明白许多。Resnet的利用使得网络可以变的更深,从一定程度上解决了degradation,不过本文作者又提出了一种关于网络的有效深度的概念,并通过一些短小的例子和计算指出Resnet是一种物理结构远深于有效深度的网络,故而考虑wider也许是一个不错的选择。

网络结构

每一个Block都是由两组Resnet结构的小block组成(filter大小为3×3),每一个小block中会有一个identity map,在含有down sample的小block中,identity map也要做相应的stride不为1的conv。B6/B7采用的结构是如同花瓶一样的bottleneck结构。

绿色三角代表down sampling,但是在segmentation任务中这些down sampling,无论是以stride不为1的convolution形式,还是以pooling形式都会去掉。对于pixel classification的任务来说,应该尽量避免用pooling层过多,因为pooling对空间变化不敏感,会使得要求对pixel进行精细化分类时造成一定的影响。同时,down sampling影响最后的输出分辨率,但是为了能保持receptive field足够大,所以会在segmentation的B6,B7中加入dilation来弥补取消了down sampling的影响。当然中间block内部的down sampling是一定会存在的,输出结果一般来讲是输入的8分之一,16分之一或者32分之一,在前面几层block的第一部分都会有stride为2的conv层存在。

除此之外,还有一个用来提升accuracy的trick,是用低分辨率的输出来组成一个较高分辨率的输出。这个trick不止用在test阶段,也用在train阶段,比如我们实际训练输出的是stride为8的输出(大小为8分之一),但是经过2×2轮,我们用这四个输出结果组成了4分之一的输出。参考论文:High-performance Semantic Segmentation Using Very Deep Fully Convolutional Networks

训练时我们可以为了内存的限制和运算效率以及考虑数据量这些考量,选择crop和resize图片,比如在cityscapes中图片大小(2048, 1024),但是实际crop出一个(504, 504)大小的图来输入网络训练。最后test阶段,可以直接输入原图,一样可以得到训练阶段的正确率效果,这是因为Fully Convolution结构的好处。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 200,045评论 5 468
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 84,114评论 2 377
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 147,120评论 0 332
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 53,902评论 1 272
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 62,828评论 5 360
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,132评论 1 277
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,590评论 3 390
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,258评论 0 254
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,408评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,335评论 2 317
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,385评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,068评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,660评论 3 303
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,747评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,967评论 1 255
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,406评论 2 346
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 41,970评论 2 341

推荐阅读更多精彩内容