【GAN-语义分割】Adversarial learning for semi-supervised semantic segmentation

论文:https://arxiv.org/abs/1802.07934
代码:https://github.com/hfslyc/AdvSemiSeg
PASCAL-VOC2012数据集(vocdevkit、Vocbenchmark_release)介绍
适合初学者的PASCAL VOC2012数据集的下载及简单讲解

摘要

我们提出了一种使用对抗网络的半监督语义分割方法。虽然大多数现有的鉴别器 D 经过训练,可以在图像级别将输入图像分类为真实图像还是伪图像,但我们以全卷积的方式设计了一个鉴别器,以便在考虑空间分辨率的情况下,将预测的概率图与 Groud Truth 区分开。我们表明,通过将对抗性损失与分割网络上的标准CE Loss耦合,可以将所提出的鉴别器 D 用于提高语义分割的性能。另外,全卷积鉴别器 D 通过在未标记图像的预测结果中发现值得信赖的区域来实现半监督学习,从而提供附加的监督信号。与利用弱标记图像的现有方法相比,我们的方法利用未标记图像而不加任何注释来增强分割模型。在PASCAL VOC 2012数据集和Cityscapes数据集上的实验结果证明了我们算法的有效性。

介绍

我们将分割网络视为生成器。

与经过训练以生成给定噪声矢量的图像的典型生成器不同,我们的细分网络在给定输入图像的情况下输出语义标签的概率图。在此设置下,我们希望将分割网络的输出与真实标签在空间上映射的位置接近。

为此,我们采用对抗性学习方案,并提出了一种全卷积鉴别器,该模型可学习将真值标签图与分割预测的概率图区分开来。结合空间 CE Loss,我们的方法使用了对抗损失,该损失促使分割网络在高阶结构中生成接近于ground truth标签图的预测概率图。这个想法类似于使用概率图形模型,例如条件随机场(CRF)(Zheng等人,2015; Chen等人,2017; Lin等人,2016),但是在使用过程中没有额外的后处理模块测试阶段。此外,在推理过程中不需要鉴别器,因此我们提出的框架不会增加测试的计算能力。通过采用对抗学习,我们进一步利用了在半监督条件下拟议的卷积鉴别器。

这项工作的贡献如下:首先,我们开发了一个对抗框架,可以在推理过程中提高语义分割的准确性,而无需额外的计算负担。其次,我们通过利用未标记图像的鉴别网络响应来帮助训练分割网络,从而促进半监督学习

算法概述

图1显示了所提出算法的概述。我们的系统由两个网络组成:分割网络和鉴别器网络。前者可以是设计用于语义分割的任何网络,例如FCN,DeepLab,DilatedNet。给定一个尺寸为H×W×3的输入图像,分割网络将输出尺寸为H×W×C的类别概率图,其中C是目标数据集的语义类别数。

我们的鉴别器网络是一个基于FCN的网络,它将分类概率图作为输入,从分割网络或地面真值标签地图中输入,然后输出大小为Hx Wx 1的空间概率图。鉴别器的每个像素p输出映射表示该像素是从地面实况标签(p = 1)还是从分段网络(p = 0)采样。与采用固定尺寸输入图像(大多数情况下为64×64)并输出一个概率值的典型GAN鉴别器相比,我们将鉴别器转换为可完成任意大小输入的全卷积网络。重要的是,我们发现这种转变对建立对抗性学习计划至关重要。

在训练过程中,我们使用半监督设置下的标签图像和未标签图像。当使用标记的数据时,分割网络由标准的交叉熵损失(具有地面真实性标签图)和对抗性损失(由鉴别器网络)监督。请注意,我们仅使用标签数据来训练鉴别器网络。

对于未标记的数据,我们使用提出的半监督方法训练分割网络。从分割网络获得未标记图像的初始分割预测之后,通过将分割预测传递到鉴别器网络来获得置信度图。反过来,我们使用“自学式”方案将此置信度图视为监督信号,以训练带有mask 交叉熵损失的分割网络。直觉是该置信度图指示了预测分割的局部质量,因此分割网络知道训练期间可以信任的区域。

图1

采用对抗网络的半监督训练

训练目标

给定大小为 H×W×3 的输入图像 X_n,我们将分割网络表示为 S(·),将预测概率图表示为大小 H×W×CS(X_n),其中C是类别编号。 对于我们的全卷积鉴别器,我们将其表示为 D(·),它输出大小为 H×W×1 的两类置信度图D(P_n),其中 P_n 是大小为 H×W×C 的类概率图 ,来自地面真值标签 Y_n 或分割网络 S(X_n)

鉴别网络训练。为了训练鉴别器网络,我们针对两个类别将空间交叉熵损失 L_D最小化。损失可以正式写成

其中,如果样本是从分割网络中提取的,则 y_n = 0;如果样本是来自真实标签的样本,则 y_n = 1。 注意,鉴别器网络将C信道概率图作为输入。 为了将大小为H×W×1 的真实标签图 Y_n 转换为C通道,我们只需通过构造概率图 P_n 来采用独热编码方案,其中 P_n^{(h,w,c)} 取值为1, Y_n^{(h,w)} = c ,否则为0。

Luc等人(2016年)提出鉴别器网络可以通过检测概率来容易地区分概率图是否来自真实值。但是,我们在训练阶段没有观察到这种现象。一个原因是我们使用全卷积方案来预测空间置信度,这增加了学习鉴别器的难度。此外,我们尝试Luc et al。(2016)提出的Scale方案,根据分割网络输出的分布,将真实实际概率信道稍微扩散到其他信道。然而,结果显示没有差异,因此我们在实验中不采用这种方案。

分割网络训练。我们建议通过最小化多任务丢失功能损失函数来训练分割网络:

其中 L_{ce}L_{adv}L_{semide} 分别表示空间多类交叉熵损失,对抗性损失和半监督损失。λ_{adv}λ_semia 是两个用于平衡多任务训练的常数。

我们首先考虑使用带注释的数据的场景。给定输入图像 X_n,地面真值 Y_n 和预测结果 P_n = S(X_n) ,则交叉熵损失可通过以下公式获得:

给定完全卷积的鉴别器网络 D(·) ,我们通过对抗损失 L_{adv} 采用对抗学习。

在这种对抗性损失的情况下,我们试图通过最大程度地将分割预测视为真实分布的概率来训练分割网络,以欺骗鉴别器。

使用未标记的数据进行训练。
使用未标记的数据进行训练。现在我们考虑半监督环境下的对抗训练。对于未标记的数据,显然我们不能应用 L_{ce},因为没有可用的地面真实标签。对抗损失 L_{adv} 仍然适用,因为它只需要鉴别器网络。然而,我们发现,仅仅在没有 L_{ce} 的情况下对未标记的数据应用对抗性损失时,性能会退化。这是合理的,因为鉴别器用作正则化并可能过度纠正预测以适应地面真实分布。

因此,我们建议使用“自学”策略来利用带有未标记数据的训练过的鉴别器。主要思想是训练过的鉴别器可以生成一个置信图,即 D(P_n)^{(h,w,1)}),它推断出预测结果足够接近地面真实分布的区域。然后,我们用一个阈值对这个置信图进行二值化,以突出显示可信区域。我们使用这个二值化的置信度图将自学成的基本事实定义为掩码分割预测 \hat{Y_n} = argmax(P_n)。由此产生的半监督损失定义为:

I(·) 是指示函数,T_{semi} 是控制自学过程灵敏度的阈值。在训练期间,将自学成的目标 Y_n 和指示函数的值视为常量,因此 L_{semi} 可以简单地视为带有Mask的空间交叉熵损失。在实践中,我们发现这个策略在T_{semi} 范围在0.1到0.3之间稳健运行。

网络架构

分割网络

我们采用DeepLab-v2(Chen等,2017)框架以及在ImageNet数据集(Deng等,2009)上预先训练的ResNet-101(He等,2016)模型作为我们的分割-基线网络。然而,由于内存问题,我们没有采用Chen 中提出的多尺度融合。根据最近关于语义分割的工作实践(Chen et al。,2017; Yu&Koltun,2016),我们删除了最后一个分类层,并将最后两个卷积层的跨度从2修改为1,使分辨率为输出要素图有效地是输入图像大小的1/8倍。为了扩大感受野,我们在conv4和conv5层分别应用了步长为2,为4的空洞卷积(Yu&Koltun,2016)。在最后一层之后,我们采用了Chen提出的空洞空间金字塔池化(ASPP)等(2017)作为最终分类器。最后,我们将上采样层与softmax输出一起应用,以匹配输入图像的大小。

鉴别器网络

对于鉴别器网络,我们遵循Radfordet等人使用的结构。它由5个卷积层组成,卷积核为4×4,通道数为{64,128,256,512,1},步幅为2。每个卷积层后都有一个Leaky-ReLU(Maas等人,2013),除最后一个参数外,其参数为0.2。要将网络转换为全卷积网络,需要在最后一层添加上采样层,以将输出重新缩放为输入图的大小。请注意,我们没有采用批量归一化层。我们发现批次归一化层(Ioffe&Szegedy,2015)高度不稳定,因为该系统只能以小批量进行训练。

总结:

本文的总体思路是采用半监督的思路进行学习,半监督是将有pixel-level和image-level标注的数据集进行训练,再将训练好的网络用于没有pixel-level标注的数据集进行学习,所以在本文通过对抗网络作为语义分割网络,对于有标记的数据,首先通过交叉熵loss Lce训练分割网络,将ResNet101作为backbone,并使用ASPP作为最后一层conv,得到预分割的feature map,在判别器部分(仅使用标记的数据训练判别器),使用交叉熵loss Ld与Ladv进行训练,通过自学习方案得到置信度图(confidence MAP),通过有ground-truth的监督下, 训练判别器,使其无法分别生成的图像是数据集真实的图像还是生成的虚假的图像。对于未标记的数据,由于没有ground-truth监督,没有交叉熵loss,但Ladv同样适用,我们通过训练好的判别器逐像素设置one-hot编码,通过Lsemi辅助训练进行半监督。

参考:
2018 BMVC之GAN+seg:Adversarial Learning for Semi-Supervised Semantic Segmentation

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 205,033评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,725评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,473评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,846评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,848评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,691评论 1 282
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,053评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,700评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,856评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,676评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,787评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,430评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,034评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,990评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,218评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,174评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,526评论 2 343