详解advGAN

这是一种使用GAN来生成对抗样本的模型

代码:

首先来看一个训练过程

        代码中首先训练的是D

        首先用generator生成干扰项 perturbation,然后与原图相加形成对抗样本 adv_images

        当然训练一个D的loss分为了两部分,loss_D_real旨在拉近吃正样本之后的输出与1的距离

loss_D_fake旨在拉近吃负样本之后与0的距离,这里的负样本就是对抗样本,输入的时候不要忘了detach掉

        # optimize D

        # x are the input images

        for i in range(1):

            perturbation = self.netG(x)  # torch.Size([128, 1, 28, 28])

            # add a clipping trick

            adv_images = torch.clamp(perturbation, -0.3, 0.3) + x

            adv_images = torch.clamp(adv_images, self.box_min, self.box_max)

            self.optimizer_D.zero_grad()

            pred_real = self.netDisc(x)

            loss_D_real = F.mse_loss(pred_real, torch.ones_like(pred_real, device=self.device))

            loss_D_real.backward()

            pred_fake = self.netDisc(adv_images.detach())

            loss_D_fake = F.mse_loss(pred_fake, torch.zeros_like(pred_fake, device=self.device))

            loss_D_fake.backward()

            loss_D_GAN = loss_D_fake + loss_D_real

            self.optimizer_D.step()

        训练G的过程就有些复杂了

        首先要G的Gan损失的训练目标是让自己生成的对抗样本,在D看起来和正样本1相近

下方的retain_graph = True的意思是保留当前方向传播的计算图,可以做梯度累加

可以参见这两篇博客https://www.cnblogs.com/picassooo/p/13748618.html

https://www.cnblogs.com/picassooo/p/13818952.html

            self.optimizer_G.zero_grad()

            # cal G's loss in GAN

            pred_fake = self.netDisc(adv_images)

            loss_G_fake = F.mse_loss(pred_fake, torch.ones_like(pred_fake, device=self.device))

            loss_G_fake.backward(retain_graph=True)

        接下来就是限制扰动大小的损失

        这里设计的是一个batch之中所有图片的矩阵二范数都不能太大

            # calculate perturbation norm

            C = 0.1

            loss_perturb = torch.mean(torch.norm(perturbation.view(perturbation.shape[0], -1), 2, dim=1))

        接下来就是样本对抗损失

        onehot_labels这里的实现是比较优雅的,总体功能是根据手写数字的类别转换为onehot编码的格式,torch.eye的功能就是得到onehot编码,然后使用lables变量中对应的类别把他提取出来

        real的功能,按照我粗浅的理解,是得到网络针对一个batch中所有对抗样本预测正确的概率。other的功能,是得到了网络针对一个batch中的所有对抗样本预测为错误的类别中,可能性最大的概率。

        那个torch.max(real-other,0)的功能,按照我粗浅的理解,首先看real-ohter的部分,因为损失函数都是梯度下降的,最小化这个损失函数,相当于训练模型让real更小,other更大,犯错的概率越大。之所以要与0相max,也许是小于0的时候,other已经大于real了,然后没必要训练这个部分了?

        最后一个损失函数我可能理解的不正确,还是要看一下那个C&W模型是怎么设计的

            # cal adv loss

            logits_model = self.model(adv_images)

            probs_model = F.softmax(logits_model, dim=1)

            onehot_labels = torch.eye(self.model_num_labels, device=self.device)[labels]  # torch.Size([128, 10])

            # C&W loss function

            real = torch.sum(onehot_labels * probs_model, dim=1)  # [128]

            other, _ = torch.max((1 - onehot_labels) * probs_model - onehot_labels * 10000, dim=1)

            zeros = torch.zeros_like(other)

            loss_adv = torch.max(real -

                                other, zeros)

            loss_adv = torch.sum(loss_adv)

接下来就是把这两个loss乘以一个超参权重,然后backward就好了

————————————————

版权声明:本文为CSDN博主「Blue_Whale2020」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。

原文链接:https://blog.csdn.net/Blue_Whale2020/article/details/124051810

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容