Understanding Neural Networks via Feature Visualization: A survey(1)

奥本大学 美国80左右的大学

(1)回顾现有的AM(激活最大算法)(2)讨论现有AM算法概率意义的解释,(3)回顾AM在调试和解释网络的应用

(1)认为ZF的文章的问题:需要在很大的图像集上测试每个神经元,第二个问题激活神经元的不一定是有信息量的图片,因为这篇文章提到Deep neural networks are easily fooled: High confidence predictions for unrecognizable images,错误的图片也可能被给以高置信度,第三,到底是图片里的哪个视觉特征导致了神经元的激活是模糊的。比如被一张站在树上的鸟图片激活,不确定是鸟还是树 ,第四,神经元可能喜欢的是一个图片的集合,如何从这个图片的集合中提取一个整体的描述是很困难的(这组图片中怎么提取一个公用特征?)一个普遍的做法,是研究刺激unit的top-9图片,但是只取九个应该是不够的,因为它可能只反映了神经元感兴趣的许多类特征中的一类(需要一个分布,最喜欢,第二喜欢,然后。。。而不仅仅是top9,图片可以加个权重吗,然后选出感兴趣的特征)Multifaceted feature visualization: Uncoveringthe different types of features learned by each neuron in deep neural networks  这篇文章揭示了一个神经元喜好的多个特征。另外一种做法,是直接合成视觉特征,而不是挑选真实的图片,包括Visualizing higher-layer features of a deep network,Synthesizing the preferred inputs for neurons in neural networks via deep generator networks ;Feature visualization. distill(这是一篇网络文章,蒸馏);这种合成方法的优势:在一个给定的图像先验(可不可以图像先验都不要,让它无拘无束)下不需要和训练集一致,这是实际中更有可能情形;第二 可以给图片类型和内容更多的 人为控制


可以推广到研究一组神经元的最大激活值,比如Inceptionism: Going deeper into neural  networks(又一篇谷歌脑的推文)Plug & play generative networks: Conditional iterative generation of images in latent space,The building blocks of interpretability. Distill(谷歌脑),

训练输出而不是权重

我们在激活值达到一个阈值时停止训练。从一个随机噪声图片(random)从头开始生成AM的图片往往导致不可解释的图片,就是Deep neural networks are easily fooled: High confidence predictions for unrecognizable images,这篇文章中提到的,fooling examples,比如说高频噪声激活给定神经元。因此一个方式是 从一个真实的图片开始优化AM,这样导致我们往往容易遇到对抗性样本,(对抗样本满足两个要求,一个是误分类,一个是很接近初始图片,只是误分类的不能称之为对抗样本

没有图像先验会产生很垃圾的图片


振铃现象

因此希望把搜索限制在可解释的范围内,看上去像是真图片或者接近训练集里的那些图片,Vsualizing deep convolutional neural networks using natural pre-images。


加了正则项


加正则的优化是这样的,但是其实也可以通过别的方式来正则


定义了一个轻微高斯核r来正则

这是在Understanding Neural Networks Through Deep Visualization中提到,比较了可视化结果,觉得Synthesizing the preferred inputs for neurons in neural networks via deep generator networks这篇文章中gan是最好的。


局部的正则化方法总结

这些正则化只能有效的保持自然图像的局部统计量


全局结构


想让生成的图片更加多样化,这样可以探究神经元是否对多类物体感兴趣

之前的AM是通过修改图片的像素,反向传播来实现的,这里逐像素的改变往往是缓慢地,无关联的,常常生成噪声图片。Synthesizing the

preferred inputs for neurons in neural networks via deep generator networks

这篇文章中的DCN-GAN,(应该是DCN-GN)


让生成的图片多样化,来探究神经元是不是对多个 物体感兴趣

AM不仅仅可以去优化深层次的空间,也可以去优化浅层次的空间,提到gan训练用的感知损失,来自Generating images with perceptual similarity metrics based on deep networks


GAN 做AM是不一样的,生成图片去做判断,然后再生成

好好想想这是用GAN来做AM,不是用GAN来重建某个特征的,好奇这个GAN的判别器判别的是什么??(生成图片的任务中判别器判别的是什么?,没有真实图片作参考啊

问题变成了找编码h
优化h

这个GAN的方法是在隐层空间进行的优化,x不是第一层了,h是第一层,所以与之前的在像素空间进行优化的方法比起来效果好很多。,但是GAN的问题是容易丧失多样性,只能生成最大激活神经元的九类图像,而类别数较少。

(不是GAN,错了,只是一个生成网络,没说对抗,一个指导网络)

为了增强图片的多样性,在Plug & play generative networks: Conditional iterative generation of images in latent space这篇文章中,利用一个去噪自编码器DAE学习h的真实先验。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,530评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 86,403评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,120评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,770评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,758评论 5 367
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,649评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,021评论 3 398
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,675评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,931评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,659评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,751评论 1 330
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,410评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,004评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,969评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,042评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,493评论 2 343

推荐阅读更多精彩内容