深度学习超分辨率重建总结(上)

最近人工智能课的作业做得是关于超分辨率重建的题目,所以借此机会对一些比较经典的 SR 方法做一个总结。写着写着发现太长了,还是分成上下两篇吧。


1.《Learning a Deep Convolutional Network for Image Super-Resolution》

SRCNN模型

论文链接:https://link.springer.com/chapter/10.1007/978-3-319-10593-2_13
项目链接:http://mmlab.ie.cuhk.edu.hk/projects/SRCNN.html

这篇文章和《Image Super-Resolution Using Deep Convolutional Networks》内容相同,只是后者的实验部分更详细。

算法流程:

  1. 先用双线性插值上采样,把图像变成期望的大小。
  2. 放入CNN中学习,三个卷积层分别对应如下的功能:
    1) 特征提取
    2) 特征映射(LR特征映射到HR特征)
    3) 重建

网络模型:

损失函数:

MES(均方差)损失,计算公式如下:

2. 《Accelerating the Super-Resolution Convolutional Neural Network》

FSRCNN模型

论文链接:https://arxiv.org/abs/1608.00367
项目链接:http://mmlab.ie.cuhk.edu.hk/projects/FSRCNN.html

网络模型:(与 SRCNN 对比)

针对问题:

  1. 一般网络都直接将插值后的 LR 投入到网络中,这便带来复杂的计算开销,假设要放大 n 倍,那么计算复杂度则上升到了 n2
  2. 非线性层映射的参数太过臃肿。

提出改进:

  1. 取消 ILR 输入,而是采用 LR 输入,在最后引用反卷积放大图像;
  2. 非线性映射改为:收缩(Shrinking)、映射(Mapping)、扩展(Expending)三步;
  3. 更小尺寸的滤波器和更深的网络结构。

其中,Shrinking 使用大小为 1×1 的卷积层,目的是减小特征的维数(通道数),提高学习效率。作者发现低维度特征的重建效果并不是特别好,因此通过 1×1 的卷积层对 HR 特征进行扩维,类似于Shrinking 的反操作。然后再进行重建。

3. 《Real-Time Single Image and Video Super-Resolution Using an Efficient Sub-Pixel Convolutional Neural Network》

ESPCN模型

论文链接:https://arxiv.org/abs/1609.05158
全文翻译:http://www.jianshu.com/p/9d654bdbd5e2
项目链接(tensorflow):https://github.com/Tetrachrome/subpixel

网络模型:

图示的前 l-1 层为特征提取层,第 l 层为亚像素卷积层。通过亚像素卷积层生成 W×H×r2 的图像,即 r2 张亚像素图像。最后将这些亚像素图像按顺序重组,得到最终的 HR 图像。

4. 《Deeply-Recursive Convolutional Network for Image Super-Resolution 》

DRCN模型

论文链接:https://arxiv.org/abs/1511.04491
全文翻译:https://blog.csdn.net/weinidakaishijian/article/details/75565896
项目链接:https://cv.snu.ac.kr/research/DRCN/

网络模型:


  1. Embedding Net:相当于特征提取的作用
  2. Inference Net:递归网络
  3. Reconstruction Net:重建网络

主要贡献:

  1. 递归监督(recursive-supervision):训练递归网络也会出现梯度爆炸和梯度消失,所以使用递归监督。每一个循环子层的 loss 都会叠加到总 loss 上,从而成为一个有效的监督,也对梯度消失与爆炸有平滑作用。

  2. 跳跃连接(skip-connection):LR 图像和网络输出的HR 图像有很高的相关性,而随着递归网络深度加深学习不到这种线性映射,所以通过该技巧可以使用大部分低分辨率信息用于重建高分辨率图像。该网络学习的是 LR 与 HR 的残差(见下文)。

  3. 其中的 H1 到 HD 是 D 个共享参数的卷积层。DRCN将每一层的卷积结果都通过同一个Reconstruction Net得到一个重建结果,从而共得到D个重建结果,再把它们加权平均得到最终的输出。

5. 《Accurate Image Super-Resolution Using Very Deep Convolutional Networks》

VDSR模型

论文链接:https://arxiv.org/abs/1511.04587v1
项目链接:https://github.com/huangzehao/caffe-vdsr

网络模型:

SRCNN的问题:

  1. 训练层数少,没有足够的视野域;
  2. 训练太慢,导致没有在深层网络上得到好的效果;
  3. 不能支持多种倍数的高清化。

主要贡献:

  1. 增加网络层数,增大感受野;
  2. 使用残差网络,在增加网络层数的同时,提高学习率,加快了收敛速度;
  3. 数据融合,将放大不同倍数的数据集混合在一起训练得到一个模型,从而共享参数。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,793评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,567评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,342评论 0 338
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,825评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,814评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,680评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,033评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,687评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 42,175评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,668评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,775评论 1 332
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,419评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,020评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,978评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,206评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,092评论 2 351
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,510评论 2 343

推荐阅读更多精彩内容