第四天 综述阅读1 常见的神经网络

segmentation

INTRODUCTION

图像分割是计算机视觉当中不可或缺的组成部分,分割在医学图像分析,自动驾驶,视频监控等方向都起着很大的作用。随着科技的发展,很多文献已经开发出了很多的图像分割算法,从最早的阈值化,k均值聚类,分水岭算法到更高级的例如活动轮廓,马尔可夫随机场和一些基于稀疏性的方法。在过去的几年中深度学习(DL)网络产生了新一代的图像分割模型,在性能上得到了非常显著的提升。许多人将其视为该领域的革命性转变。

图像分割可以分为语义分割和实例分割。

这篇综述最大的贡献在于:

1.这篇综述调查了截至2019年在图像分割方面的文献,讨论了一百多种基于深度学习的分割方法,并对这些不同的分割方法的不同方面(database,backbone,loss,训练策略)进行了比较与讨论。

2.讲述了约20种流行的segmentation database(2D,3D,2.5D)

3.对深度学习潜在未来的方向讲述自己的见解

Overiew of deep neural networks

CNNS

CNN应该是深度学习当中使用最广泛也是最成功的神经网络架构之一。

CNN主要由三种类型的层组成:

1.卷积层(conv3-64),其中卷积权重的核(或滤波器)以提取特征。

2.非线性层(激励层),它们在特征图上应用激活函数(RELU),以便能够通过网络对非线性函数进行建模。

3.池化层,这些合并层用一些统计数据替换了特征图的一小部分邻域有关邻域的信息(平均值,最大值等),提取主要特征;下采样,并降低空间分辨率优化网络参数。

4.全连接层,通过卷积层的得到的一些局部特征,将这些局部特征通过权值矩阵来组装成完整的图像,全连接层的权重矩阵是固定的,因此也就限制了CNN中输入图像的尺寸必须一样。

CNN的主要计算优势在于,一层中的所有接收场均具有权重,因此与完全连接的神经网络相比,参数数量明显减少。(局部连接,窗口滑动)

一些最著名的CNN架构包括:AlexNet(8层,5个conv层,2个FC,1个类似于softmax的lable 层)

          ZFnet(ALEXNET的继任者,发现了ALEXNET中第一层包含了很多高频和低频信息,没有包含很多中间信息。将第一层的11*11卷积核变为7*7,步长4变为2)

                                          VGGNet(16,19,conv3(2个3*3顶5*5,3个3*3顶7*7)上面两个都是专注于缩小感受野提升准确率,这个开始已经研究网络深度了,vgg超越了googlenet是分类和检测当中的最常用的backcone)。

          NETWORK IN NETWORK(全局平均池化层替代了fc,可以将任意h*w*d转化为1*1*d的张量)

                                          GoogleNet(222层使用了全局平均池化层替代了fc,采用了inception模块,一个卷积层多种不同尺度卷积核,使用了1*1卷积核进行降维)

                                          Resnet(主要是处理一个梯度消失的问题,残差块)

RNN和LSTM

RNN(循环神经网络),主要的用途是处理和预测一些序列数据。这个RNN的主体结构A除了来自输入层XT,得到HT,同时这个A会将当前状态传递到下一步。因此RNN可以看成同一个神经网络被无限复制的结果。

RNN在NLP中的典型应用:语言模型与文本生成(给一个单词序列,通过这个模型预测下一个单词),机器翻译(将英语语句变成同样意思的中文语句),语音识别(转文本那种感觉),图像描述生成

优点:具有记忆功能,可以预测时间序列的数据

缺点:他这个只能受到上一时刻的影响,实际上往往需要结合很多这种上下文高阶信息。容易导致梯度消失(可以用于gradient clipping的方法解决)和梯度爆炸(无法解决)

LSTM-RNNs 的改进模型

Long Short Term网络,又被称作LSTM,是一种RNN特殊的类型,可以学习长期依赖信息。

LSTM的关键就是这个细胞状态,在图上方穿行而过,通过这个传送带,可以实现长时间的记忆功能。

三个门,什么该被丢弃,什么该被更新,最后的输出。

Encoder-Decoder and Auto-Encoder Models

encoder:conv(提取特征)+bn(对训练图像的分布归一化,快速学习)+pooling(下采样,将尺度不变的特征传到下一层)对图像的局部像素值进行一个归类与分析,从而获得更高阶的语义信息。

decoder 将缩小后的图像通过卷积重置上采样恢复到和原图的分辨率一样,为了弥补在encoder当中pooling将图像变小造成的细节上的损失。

GANs(照理来说是要产生大量图像样本的,也可以用于图像分割,那样就是两个输入,原图加金标准和原图加mask)

生成器:创造一个看起来像真的的图片

分辨器:判定给定的是不是真实图片

开始的时候,这里两个模型都是没有经过训练的,这两个模型一起对抗训练,然后这两个模型在训练过程当中不断对抗从而性能越来越强,最终达到一个稳态。

Transfer Learning

在某些情况下,可以在新的数据集上从头开始训练DL模型(假设有足够数量的标记训练数据),但是在许多情况下,没有足够的标记数据来从头开始训练模型,并且可以使用迁移学习解决这个问题。在迁移学习中,通常通过对新任务的适应过程,将在一个任务上训练的模型重新用于另一(相关)任务。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 204,684评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 87,143评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 151,214评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,788评论 1 277
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,796评论 5 368
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,665评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,027评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,679评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 41,346评论 1 299
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,664评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,766评论 1 331
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,412评论 4 321
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,015评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,974评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,203评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,073评论 2 350
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,501评论 2 343

推荐阅读更多精彩内容