Python深度学习(第二部分-2)


传送门:
Python深度学习(第一部分)
Python深度学习(第二部分 -1)
Python深度学习(第二部分 -2)


深入部分,看这一本肯定不够,需要其他资料深入学习

第七章 高级的深度学习最佳实践

1. Keras 函数式 API

之前的例子都是线性结构的深度学习网络结构,显然并不"高级".


7-1.png

实践中,可以是多种多样的,Inception ,残差连接都属于这种.


7-2.png

函数式 API

  • 输入合并: layers.concatenate
  • 输出合并: Model(),第二个参数为输出列表.
  • 共享层权重: LSTM(),加入连体/共享模型

2. 使用 Keras 回调函数和 TensorBoard 来检查并监控深度学习模型

机器学习在Fit调用后是自动执行的,为了更加细致地监控/了解每次迭代的变化和改进,引入了回调函数(生命周期)

7-3.png
  • ModelCheckpoint 与 EarlyStopping : 用来判断过拟合进行中断.
  • ReduceLROnPlateau: 通过降低学习率,使得验证损失可以改善.
  • 编写你自己的回调函数: 扩展Callback类,实现需要覆盖的方法
7-4.png

TensorBoard是一个特殊的回调函数类,使用 TensorFlow 后端时,有个基于浏览器的可视化工具.

3. 让模型性能发挥到极致

  • 高级架构模式: 批标准化(即使在训练过程中均值和方差随时间发生变化,它也可以
    适应性地将数据标准化,适用于很深的网络结构,有助于梯度传播),深度可分离卷积(通过拆分,合并的办法,适用训练小型模型)
  • 超参数优化: 前面各种学习参数都是经验决定的,比如每层维度,卷积核大小,超参数优化就是把这个手工+经验的配置自动化.(由于使用验证数据调整参数,可能出现验证数据过拟合)
  • 模型集成: 多种模型加权计分,群策群力解决同一问题,从而优化结果.

第八章 生成式深度学习

前面解决了反应式问题,但是现实很多问题需要的是创造型活动,深度学习也能做到.而且这些应用也都达到"可用"级别,如果要完全搞懂,每个都需要大量的时间投入,目前我只能理解一下基本原理.

1. 使用 LSTM 生成文本(AI写小说)

生成文本,使用了循环网络可预测下一个数据的特性.通过采样->输入->采样的过程持续中训练好的网络得到输出.

  • softmax温度(对概率分布重新加权,控制随机性大小)
8-1.png

由于这种方式仅仅是统计数据采样,并非真正的语义创新.

2. DeepDream(AI画画)

使用反向运行卷积神经网络,从而从一个输出获得输入(生成神奇图片)

3. 神经风格迁移(AI图片合成)

针对目标+风格=组合


8-2.png

具体原理为定义风格与内容,并将总损失最小化:
loss = distance(style(reference_image) - style(generated_image)) + distance(content(reference_image) - content(generated_image))
因此需要从数学上定义style和content两个函数,其中content比较简单,它就是网络中靠近顶部的信息,风格就比较麻烦,需要格拉姆矩阵(Gram matrix)计算.

具体步骤:

  • 创建网络(使用预训练层),能同时计算风格图,内容图,生成图的VGG19层激活
  • 使用3张图像计算层激活的损失函数
  • 设置梯度下降过程,使得损失最小化

这种方法需要学习纹理,运算并不快,实际可以根据某种风格进行预训练,然后对内容进行快速迁移(一个小型卷积网络的一次前向传递)

4. 用变分自编码器生成图像

通过训练生成图像的潜在空间,再通过生成器/解码器反向映射回图像空间.VAE/GAN都可用,其中VAE由于具有连续性,可用生成逐渐变化的图片(网络上人老去的图片生成算法...)

变分自编码器:重构损失,正则化损失是VAE的参数.

5. 生成式对抗网络简介

为了使得深度学习获得更好的精度,对抗网络是强大的算法(通过培养对手-判别器,让自己更强大).起原理为构建2组神经网络.生成器网络,判别器网络,并且不固定优化最小值(通过动态调整梯度下降),因此,GAN训练很困难,很复杂.


8-3.png

流程:

  • 生成器网络将(latent_dim)的向量映射到(32,32,3)的图像
  • 判别器网络将(32,32,3)的图像映射到2进制分数,用来评价真/假.
  • 标记好已知的图像(真/假)用来训练判别器网络
  • 使用gan模型损失优化生成器网络的梯度.

技巧:

  • 使用tanh作为最后一层激活
  • 使用正态对潜在空间采样
  • 使用Dropout和随机噪声增加训练的随机性
  • 生成器使用步进Conv2DTranpose或Conv2d,是的像素空间均匀.

这些技巧原理并没介绍,这里直接说结论..

具体代码,生成器和判别器相对简单,重点在组合两个部分以及训练部分:


8-4.png
8-5.png

第九章 总结1

作者的总结,比我的笔记精要多了,我可没法做总结的总结..
局限性和未来部分,特别是揉纸团和登月任务的比喻,很精辟,值得借鉴使用.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,088评论 5 459
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 81,715评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 141,361评论 0 319
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,099评论 1 263
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 60,987评论 4 355
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,063评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,486评论 3 381
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,175评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,440评论 1 290
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,518评论 2 309
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,305评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,190评论 3 312
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,550评论 3 298
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,880评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,152评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,451评论 2 341
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,637评论 2 335