前言:此文章是基于李弘毅老师的深度学习课程,与其说文章心得,倒不如说其为学习笔记。(如果对您的学习有所帮助记得点个赞喔)
视频地址:https://www.bilibili.com/video/av9770302/from=search&seid=905421046757750252
ppt地址:http://speech.ee.ntu.edu.tw/~tlkagk/courses_MLDS17.html
原论文地址:https://arxiv.org/abs/1406.2661
博客参考:https://www.jianshu.com/p/40feb1aa642a
https://openai.com/blog/generative-models/
背景知识:
(1)Maximum Likelihood Estimation(最大似然估计)
问题:
一个袋子中总共有黑白两种颜色100个球,其中一种颜色90个,随机取出一个球,发现是黑球。那么是黑色球90个?还是白色球90个? 极大似然估计是指:在一次抽样中,样本出现的概率是关于参数θ的函数,若在一些试验中,得到观测值 x1,x2,...,xn,则我们可以选取 θ ̂(x1,x2,..,xn)作为θ的估计值,使得当θ=θ ̂ (x1,x2,..,xn)时,样本出现的概率最大。
似然函数:
最大似然函数:
(2)Kullback-Leibler divergence(KL散度/相对熵)
相对熵表示使用理论分布拟合真实分布时产生的信息损耗。
(3)JS散度
KL散度并不是一个真正的度量或距离函数,确切的说其仅用于衡量一个分布 相比另一个分布的信息损失,存在不对称的缺点,即D(P||Q)!=D(Q||P) 。 故引出JS散度。
GAN算法推导:
1. 什么是GAN?
GAN 主要包括了两个部分,即生成器 Generator 与判别器 Discriminator。 G好比制造假币的违法份子,而D好比警察,G先制造出假币,D成功识别,然后G改进技术,达到能够骗过D的程度;然后D错误判断后就提升自己的鉴别能力,直到能够识别出之前被骗的假币。G一看不行,继续提升造假币的技术,就如此循环往复,直到二者达到一个平衡,生成器制造的假币接近真币,而判别器识别不出真假币。
2.GAN的原理:
首先,根据生成对抗的原理做一个简单的推导,假设我们有一大堆data,他的分布是Pdata(x),我们可以认为这里的data就是一大堆图片,但是,我们有了这一大堆东西,再想生成一个新的data是不容易的,因为我们不知道这个分布的具体参数,所以,我们就想估计这堆数据的所服从的参数。那么,我们可以从Pdata(x)产生一大堆图片样本,然后,我们就希望找一组参数构成一个生成函数(在此处我们是基于高斯混合模型),使得服从这组参数的生成函数分布产生这堆样本的可能性最大。所以最简单的方法就是计算它的最大似然来确定参数。
然后对其进行化简,利用取log使求积变为求和,然后约等于对其求期望(说明:在数量足够大的情况下求期望可以近似等于求均值,只不过式中未乘以1/m,但不影响因为是求最大值时θ的取值)。 然后在后面补充一个积分形式的常数项(方便凑成KL散度的形式)。
在上述的方法中我发现,我们的思路没有问题,但我们需要去寻找这个 PG(x;θ),如下图所示,高斯函数随机生成的Z经过生成模型G(z)(神经网络)一个分布PG(x;θ),然后再利用此处的PG()进行运算,PG()的表达式中 I[G(z)=x]的意义是,在真实的图片空间中的图片x可以由z转化而来时就为1,否则就为0.
相关说明:https://openai.com/blog/generative-models/
但将PG()带入最大似然函数时发现难以计算,于是我们转变思路,从生成器来说,生成器给出一个函数输入z,输出x,同时给出一个前向函数Pprior(),是PG()的一个可能的分布。 监督器是一个函数,输入x输出一个标量,用来表述PG()与Pdata()之间的差异性。 于是,我们给出了一个函数V(G,D).
那么问题来了,我们怎么去计算V(G,D)从而得到我们需要的G呢? 首先我们需要先对
进行一个理解。这个表达式中同时存在min与max,但实际上它是具有一定的层次关系的,可以写为G*=arg(min(maxV(G,D))),所以先根据D的取值去寻找一个能够使V(G,D)最大的取值,然后D不动在去改变G的表达函数然后获取一个最小的V(G,D).
解释:在表达式中V(G,D)的最大值可以表示PG()与Pdata()的差异性。如下图所示,红点都是在不同G值下的最大值,此处就是两者的差异性,而G3是使二者差异性最小的函数模型。
此时我们就需要寻找怎么寻找这个D来使得它可以表示二者的差异性,此处我们给定一个G然后展开V(G,D).然后我们就可以假设D(x)可以取任意值,所以就可将D(x)视为一个变量,,当然此处与G相关的我们视为一个带有未确定参数的固定函数模型,所以可以将其视为一个常量,而其中未确定的变量可以不去关注,因为我假设G是已经给定的。然后直接将D(x)视为未知数对其求导,然后就可以计算得到他的最大值处的取值。如下所示:
然后上面得到的最大处取值,然后带入原式,然后化简就可以得到两个离散的KL散度,进而将其化简为JS散度。
在确定取值最大的D的函数模型后并带入后,怎么求合适的G的函数模型? 此处将其视为一个由G为未知量的损失函数L(G),然后对其进行梯度下降求最小值,就能确定一个θG来定义G。在进行梯度下降算法的过程中可以求带有max的函数,如下图所示:
整个算法流程: 首先随机确定一个G0然后根据这个计算出D0*然后根据梯度下降得到新的G1,再计算D1*,循环往复就能得到效果越来越好的G与D.
3.理论与实际的差异性
由于理论和实际存在的最大问题就是:理论上我们是以样本集的所有样本进行计算与推导的,但在实际计算过程中不可能穷尽所有的样本,只是取部分样本进行计算与训练。 所以,我们只能采用采样的方法,同时可以采用我们二分类的思路,我们把Pdata(x)中产生的样本当作正例,把PG(x)产生的样本当作负例,那么,下面V可以看作是我们二分类的一个损失函数的相反数:
也就是说,最大化V的话,其实就是最小化我们二分类的损失,下面的Minimize少了一个负号,所以我们要找的D,就是能使二分类的损失最小的D,也就是能够正确分辨Pdata(x)和PG(x)的D,这也正符合我们想要找的Discriminator的定义:
在实际算法中,我们会基于理论计算方法,对其进行适当的改动,得到了我们实际算法,首先,我们又一个第一代的Generator,然后他产生一些图片,然后我们把这些图片和一些真实的图片丢到第一代的Discriminator里面去学习,让第一代的Discriminator能够真实的分辨生成的图片和真实的图片,然后我们又有了第二代的Generator,第二代的Generator产生的图片,能够骗过第一代的Discriminator,此时,我们在训练第二代的Discriminator,依次类推。