DDPG算法解析

时间会让你忘记我吗

直接看名字就能看出DDPG(Deep Deterministic Policy Gradient )其实就是DPG(Deterministic Policy Gradient )的深度神经网络版本,它采用Actor-Critic架构,用来解决连续控制问题。

其实当初在我刚学了解决离散控制问题的方法的时候,就思考过如果换成连续控制问题该怎么办,然后再看DPG所使用的方法之后,发现跟我想的是一模一样....
所以,DDPG解决强化学习问题的思路跟那些解决离散问题的AC架构方法并没多大区别,就是做了点微小的改动以适应连续问题罢了。因此,有离散控制问题经验的你,并且比较懂深度学习的话,在理解DDPG的时候可以说是非常简单,甚至觉得不值一提...

来看一个连续控制问题

机械手臂

如图,假如我们想用强化学习训练一个策略来控制机械手臂,上面的轴可以在[0, 2\pi]之间转动, 下面的轴可以在[0, \pi] 之间转动,那么它的动作空间将会是一个多维的连续空间:
A \in [0, 2\pi] *[0, \pi]

在有无穷多个action的时候,我们要怎么来实现策略网络呢?

回想一下在离散AC框架下的策略网络,它是输入状态s, 输出a的概率分布\pi (a|s) :

离散控制的策略网络

因为连续控制问题有无数个action, 显然像离散问题那样通过输出层softmax后的n个有限action的概率的方式是行不通的。

因为我太了解深度学习这一套东西了,所以面对这个问题的时候,直接就想到了两个解决方案:

  • 确定策略(就是本文要讲的DDPG的方法): 既然没法输出动作的概率分布,那我用整个策略网络代表概率分布,将分类问题改为回归问题,直接输出确定动作不就可以了嘛...
  • 随机策略:不是要输出分布嘛,不能一个个给,我输出一个高斯分布的均值和方差不就行了嘛...

就这样两个我想当然就想到的方法,然后发现业界就是这么玩的....
既然本文是讲DDPG,自然,我们就沿着第一个想法来实现。
于是我们可以把上面的策略网络改造成这样:

确定策略网络

让神经网络直接输出每个机械臂需要转动多少的动作,几根机械臂就输出几维。
这样,我们就可以利用这个网络的输出动作来操作机械臂,得到相应的transition (s_t, a_t, r_t, s_{t+1}), 接下来就可以按照AC架构的老路来训练模型了~

再来看看模型的更新过程

DDPG

Critic更新 (更新价值网络参数w

价值网络拟合的目标一般跟DQN网络一样是最大动作价值函数Q^*, 期望显然没法求,于是通过蒙特卡洛方法,使用观测值q(s,a;w)来近似,再通过TD算法来改进w:
q_t = q(s_t,a_t;w) \\ q_{t+1} = q(s_{t+1}, a'_{t+1}; w) \\ q_{target} = r_t + \gamma q_{t+1}
于是 TD error为:
\delta_t = q_t - q_{target}
然后通过TD error 梯度下降来更新网络参数w :
w \leftarrow w - \alpha \frac{\partial \delta}{ \partial w}

Actor更新 (更新策略网络参数\theta

Critic 输出的价值代表了Actor预测动作的好坏,因此策略网络的目标是最大化价值Value ,自然就想到了用梯度上升法来最大化q(s,a;w) ,于是,我们可以对 q(s,a;w)\theta 的梯度,让我们将策略网络记作\pi(s;\theta)
pg = \frac{\partial q(s, \pi(s;\theta);w )}{\partial \theta} = \frac{\partial q(s,a;w)}{\partial a} * \frac{\partial a}{\partial \theta}
然后用梯度上升更新\theta :
\theta \leftarrow \theta + \alpha'* pg

优化高估或低估问题

观察上面的推导过程,我们容易发现,这玩意跟DQN类似,因为bootstraping的通病,一开始低估了就会不断低估,一开始高估了就会不断高估,将会使得估计误差一边倒,导致学习的效果不好。为了处理这个问题,有很多种解决方案,大概就是跟DQN 差不多,DDPG就是这么做的。

引入target network

其实就是加入一个延迟更新策略,分别用两个网络来分别估计t+1时刻和t 时刻的值,即:
q_t = q(s_t,a_t;w) \\ q_{t+1} = q(s_{t+1}, a'_{t+1}; w')

a_t = \pi(s; \theta) \\ a_{t+1} = \pi(s_t+1; \theta')
这样一来就隔断了用自己的估计来估计自己,避免了不断被强化的倾向。但是,实际更新target network参数的过程采用的是这样一种方式:
w' = \tau ~w + (1-\tau) w' , \tau \in (0,1) \\ \theta' = \tau ~\theta + (1-\tau) \theta' , \tau \in (0,1)
因为target net的参数还是依赖于原来的网络参数,这种传递无法完全避免。

经验回放

通常经验回放可以使算法更加稳定,因为仅仅使用新数据容易导致网络过拟合使得训练终止,这给了样本有了更多的学习机会,当然如果使用过多的经验也会降低学习速度,这需要一定程度上进行权衡。

当然,还有很多常见的方法都可以... 根据需要来。

总结

  • DDPG是一种off-policy的算法
  • DDPG只能用于连续动作空间的环境
  • DDPG可以被看作是连续动作空间环境下的DQN

相关论文

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 206,126评论 6 481
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 88,254评论 2 382
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 152,445评论 0 341
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 55,185评论 1 278
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 64,178评论 5 371
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,970评论 1 284
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 38,276评论 3 399
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,927评论 0 259
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 43,400评论 1 300
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,883评论 2 323
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,997评论 1 333
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,646评论 4 322
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 39,213评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,204评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,423评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 45,423评论 2 352
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,722评论 2 345

推荐阅读更多精彩内容