2.4 增量实现 & 2.5 解决一个非平稳问题

2.4 Incremental Implementation

背景:目前的行动价值方法都将行动价值估计为观察到的奖励的样本平均值。现在转向如何以计算上有效率的方式计算这些平均值的问题,特别是使用恒定内存和恒定每时间步计算。

为了简化符号,我们将注意力集中在一个动作上。以R_{i} 表示此第i次选择的行动奖励,使用Q_{n} 表示其在被选择n-1次后的(平均)估计价值,可以将其写成:

Q_{n} =\frac{R_{1} +R_{2} +...R_{n-1} }{{n-1}}

优点:保留所有奖励的记录,然后在需要估计值时执行此计算。

缺点:随着时间的推移,内存和计算需求会随着回报的增加而增加。每一个额外的奖励都需要额外的内存来存储,并需要额外的计算来计算分子中的总和。

正如您可能怀疑的那样,这并不是真正必要的。设计用于更新平均值的增量公式是很容易的,因为处理每一个新奖励所需的计算量较小且恒定。给定Q_{n} R_{n} ,n种奖励平均值新公式为: 

式2.3 即使对于n=1,该值为偶数,对于任意Q1,得到Q2=R1

这个实现只需要Qn和n的内存,每个新奖励只需要少量的计算(上式2.3)。下一页的框中显示了使用增量计算样本平均值和ε-贪婪操作选择的完整bandit算法的伪代码。假定函数bandit(a)采取行动并返回相应的奖励。

更新规则(2.3)的形式在本书中经常出现。

一般形式是:

NewEstimate\leftarrow OldEstimate+StepSize[Target-OldEstimate].(2.4)

表达式[Target-OldEstimate]在估计中是一个误差(error),通过向“目标”迈出一步,它就会减少虽然目标可能有噪声,但假定目标指示理想的移动方向。例如,在上述情况下,目标是第n个奖励。

请注意,在上述增量方法中使用的步长参数(步长)会随着时间步长的变化而变化。在处理动作a的第n个奖励时,该方法使用步长参数\frac{1}{n} ,本书中,我们用α表示步长参数,或者更一般地用\alpha _{t}(a),当\alpha _{t}(a)=1/n时,我们有时使用非正式的速记α=1/n,使n对动作的依赖性隐式存在,正如我们在本节中所做的那样。

2.5 Tracking a Nonstationary Problem

背景:迄今为止讨论的平均方法适用于平稳的bandit问题,即报酬概率不随时间变化的bandit问题。遇到的强化学习问题,实际上是非平稳的。在这种情况下,对最近的奖励给予更多的重视比对很久以前的奖励给予更多的权重是有道理的。

常用的方法之一:恒定步长参数,即常数。

例如,增量更新规则(2.3)用于更新过去n-1代的平均Qn奖励修改为:

Q_{n+1} =Q_{n} +\alpha [R_{n} -Q_{n} ],(2.5)

其中,步长大小参数α∈(0,1],常数。因此,Q_{n+1} 是过去奖励与现在初始估计Q_{1} 的加权平均:

其中(1-\alpha )^n+\sum\nolimits_{i=1}^n\alpha (1-\alpha )^{n-i}=1

随着干预奖励数量的增加,给予Ri的权重也随之降低。事实上,权重根据1-α的指数呈指数衰减。

另一种,使步长参数随着时间变化,\alpha _{n}(a) =\frac{1}{{n}} 由大数定律保证收敛到真正的作用值。当然,并非所有的序列选择都能保证收敛{\{\alpha _{n}(a) }\}、,随机逼近理论中的一个著名结果给出了确保概率1收敛所需的条件:

第一个条件是保证步骤足够大,最终能够克服任何初始条件或随机波动。第二个条件保证最终步骤变得足够小,以确保收敛。

注意,对于样本平均情况,两个收敛条件都满足\alpha _{n}(a) =\frac{1}{{n}} ,但不适用于恒定步长参数的情况\alpha _{n}(a) =\alpha 。在后一种情况下,不满足第二个条件,这表明估计永远不会完全收敛,但随着最近收到的奖励而继续变化。正如我们前面提到的,在非平稳环境中,这实际上是可取的,而有效的非平稳问题是强化学习中最常见的问题。此外,满足条件(2.7)的步长参数序列通常收敛非常缓慢,或者需要大量调整以获得满意的收敛速度。虽然满足这些收敛条件的步长参数序列通常用于理论工作,但它们很少用于应用和实证研究。

练习2.4 如果步长参数\alpha _{n} 不是常数,那么估计值Q_{n} 是之前收到的奖励的加权平均值,其权重不同于(2.6)中给出的权重。就步长参数的顺序而言,与(2.6)类似,一般情况下每个先前奖励的权重是多少?

\alpha (1-\alpha )^{n-i}

练习2.5 设计并进行一个实验,以证明样本平均法对于非平稳问题的困难。使用10臂试验台的修改版本,其中所有q∗(a)从相等开始,然后进行独立的随机游动(例如,在每一步上将平均值为零、标准偏差为0.01的正态分布增量添加到所有q∗(a))。做出图2.2所示的图表,用于使用递增计算的样本平均值的行动值方法,以及使用恒定步长参数α=0.1的另一个行动值方法。使用ε=0.1和更长的运行时间,例如10000步。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,772评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,458评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,610评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,640评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,657评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,590评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,962评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,631评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,870评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,611评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,704评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,386评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,969评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,944评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,179评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,742评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,440评论 2 342

推荐阅读更多精彩内容