Deep Reinforcement Learning简介

David Silver说,AI = RL + DL = Deep Reinforcement Learning
他的课程:RL Cource by David Silver
RL圣经:Reinforcement Learning: An Introduction
RL是多学科的,有自己的框架体系,具体可学习上面的资料。

Je pense, donc je suis

讲点题外话,我们思考一下学习的本质。当一个新生命诞生时,没有人去教他该做什么,该怎么做,他只有去试探身边的环境,观察给他的反应。在不断和环境交互感知过程中,他知道了一些行动会带来什么。其实小孩子大家都知道有时候可能会做一些事情,大人感觉很傻,或许抱着为他好的态度纠正甚至惩罚他,逐渐变成了大人的样子。哈哈哈,这个过程中小孩有些事情可能真的是错的,有些事情可能是他的潜力,但是就被抑制住了。那这种learn by interacting with our environment就是RL的思想,再多说一点,其实人本身是不了解自己的,也是和环境交互的过程中,你了解了环境,可能也了解了自己。假设你生于野人环境,想必你也就明白了吧。那么请问,假设你不安于现状,那你是改变环境呢?还是改变自己呢?好了,废话太多了。

领域涉及

总结一句话RL是关注从与环境交互(interaction)中学习,一种结果导向的方法,应用于一系列决策过程。可以表示为Markov Decision Processes(MDPs)。RL关注的从交互中学习使它强于其他方法,如博弈论中最小最大原则,它假定环境按一定规则来;常用的动态规划,假定对环境完全可知等。
简单来说,RL中有一个机器人(agent),根据看到的环境(environment)现状(observation/state),采取一定的行动(action),环境的状态随之改变并会返回一定的奖惩(reward)给agent。
RL的学习目标就是采取决策,根据state采取action,最大化累计reward

Reinforcement Learning
RL特点
  • agent的action会影响后面inputs(closed-loop)
  • agent不知道应该采取什么action,只能不断尝试(非有监督)
  • action不但会影响目前的reward,还会影响未来的reward(foresight)

这里简单举例谈一下RL与一般机器学习区别。(supervised learning)

  • 下围棋
    supervised learning 就是有个老师会教机器,你看到这个盘势,你该在哪落子,但围棋,其实人也不知这个盘势到底该在哪落子最好,他可以学会下围棋,但可能不是最厉害的!
    Reinforcement learning 就是没有老师教你,有一个对手陪你下,如果赢了就得到positive reward,输了就得到negative reward,下了很多盘下来,机器大概知道怎么下比较好,是从经验来学习,要想变得厉害需要下很多盘,人不可能陪它下很多盘,alpha狗就是train两个棋手互下!alphago 是先supervised learning让他大概知道怎么下,然后再和机器互下的supervied learning + reinforcement learning,这个supervised的过程理论上是提升效率,让机器不至于走太多弯路,当然最近出来的alphago zero似乎并没有先学习棋谱,残虐了第一代alphago。
    那么这个先验的知识提供了这个问题的有用的信息,但是过多的信息似乎又会影响机器的发挥,真正决定机器能力的还是从交互中学到的。这如同过拟合与欠拟合的关系了
  • 对话
    针对chat-bot来说,supervied learning就是说,我告诉你你该怎么说话;
    RL的话就是让机器和人说话,说着说着人如果发火了,这时候机器得到negative reward,他可能某一句话不好,但是他其实不知道哪句话不好,这时候他要自己想办法去反省了哈哈
    但是人也是累的,不会陪它一直讲,那采取alpha go思想,learn 两个chat-bot互讲,但是容易陷入无穷循环。。
    但是两个机器聊天你不知道他们说的话是不是人话。。一些paper有设定一些对话规则。但这样其实也不一定是最好的办法。
    如果用GAN的方法的话,就是你要train一个D来说判断这对话是不是人话,是的话给reward,也就是train一个给reward的方法,那其实听起来还不错哦
  • 打游戏
    和游戏里面的电脑区别是什么呢?游戏里面的电脑是人编程写出来,按照一定规则来做,RL玩游戏其实是和人一样的,它看到的也是游戏图像(inputs),然后他采取相应的操作,得到相应的reward,比如游戏分数,行动会影响environment,下一次看到的游戏图像就会改变,(环境的变化也可能和action无关),这个过程不断进行直到游戏结束。(一个episode),他学习如果在这个episode中得到最多的reward,以下是一些开源资料
    Gym: https://gym.openai.com/
    universe: https:// openai.com/blog/universe/

supervised learning目标是generalization,unsupervised learning目标是找潜在结构模式。所以RL不属于他们。一般的机器学习是从一些子问题考虑,不会考虑整体大框架。而RL正好相反,它是通过对寻求完整的goal-directed agent与未知环境交互的问题,agent被置于一个未知世界,决策时它必须考虑实时选择和未来影响作用,以及对环境改变。当RL用于子问题时,这时候就要跳出局部看到问题的本质,找到通用的框架!

RL的基本元素
  • policy
    策略:一个从state到action的映射,也是我们最终需要得到的。广义上它可以是有随机性的
  • reward
    衡量某个state好坏,直接由环境给出(属性),不能被agent所改变,表示当前行动的收益(短期)
  • value
    衡量一个state的reward的价值(长期),它考虑了未来可能得到的reward和当下的reward,通过把未来的价值折现到此刻。这是agent在决策时考虑的的目标,间接表现出agent的长远目光
  • model of enironment(可选)
    允许对环境做出预测,根据当前state和action预测未来的state和reward,进而辅助agent进行决策。如果用model则问题叫model-based,否则为model-free

如何把一个问题放到RL框架呢?
那首先你这个问题肯定得有agent,environment,action。agent通过action和environment交互实现一个目标,其中的agent要求如下

  • agent可以感知environment,采取action可以影响environment
  • agent不知道应该采取什么action,只能不断尝试
  • agent有一个关于state的goal
RL的挑战及难点
  • trade-off between exploration and exploitation
    agent需要知道有什么已经做过的action来获得reward,还要不断探索新的action是否可以获得更多的reward,既要保守又要开放。
  • reward delay
    比如会发现只有某个action会有reward(比如下棋只有赢了才有reward),但是如果不用其他action肯定不行的,其他action会在未来给你更多的reward,agent需要有远见,短期的牺牲会换来更好未来的
  • 如何控制产生不想要的后果
    RL能做到智能就要通过explore未知的行动,这使他在遇到未知领域时能有效解决(比如alphago zero),但是怎么保证它不会触及一些底线呢(比如agent学坏了)?现有的方法比如,加约束,改变objective function让他对风险敏感等

上面简单介绍了RL的一些特点,那它最适合做什么样的任务呢?其实涉及决策都可以用RL框架,但它的特点决定了它更适合做人也不知道怎么做是最好的事情!比如interactive retrieval,让机器根据人的查询来反问问题,得到更精准的查询,开无人机,无人车,下棋(Alpha Go),投资决策,仿人类行动机器人,打游戏虐人类等(我倾向于做一个保姆,恩)

下次了解一下RL的解法

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,937评论 6 478
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,503评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,712评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,668评论 1 276
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,677评论 5 366
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,601评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,975评论 3 396
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,637评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,881评论 1 298
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,621评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,710评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,387评论 4 319
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,971评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,947评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,189评论 1 260
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 44,805评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,449评论 2 342

推荐阅读更多精彩内容

  • 一. 增强学习简介 1.1 什么是增强学习? 机器学习的算法可以分为三类:监督学习,非监督学习和增强学习。 增强学...
    阿阿阿阿毛阅读 31,050评论 0 25
  • 强化学习(Reinforcement Learing),机器学习重要分支,解决连续决策问题。强化学习问题三概念,环...
    利炳根阅读 3,706评论 0 4
  • 亲爱的小孩: 人生处处充满变数。最后出行程单的时候,旅行团告知,马来西亚规定70岁以上的老人不能出海。所以...
    桉妈MayYi阅读 314评论 0 1
  • 楼门口那家叫“传心”的居酒屋昨天就那么悄声无息地停了业,每天回家映入眼帘的那一排红艳艳的灯笼也变成了一片黢黑,落地...
    达文溪阅读 520评论 4 5
  • 今早叫了邢羽菲一遍又一遍, 已经六点十分了,还说:“再睡一会儿。”还叫不起来了,直接把头蒙上了。又一会儿六点二十五...
    羽菲傲霖阅读 186评论 0 0