强化学习总结

之前写的一篇关于强化学习的日志,很粗糙。简单的说了一下,动态规划,蒙特卡罗,时序差分。

也写了一些其他的内容。

用这篇文章来从头到尾总结一下。

什么是强化学习?
强化学习是机器学习的一个分支。强化学习是最像人工智能的机器学习。

强化学习指的是,从经验中学习,让机器像人类一样,有一个目标,然后在实现目标的过程中不断的失败,得到经验,最后实现目标。

强化学习中有两个存在,一个是agent,一是环境。agent相当于玩家,环境相当于所在的游戏环境。比如王者荣耀,玩的英雄就是一个agent,环境就是游戏环境。agent有一个目标,就是最大化未来的累积奖励,奖励是一个术语,之后再说。在王者荣耀里面,目标就是打赢。但是我直觉上觉得目标是可以设置的,比如可以设置成伤害越高越好,那么无论赢不赢,伤害要最高。

术语定义
奖励,回报,回合,策略函数,价值函数,状态动作价值函数,环境,agent,状态,动作,

agent:相当于在环境中学习的人类。

环境:

状态:状态,举例来说,比如王者荣耀每两帧之间的差异,可以当作一个状态。状态可以是离散的,可以是连续的,现实问题一般是连续的,无限的。

动作:在一个状态中,agent能做出的行为。比如王者荣耀,如果截图的话,那状态是前后两张图片的差异。不同的差异就是动作。

奖励:每一个状态都有一个值,标记了这个状态的价值,也就是说,可以说这个状态的价值是3,那么到达这个状态,奖励3。

回合:从开始到结束,就是一个回合。从初始状态到终止状态就是一个回合。比如王者荣耀把对面水晶拆了,就终止了,或者自己水晶没了,也终止了,或者也可以自定义其他终止状态,比如花的时间超过了一定程度就算终止状态。

回报: 回报就是在一个回合中的每一个状态的奖励的累积和。后续状态奖励一般都要设置一个递减参数。因为越是遥远的状态,不确定性越多,所以价值应该与前面的状态一致,甚至应该小一些。如果把这个参数设置为1,那么意味着长远的眼光,认为未来的状态同样重要。如果设置为0,那么意味着短视,未来的状态变得不重要,只在乎下一个状态的奖励。

策略函数:策略函数的输入是state.输出是在这个状态下采取的动作是什么。

价值函数:有状态动作价值函数和状态价值函数。状态价值函数的输入是state,输出是这个状态的价值,状态动作价值函数的输入是动作状态行为对,输出是在这个状态采取这个行为的价值。

强化学习的核心是贝尔曼方程,这个方程解决的是更新价值函数。

强化学习要做的就是,找到最好的策略。

强化学习的两个问题:1.预测问题,namely,给定一个策略,然后找到这个策略的价值函数。2.控制问题,namely,找到最佳的策略。

强化学习就是围绕着1,2展开的。

于是有了很多方法,动态规划,蒙特卡罗,时序差分,函数近似。

从第一个到最后一个是慢慢解除限制的过程,慢慢变得越来越未知。从动态规划开始,知道环境动态,也就是知道状态转移的概率分布。不用真的与环境进行交互。意思是说,我知道我在这个状态做了这个行为到达的状态的概率,所以我要求一个状态的价值,我只需要加权求平均值就行。

而蒙特卡罗并不知道环境动态,我不知道我下一个状态是什么,我不知道做了这个动作会把我带到哪个状态。所以开始需要与环境交互,在环境里做一个行为,然后环境给一个奖励,和下一状态。在蒙特卡罗,实际上是一个回合一个回合的交互,但是如果不会停止呢,假如就在一个回合里,然后达不到终止状态,这个时候蒙特卡罗就不好解决问题了。

时序差分可以解决不停止的情况。而且在这里可以实际应用到gym库里面了。直觉上讲,前面的方法除了动态规划,都可以用到gym库的环境里。只不过需要自己划分状态。因为时序差分是把价值存到二维表里,是table的存储形式,一旦状态行为数量过多,就不太好用。

这个时候就用函数近似。函数近似可以处理动作状态连续的且数量多的环境。这也是很好用的。

这个时候强化学习基础就已经结束了。然后开始加入监督学习或者深度学习其中的一些算法,工具。比如DQN,比如演员评论家算法,或者用线性回归加上特征工程。这里就是比较复杂的部分了。

而且强化学习,即使是领域的大牛,训练一个agent有时候也会花很长很长的时间,有时甚至花费一年多的时间。听起来有点让人绝望(笑)

再说强化学习和机器学习的其他类型并且和深度学习结合还是比较多。深度学习的结合就是用神经网络结合强化学习。

脑子里还有印象的机器学习,神经网络,之前看了一本书,里面讲的神经网络,其实就是分类的时候一条线不够分,所以要花多条线分类数据?;毓榫倮此?,就是预测。比如工资和工作年限的关系,回归建立的模型最后可以输入一个年份,返回工资数量,也就是预测。简单的说就是画一条线最好的拟合数据。分类,画一条线,把不同数据区分开,因为有时候仅仅画一条线区分不了数据,所以会画很多线,这就是神经网络。梯度下降,就是画一条线,从不怎么好的拟合到最优拟合的过程。

?著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 214,100评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 91,308评论 3 388
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事?!?“怎么了?”我有些...
    开封第一讲书人阅读 159,718评论 0 349
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 57,275评论 1 287
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 66,376评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 50,454评论 1 292
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,464评论 3 412
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,248评论 0 269
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,686评论 1 306
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,974评论 2 328
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,150评论 1 342
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,817评论 4 337
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,484评论 3 322
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,140评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,374评论 1 267
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,012评论 2 365
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,041评论 2 351

推荐阅读更多精彩内容

  • 0. 引言 最近跟着 OpenAI 的 Spinning Up 教学文档 学习了一遍 Deep RL,对这个领域有...
    OurNote阅读 5,883评论 0 8
  • 强化学习 元素:actor(我们可以控制,决策我们的行为),Env,Reward(我们不能控制环境)主要方法:mo...
    fada_away阅读 19,106评论 0 14
  • 强化学习 主要分为两个分支,一个是Q-Learning,一个是policy gradient decent,还有一...
    SimonLiu000阅读 1,211评论 0 0
  • 行为主义理论 这是来自心理学和教育研究的理论,心理学中也有专门的行为心理学派,主要通过人的各种行为研究心理的活动,...
    haleyprince阅读 1,171评论 0 0
  • 这是新开的一个系列,将结合理论和部分代码(by ElegantRL)介绍强化学习中的算法,将从基础理论总结到现在常...
    CristianoC阅读 1,669评论 0 4