互联网实时新闻:PARL源码走读——使用策略梯度算法求解迷宫寻宝问题
分享一篇有关互联网,手机方面文章给大家,相信很多小伙伴们还是对互联网,手机这方面还是不太了解,那么小编也在网上收集到了一些关于手机和互联网这方面的相关知识来分享给大家,希望大家看了会喜欢。
前不久,百度发布了基于PaddlePaddle的深度强化学习框架PARL。git传送门
作为一个强化学习小白,本人怀着学习的心态,安装并运行了PARL里的quick-start。不体验不知道,一体验吓一跳,不愧是 NeurIPS 2018 冠军团队的杰作,代码可读性良好,函数功能非常清晰,模块之间耦合度低、内聚性强。不仅仅适合零基础的小白快速搭建DRL环境,也十分适合科研人员复现论文结果。
废话不多说,我们从强化学习最经典的例子——迷宫寻宝(俗称格子世界GridWorld)开始,用策略梯度(Policy-Gradient)算法体验一把PARL。
模拟环境
强化学习适合解决智能决策问题 。如图,给定如下迷宫,黑色方格代表墙,黄色代表宝藏,红色代表机器人;一开始,机器人处于任意一个位置,由于走一步要耗电,撞墙后需要修理,所以我们需要训练一个模型,来告诉机器人如何避免撞墙、并给出寻宝的最优路径。

接下来,定义强化学习环境所需的各种要素:状态state、动作action、奖励reward等等。
state就是机器人所处的位置,用(行、列)这个元组来表示,同时可以表示墙:
使用random-start策略实现reset功能,以增加初始状态的随机性:
定义动作action,很显然,机器人可以走上下左右四个方向:
定义奖励reward,到达终点奖励为10,走其他格子需要耗电,奖励为-1:
另外,越界、撞墙需要给较大惩罚:
至此,强化学习所需的状态、动作、奖励均定义完毕。接下来简单推导一下策略梯度算法的原理。
策略梯度 (Policy-Gradient) 算法是什么?
我们知道,强化学习的目标是给定一个马尔可夫决策过程,寻找出最优策略。所谓策略是指状态到动作的映射,常用符号 $\pi$表示,它是指给定状态 s 时,动作集上的一个分布,即: $$\pi (a|s)=p[A{t}=a|S{t}=s]$$
策略梯度的做法十分直截了当,它直接对求解最优策略 进行参数化建模,策略p(a|s)将从一个概率集合变成一个概率密度函数p(a|s,θ),即:$$\pi_{\theta}=p[a|s,\theta]$$
这个策略函数表示,在给定状态s和参数θ的情况下,采取任何可能动作的概率,它是一个概率密度函数,在实际运用该策略的时候,是按照这个概率分布进行动作action的采样的,这个分布可以是离散(如伯努利分布),也可以说是连续(如高斯分布)。最直观的方法,我们可以使用一个线性模型表示这个策略函数: $$\pi _{\theta }=\phi (s)*\theta$$
其中,$\phi(s)$表示对状态s的特征工程,θ是需要训练的参数。这样建模有什么好处呢?其实最大的好处就是能时时刻刻学到一些随机策略,增强探索性exploration。
为什么可以增加探索性呢?
比如迷宫寻宝问题,假设一开始机器人在最左上角的位置,此时p(a|s,θ)可以初始化为[0.25,0.25,0.25,0.25],表明机器人走上、下、左、右、的概率都是0.25。当模型训练到一定程度的时候,p(a|s,θ)变成了[0.1,0.6,0.1,0.2],此时,向下的概率最大,为0.6,机器人最有可能向下走,这一步表现为利用 exploitation ;但是,向右走其实也是最优策略,0.2也是可能被选择的,这一步表现为探索 exploration ;相对0.6和0.2,向上、向左两个动作的概率就小很多,但也是有可能被选择的。如果模型继续训练下去,p(a|s,θ)很有可能收敛成[0.05,0.45,0.05,0.45],此时,机器人基本上只走向下或者向右,选择向上、向左的可能性就极小了。这是最左上角位置(状态)的情况,其他状态,随着模型的训练,也会收敛到最优解。
有了模型,就想到求梯度,那么,如何构建损失函数呢?标签y-Target又是什么?
一个非常朴素的想法就是:如果一个动作获得的reward多,那么就使其出现的概率变大,否则减小,于是,可以构建一个有关状态-动作的函数 f(s,a) 作为损失函数的权重,这个权重函数可以是长期回报G(t),可以是状态值函数V(s),也可以是状态-行为函数Q(s,a),当然也可以是优势函数A。但是,这个权重函数和参数θ无关,对θ的梯度为0,仅仅作为p(a|s,θ)的系数。
现在考虑模型的输出$\pi(a|s,θ)$,它表示动作的概率分布,我们知道,智能体每执行完一轮episode ,就会形成一个完整的轨迹Trajectory: $$T=[S{0},a{0},P(S{1}|S{0},a{0}),S{1},a{1},P(S{2}|S{1},a{1}),S{2}...S{n-1},a{n-1},P(S{n}|S{n-1},a{n-1}),S{n}]$$ 其中,状态$S{0},S_{1}...S{n}$和参数θ无关,状态转移概率P(s'|s,a)是由环境所决定的,和参数θ也无关。所以,我们的目标简化为:优化参数θ,使得每个动作概率的乘积$p(a{0})p(a{1})...p(a{n})$达到最大,即使得$\pi (a{0}|s{0},\theta)\pi (a{1}|s{1},\theta)\pi (a{2}|s{2},\theta)...*\pi (a{n}|s{n},\theta)$这个累乘概率达到最大,可用如下公式表示:$$Maximize[arg(\theta )],T=\prod{t=0}^{N}\pi (a|s{t},\theta)$$
这显然是我们熟悉的极大似然估计问题,转化为对数似然函数: $$log(T)=log(\prod{t=0}^{N}\pi (a|s{t},\theta))=\sum{t=0}^{N}log(\pi (a|s{t},\theta))$$
乘以权重 f(s,a),构建如下目标函数 ,这个目标函数和我们平时见到的损失函数正好相反,它需要使用梯度上升的方法求一个极大值: $$J(\theta )=\sum{t=0}^{N}log(\pi(a |s{t},\theta) )*f(s,aTrue)$$
注意到,这里的aTrue就是标签y-Target,表示agent在状态$s_{t}$时真实采取的动作,可以根据轨迹trajectory采样得到。
学过机器学习的同学都知道,一般用目标函数的均值代替求和,作为新的目标函数: $$J(\theta )=\frac{1}{N}\sum{t=0}^{N}log(\pi (a|s{t},\theta ))*f(s_{t},aTrue)$$
均值,就是数学期望,所以目标函数也可以表示为: $$J(\theta )=E{\pi (\theta )}(log(\pi (a|s{t},\theta ))*f(s_{t},aTrue))$$
有了目标函数,梯度就很容易计算了,由于$f(s{t},a)$对于θ来说是系数,故梯度公式如下: $$\triangledown J(\theta )=E{\pi(\theta)}(\triangledown log(\pi(a|s{t},\theta))*f(s{t},aTrue))$$
那么,策略$\pi$具体的表现形式如何?前文提到,策略可以是离散的,也可以是连续的,不妨考虑离散的策略。由于我们需要求解最大值问题,也就是梯度上升问题,自然而然就想到把梯度上升问题转化为梯度下降问题,这样才能使得目标函数的相反数 达到最小,而什么样的函数可以将梯度下降和对数函数关联起来呢?显然是我们熟悉的交叉熵,所以最终的损失函数确定为: $$Minimize[arg(\theta)],J(\theta)=E_{\pi(\theta)}(CrossEntropy(\pi(a|s{t},\theta),aTrue)*f(s{t},aTrue))$$
连续策略的推导与离散策略类似,有兴趣的读者可以参考相关文献。
自此,公式推导可以告一段落。策略梯度的基本算法就是Reinforce,也称为蒙特卡洛策略梯度,简称MCPG,PARL的官方policy-gradient就是基于以下算法框架实现的:

PARL 源码结构
在搭建模型之前,我们先分析一下PARL的主要模块:
1. env:环境,在这里,我们的环境就是迷宫寻宝
2. model:模型,可以是简单的线性模型,也可以是CNN、RNN等深度学习模型
3. algorithm:算法,对model层进行封装,并利用模型进行predict(预测),同时构建损失函数进行learn(学习);具体实现形式可以是DQN、PG、DDPG等等
4. agent:智能体,对algorithm层进行封装,一般也包含predict、learn两个函数;同时,由于智能体要同时进行探索exploration-利用exploitation,还经常包含一个sample函数,用于决定到底是randomSelect(随机选择或者根据分布函数选择动作),还是argmax(100%贪心,总是选择可能性最大的动作)
5. train:训练和测试,用于实现agent和环境的交互,当模型收敛后,可以测试智能体的准确性
6. utils:其他辅助功能
以下的架构示意图,可以帮助我们更好的理解PARL:

特别提醒:本网内容转载自其他媒体,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,并请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。
免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!
-
传祺GS3试驾:线上+线下全攻略广汽传祺GS3凭借时尚设计与强劲性能,成为SUV市场中的热门车型。无论是线上了解...浏览全文>>
-
2024款安徽淮南威然的最新价格已经公布,各配置车型的售价信息如下:2024款威然330TSI商务版指导价:28 68万...浏览全文>>
-
淮南途锐新能源车的落地价分析如下:途锐新能源作为大众旗下的高端插电混动SUV,以其强劲的动力和豪华配置吸引...浏览全文>>
-
2023款大众探影在安徽阜阳地区的最新报价现已出炉,为计划购车的朋友带来实惠。作为一款小型SUV,探影凭借时尚...浏览全文>>
-
近日,滁州地区2025款高尔夫的市场价格吸引了众多消费者的关注。根据最新数据显示,近一个月以来,该款车型的...浏览全文>>
-
QQ多米落地价:各配置车型售价一览奇瑞QQ多米作为一款备受关注的小型电动车,凭借其亲民的价格和实用的配置,...浏览全文>>
-
2025款途锐作为大众旗下的豪华SUV,以其强劲的动力、卓越的性能和高端配置吸引了众多消费者的目光。目前市场上...浏览全文>>
-
淮南途锐新能源2024款即将上市,作为大众旗下的高端SUV车型,途锐新能源以其卓越的性能和豪华配置赢得了广泛好...浏览全文>>
-
近日,阜阳地区传来好消息,2025款途锐正式到店,最低售价仅为55 88万元起。作为大众旗下的豪华SUV车型,途锐...浏览全文>>
-
近期,安徽淮南地区的探影车型迎来了一波购车优惠,最低售价仅需11 59万元起,对于预算有限但又想拥有一辆高...浏览全文>>
- 安徽淮南威然最新价格2024款,各配置车型售价全知晓
- 滁州高尔夫 2025新款价格走势,近一个月最低售价10.68万起,性价比凸显
- 滁州途锐新款价格2025款多少钱?买车攻略一网打尽
- 安徽淮南探影落地价,最低售价11.59万起,入手正当时
- 安徽淮北高尔夫多少钱 2025款落地价限时特惠,最低售价12.99万起,错过不再有
- 安徽阜阳途昂最新价格2025款,各配置车型售价全知晓
- QQ多米价格,最低售价5.99万起,入手正当时
- 安徽淮南高尔夫多少钱 2025款落地价大起底,买车超详细
- 安徽淮南ID.4 X最新价格2025款全解买车必看
- 阜阳途锐新能源多少钱?报价解析,配置全面升级
- 比亚迪唐新能源预约试驾,如何在4S店快速预约?
- 安徽阜阳途观L落地价全解,买车必看的省钱秘籍
- 阜阳ID.4 X多少钱?最低售价13.99万起,性价比大揭秘
- 领克900试驾怎么预约
- 试驾本田CR-V,如何享受4S店的专业服务?
- 池州ID.6 X新款价格2023款多少钱?买车攻略一网打尽
- 生活家PHEV落地价,各配置车型售价一目了然
- 亳州大众CC价格,换代前的购车良机,不容错过
- 蚌埠途安L新车报价2022款大起底,买车超详细
- 奥迪e-tron GT试驾,如何享受4S店的专业服务?