美文网首页
PPO算法解析

PPO算法解析

作者: 金色暗影 | 来源:发表于2021-02-22 01:24 被阅读0次

在2017年的时候,无论是openai或者是deepmind,在深度强化学习领域都取得了重大突破,而能带来这个突破的一个重要因素便是PPO(Proximal Policy Optimization)算法的应用。
Openai和Deepmind各自都有一篇关于PPO的论文,虽然论文是deepmind先发的,但显然deepmind在这一点上就有点不讲武德了。很明显,ppo真正的创新点还是在于Openai的科学家Shulman对自己以前提出的TRPO的简化,并且他们在2016年的NIPS上就已经提出了PPO,deepmind的人在学习了人家的算法后的分布计算改进就显得有些微不足道了...因此本文关于PPO的讲解也以OpenAI的论文为准。

Motivation

首先明确一点,虽然PPO实际上只是在计算Policy Gradient上做了点改动,但它其实是诞生和作用于Actor Critic架构之下的,因此我们说的PPO是AC方法而不是单纯的Policy Gradient方法,并且这个Policy Gradient是增加了baseline的,于是PPO会跟A2C看起来很像,如果你理解了A2C,就会很容易理解PPO。

正如开头所说,PPO的出现是因为OpenAI科学家对TRPO的简化,因此PPO实际上要解决的是同TRPO相同的问题:我们如何利用现有数据,在策略上采取最大的改进措施,而不会导致意外的训练崩溃? TRPO通过复杂的二阶方法来解决这个问题,而PPO这是一阶的方法,因此PPO的试用范围更广、计算效率更高、更容易实现,并且从OpenAI的经验上来看,至少效果是不比TRPO差的。

正因为PPO算法的效果和最先进更复杂的方法相当甚至更好,同时易于实现和调整,它成为了OpenAI研究新问题的默认强化学习算法。

Policy Gradient

先来简单看一下基本的Policy Gradient,它是状态价值V关于策略\pi 的参数求的梯度:
\frac{\partial V_{\pi}(s)}{\partial \theta} = \mathbb{E}_{A \sim \pi}[\frac{\partial log\pi(A|s;\theta)}{\partial \theta} Q_\pi(s,a)]
然后在原始的PG上增加一个与action无关的baseline,一般取V_{\pi}于是增加了baseline的Policy Gradient可以写作:
\frac{\partial V_{\pi}(s)}{\partial \theta} = \mathbb{E}_{A \sim \pi}[\frac{\partial log\pi(A|s;\theta)}{\partial \theta} (Q_\pi(s,a)-V_\pi(s))] = \mathbb{E}_{A \sim \pi}[\frac{\partial log\pi(A|s;\theta)}{\partial \theta} A_\pi]
此处的期望没法直接求,因此需要利用蒙特卡洛近似,而根据上式就可以发现增加恰当的baseline可以降低蒙特卡洛近似梯度的方程,从而加速收敛,这也是引入baseline的意义。

于是我们通过梯度上升来更新策略的参数: \theta \leftarrow \theta + \alpha* PG
但是,实际使用中,容易发现原始的PG算法对更新步长十分敏感,如果步长小了,很容易陷入局部最优难以收敛,步长大了,则又会经常导致训练直接崩溃,效果越来越差。

PPO

为了处理更新补偿的问题,PPO的思路其实非常简单粗暴,就是通过改造目标函数来将更新幅度限制在合理的范围内。

PPO修改了原始的Policy Gradient公式,不再使用log\pi(a|s)来跟踪agent的行动效果,而是使用当前策略的行动概率\pi_\theta(a|s) 与上一个策略的行动概率\pi_{\theta'}(a|s) 的比值:
r(\theta) = \frac{\pi_\theta(a|s)}{\pi_{\theta '}(a|s)} , ~~~~so~~ r(\theta ') =1
显而易见的,r(\theta) 表明了新旧策略选择某个action的概率比:当r(\theta) > 1时,说明当前的策略更倾向于选择采样动作a,否则就是更不倾向于。
原先的Policy Gradient可以使用新的目标函数替代:
L(\theta) = \mathbb{E} [\frac{\pi_\theta(a|s)}{\pi_{\theta '}(a|s)} * A]
再看一眼r(\theta) ,它可能会很大或接近于0,这是不满足我们希望限制\theta 每次更新幅度的初衷的,为了对其有所限制,于是便有了常见的两种PPO变体:PPO-Penalty和 PPO-Clip。

PPO-Penalty使用类似TRPO的增加KL散度来约束更新的方法:
\theta \leftarrow \theta + \beta (\partial(L(\theta) - KL(\theta, \theta ') /\partial\theta)
当KL散度大时,增大\beta,当KL散度小时减小\beta

而 PPO-Clip则是采用了一种更加简化的方式,这可以当做是一种工程经验,当算法工程师弄了这么个简单粗暴的剪裁方式之后,效果反而变好了,因此OpenAi主要用的便是这种变体:
L^{Clip}(\theta) = \mathbb{E} [ min(r(\theta)A, clip(r(\theta),1-\epsilon, 1+\epsilon)A)]
观察这个新的目标函数,容易知道结果有两种情况:

当Advantage函数值大于0,即该action好于在该状态下行动的平均分,因此在策略上应该增加在该状态选择该action的概率,反之减小选择该action的概率。同时clip 函数的存在限制了过大的更新防止agent因为蒙特卡洛采样的不确定性而导致了糟糕的策略。

Paper

Proximal Policy Optimization Algorithms

相关文章

  • PPO算法解析

    在2017年的时候,无论是openai或者是deepmind,在深度强化学习领域都取得了重大突破,而能带来这个突破...

  • VPG && TRPO && PPO

    PPO(Proximal Policy Optimization) 是一种解决 PG 算法中学习率不好确定的问题的...

  • 2018-12-20 PPO debug experience

    PPO Debug Experience Recently, I need to perform PPO in a...

  • 邂逅黑科技之强化学习(二):Policy Gradient

    承上,首先是Policy Based经典算法,基础的Policy Gradient以及它的进化版PPO等,下面内容...

  • LunarLander-v2 in reinforcement

    这篇文章讲的是ppo算法,训练lunarlander。 ( 关于这个环境:火箭轨迹优化在最优控制中是一个经典的主题...

  • PPO

    On-policy VS Off-policy On-policy: The agent learned and ...

  • 深度强化学习--TRPO与PPO实现

    PPO是2017年由OpenAI提出的一种基于随机策略的DRL算法,它不仅有很好的性能(尤其是对于连续控制问题),...

  • 深入理解TRPO和PPO算法

    最近在整理电脑文件,看到一份当初给同事讲解TRPO算法原理时写的PPT,感觉要比先前那篇写的更加清楚明白,加之这几...

  • 学习资料汇总

    GeoHash核心原理解析 GeoHash算法学习讲解、解析及原理分析

  • 算法 | 解析算法

    【算法思想】 找出问题的条件与结果之间的数学表达式,再通过表达式的计算来实现问题求解。 【算法实例】 输入已知三角...

网友评论

      本文标题:PPO算法解析

      本文链接:https://www.haomeiwen.com/subject/tzlffltx.html