美文网首页
强化学习MPD之LQR和DDP之间千丝万缕的联系

强化学习MPD之LQR和DDP之间千丝万缕的联系

作者: 淡蓝色丶夏 | 来源:发表于2019-03-21 11:14 被阅读0次

在郭宪和方勇纯老师编著的《深入浅出强化学习 原理入门》一书第十章关于引导性策略搜索一文中,在关于轨迹优化部分,提到了LQR和DDP的优化算法,在查阅了很多的资料后,现总结如下:
本文参考资料如下:

  1. Apollo控制算法之LQR
  2. 什么是二次型最优控制
  3. 机器学习笔记17: 线性二次型调节控制
  4. 机器学习笔记18: 微分动态规划
  5. 强化学习入门 第二讲 基于模型的动态规划方法
  6. 微分动态规划
    其中,一二三是讲解LQR的,四五六讲解DDP。

在原始的LQR问题中,我们的目标是求损失J最小,即J=\sum_{\tau=0}^{N-1}(x_\tau^TQx_\tau + u_\tau^TRu_\tau)+x_N^TQ_fx_N。该公式的含义是说,所有时间步内总的损失等于前N-1个时间步加上最后一个时间步的损失。LQR相关的知识可参考前3个链接。对LQR的总结:

  • 在原有MDP的基础上引入了时间边界的概念,这类问题被称为有限边界的MDP,在这种设定下策略和价值函数都是不稳定的,也就是说它们是随着时间变化的。
  • 线性二次型调节控制(LQR)是一个特殊的有限边界MDP模型,该模型广泛应用于机器人学中。
  • LQR的目标就是找到一组控制量u0,u1,...使
    x0,x1...足够小,即系统达到稳定状态;
    u0,u1,...足够小,即花费较小的控制代价。

注意:在原始的LQR问题中,我们的目标是J最小,而对于在强化学习时,我们的目标是reward最大,因此,在reward的定义中,增加了一个负号。即
\begin {cases} s_{t+1}=A_ts_t+B_ta_t \\[4ex] R^{(t)}(s_t,a_t)=-s_t^TU_t s_t - a_t^TW_ta_t \end {cases}
至于噪声w_t,可加可不加,加了相当是确定的,不加则是随机的意思。
即由s_ta_ts_{t+1}的过程是线性的,目标函数是二次的,且要迭代的公式V_k = min_w {z^TQz+w^TRw+V_{k+1}(Az+Bw)}是由目标函数生成的

下面进入DDP部分。
参考链接5链接6中,关于微分动态规划的推导中,都有公式
\begin {cases} V_k = min_w {l(x_k,u_k)+V_{k+1}(x_{k+1})} \\[4ex] x_{k+1} = f(x_k,u_k) \end {cases}
与LQR不同的地方在于,要迭代的\bf V中,\cal l函数以及由x_k,u_k生成x_{k+1}2处不同。因此,将这2处地方变成与原始LQR问题类似的形式变可以用LQR来解决问题了,如果变化呢?采用泰勒展开式来代替原始函数。
s_{t+1}的变化:
s_{t+1} \approx F(s_t^\star , a_t^\star)+\nabla_s F(s_t^\star, a_t^\star)(s_t- s_t^\star)+\nabla_a F(s_t^\star ,a_t^\star )(a_t-a_t^\star )
上文提到,常数可加可不加。
对于\cal l函数来说,同样,我们取二阶泰勒展开式,如下:
\begin {eqnarray} l(s_t,a_t) & \approx & l(s_t^\star,a_t^\star) + \nabla_sl(s_t^\star, a_t^\star)(s_t- s_t^\star)+\nabla_a l(s_t^\star ,a_t^\star )(a_t-a_t^\star )\\ && + \frac 1 2 (s_t-s_t^\star)^TH_{ss}(s_t-s_t^\star)+(s_t-s_t^\star)H_{sa}(a_t-a_t^\star)+\frac 1 2 (a_t-a_t^\star)^TH_{aa}(a_t-a_t^\star) \end {eqnarray}
由于是近似,我们只取二阶部分,即R_t(s_t,a_t)=-s_t^TU_ts_t-a_t^TW_ta_t转换之后,就是LQR问题,然后用LQR来解决问题即可。
总结:

  • LQR只适用于状态转换函数是线性的场景,当状态转换函数是非线性时,我们可以使用泰勒展开的方法做线性近似
  • 当大部分状态和行动在某个小的局部范围内,我们可以选择局部中心做线性近似
  • 当状态转换函数遵循某条轨迹时,可以使用微分动态规划(DDP)算法,其思想是在状态转换函数的多个点上依次做线性近似

相关文章

网友评论

      本文标题:强化学习MPD之LQR和DDP之间千丝万缕的联系

      本文链接:https://www.haomeiwen.com/subject/mkfqvqtx.html