美文网首页十一维的风
关于对马尔科夫决策过程与Q函数的理解

关于对马尔科夫决策过程与Q函数的理解

作者: Shootime | 来源:发表于2016-08-08 17:18 被阅读1108次

    最近转向深度学习方向的学习,遇到一些卡壳。

    查阅了部分资料,获得一些个人的理解如下:

    马尔可夫决策过程 【定义】

    是基于马尔可夫过程理论的随机动态系统的最优决策过程。

    它是马尔可夫过程与确定性的动态规划相结合的产物,故又称马尔可夫型随机动态规划。

    1⃣️ 具备 马尔科夫链 属性:

    即 简单点说,一个事件/物体 可视为是 无数(状态,动作)的切片积分而成,而下一个状态s` 仅与 当前状态s 有关,与历史状态无关。

    举例:就像下棋一样,你下棋的每一个决策 都仅与当前棋局的状态 有关, 而你是基于最终收益(赢)作为动作 的策略依据。

    2⃣️ 由(S, A, R, P)四个变量 描述

    S: State 状态序列
    A: Action 由状态 映射到 的动作序列
    R:Reward 回报函数,立即回报
    P:状态转移概率序列

    3⃣️ 引入 值函数概率来衡量 当前状态的长期收益

    3.1状态值函数:

    γ 为 折扣因子:用来 加权 与当前状态 时间 最接近的 动作影响力 越大。
    γ=0时,相当于只考虑立即不考虑长期回报,
    γ=1时,将长期回报和立即回报看得同等重要。

    3.2 加入(状态,动作)转移概率后
    3.3 MDP的最优策略

    即 能够使得Vπ(s)在任意 状态s下 均能 获得最大值 的策略 π

    那么 怎么样 进行求解呢?

    获得最优策略的三种方法:
    动态规划法(dynamic programming methods)
    蒙特卡罗方法(Monte Carlo methods)
    时间差分法(temporal difference)

    3.4 动态规划法(贝尔曼方程)

    3.5 Q函数-(引入了动作的值函数)

    1⃣️ 定义动作值函数(action value function Q函数)如下:



    2⃣️ 给定当前状态s和当前动作a,在未来遵循策略π,那么系统将以概率p(s'|s,a)转向下个状态s',上式可以重写为:



    3⃣️ 值迭代:
    Q(s,a) = r + γ * max{ Q(基于s'下 任意a' ) }

    相关文章

      网友评论

        本文标题:关于对马尔科夫决策过程与Q函数的理解

        本文链接:https://www.haomeiwen.com/subject/wjxrsttx.html