美文网首页
Playing Atari with Deep Reinforc

Playing Atari with Deep Reinforc

作者: 海街diary | 来源:发表于2018-03-10 00:07 被阅读18次

    1. 简介

    使用CNN从raw pixel学习Q(s, a),利用experience memory学习Q(s, a),在atari2600 games中的7款游戏上进行了测试,全部超越之前算法,并且在3款游戏上超过了人类。

    2. 算法


    1. DQN算法


    DQN Algorithm

    2. 算法细节


    DQN Architecture
    • RMSProp
    • Minibatch with 32
    • linearly from 1 to 0.1 over the first million frames, and fixed 0.1 thereafter
    • time steps = 10 million frames, memory size = 1 million
    • skip frames = 4

    3.实验

    • same network architecture, same learning algorithm, same hyper parameter across all seven games.
    • Raw pixel cropped to 84x84x4.
    • 在固定时间步下,比较不同算法(其他算法的输入是handcraft-feature)在7款游戏上的、所有episode的reward sum的average;同时,比较在这些episode中reward sum的最大值。此外,包括人类选手的score。
    • 为了适应不同游戏的reward, 在train的时候positive reward=1, negative reward=-1, zero reward=0。
    • 评价的时候使用 for a fixed number of steps(具体数字未提)。

    4.收获

    • 2 dense layers for output。
    • 不同游戏时reward 归一,便于generalization。
    • memory size 约为 total steps 的 1/10。
    • RMSProp优化算法
    • 参考文献值的读的:
      《Prioritized Sweeping- Reinforcement Learning with Less Data and Less Real Time》、
      《Deep Auto-Encoder Neural Networks in Reinforcement Learning》

    相关文章

      网友评论

          本文标题:Playing Atari with Deep Reinforc

          本文链接:https://www.haomeiwen.com/subject/ifqvfftx.html