Gym是一个用于 测试和比较 强化学习算法的工具包,它不依赖强化学习算法结构,并且可以使用很多方法对它进行调用,像TensorFlow、Theano。
Gym库收集、解决了很多环境的测试过程中的问题,能够很好地使得你的强化学习算法得到很好的工作。并且含有游戏界面,能够帮助你去写更适用的算法。
搭建Gym仿真环境
- 安装Anaconda3
- 创新虚拟环境
Anaconda创建虚拟环境的格式为:conda create –-name 你要创建的名字 python=版本号。比如我创建的虚拟环境名字为gym, 用的python版本号为3.6,可这样写:
conda create –-name gym python=3.6
-
安装MuJoCo
-
MuJoCo(Multi-Joint dynamics with Contact)是一个物理模拟器,可以用于机器人控制优化等研究。它类似于Adams,是一个多体的仿真平台。
-
在 MuJoCo官网下载对应平台的mjpro150,Windows 64位系统需要下载mjpro150 win64,同时点击Licence下载许可证,需要full name, email address, computer id 等信息,其中根据使用平台下载 getid_win64.exe(可执行文件),在命令行下执行,可获得computer id,提交这些信息能够获得30天的临时许可。
-
在
C:\Users\用户名
下新建.mujoco
文件夹,并将mjpro150解压至该文件夹,将证书复制至C:\Users\用户名\.mujoco
和C:\Users\用户名\.mujoco\mjpro150\bin
目录。如果为Linux/MacOS系统,该目录为~/.mujoco
-
-
安装gym
git clone https://github.com/openai/gym.git
cd gym
pip install -e '.[all]'
测试gym环境
import gym
env = gym.make('CartPole-v0')
env.reset()
reward_sum = 0
for _ in range(1000):
env.render()
action = env.action_space.sample()
observation, reward, done, info = env.step(action)
reward_sum += reward
if done:
print('reward_sum:', reward_sum)
reward_sum = 0
env.reset()
测试MuJoCo环境
import gym
env = gym.make('InvertedPendulum-v2')
for i_episode in range(20):
observation = env.reset()
for t in range(100):
env.render()
print(observation)
action = env.action_space.sample()
observation, reward, done, info = env.step(action)
if done:
print("Episode finished after {} timesteps".format(t+1))
break
- 安装Spinning Up
Spinning Up 是OpenAI提供的一个深度强化学习的教学资源,旨在快速入门深度强化学习。
git clone https://github.com/openai/spinningup.git
cd spinningup
pip install -e .
- 安装Baselines
OpenAI Baselines是一系列高质量强化学习算法的实现
git clone https://github.com/openai/baselines.git
cd baselines
pip install -e .
测试 Gym 和 Spinning Up、Baselines 环境
- Spinning Up
# 运行
python -m spinup.run ppo --hid "[32,32]" --env LunarLander-v2 --exp_name installtest --gamma 0.999
# 查看结果数据
python -m spinup.run test_policy data/installtest/installtest_s0
# 查看仿真动画
python -m spinup.run plot data/installtest/installtest_s0
- Baselines
python -m baselines.run --alg=ppo2 --env=CartPole-v0 --network=mlp --num_timesteps=2e7
设计自己的机器人流程
- myrobot.xml, 机器人模型文件,位于
gym
目录下envs/mujoco/assets
目录下 - myrobot.py, 位于
gym
目录下envs/mujoco
目录下 - 修改
envs/mujoco/__init__.py
文件,在最后增加
from gym.envs.mujoco.myrobot import MyRobotEnv
- 修改
envs/__init__.py
文件,在最后增加
register(
id='MyRobot-v0',
entry_point='gym.envs.mujoco.myrobot:MyRobotEnv',
)
- 测试模型
import gym
env = gym.make('MyRobot-v0')
for i_episode in range(20):
observation = env.reset()
for t in range(100):
env.render()
print(observation)
action = env.action_space.sample()
observation, reward, done, info = env.step(action)
if done:
print("Episode finished after {} timesteps".format(t+1))
break
myrobot.xml文件
xml文件的模板为
<mujoco model="MyRobot">
<compiler angle="degree" coordinate="local" inertiafromgeom="true" />
<option integrator="RK4" timestep="0.01" />
<custom>
</custom>
<default>
<!-- 一些默认值 -->
</default>
<asset>
<!-- 一些变量定义 -->
</asset>
<!-- 实体模型 -->
<worldbody>
<!-- 光照 -->
<light cutoff="100" diffuse="1 1 1" dir="-0 0 -1.3" directional="true" exponent="1" pos="0 0 1.3" specular=".1 .1 .1"/>
<!-- 地板 -->
<geom conaffinity="1" condim="3" material="MatPlane" name="floor" pos="0 0 0" rgba="0.8 0.9 0.8 1" size="40 40 40" type="plane"/>
<body name="segway">
</body>
</worldbody>
<actuator>
<!-- 驱动 -->
</actuator>
</mujoco>
worldbody
是模型部分,一般有光照light
、地面(一个极薄的平面)、机器人模型<body name="segway"></body>
在body部分,并列的两个geom
是固连的关系,geom
所属的关节joint
应与其并列,
myrobot.py 文件
测试
Roboschool
Roboschool 是基于 OpenAI Gym 强化学习仿真包的物理仿真引擎。由于 MuJoCo 不开源且收费,所以 OpenAI 的大佬们将 Roboschool 作为 MuJoCo 的替代品。可以在一个场景当中训练多个 Agent 并且完成一挑战任务。
网友评论