美文网首页大数据,机器学习,人工智能
如何使用 TensorFlow.js 自动化 Chrome 恐龙

如何使用 TensorFlow.js 自动化 Chrome 恐龙

作者: AI研习社 | 来源:发表于2019-06-25 16:44 被阅读10次
    image

    本文为 AI 研习社编译的技术博客,原标题 :

    Using TensorFlow.js to Automate the Chrome Dinosaur Game (part 1)

    作者 |* Aayush Arora*

    翻译 | 胡瑛皓 编辑 | 王立鱼

    原文链接:

    https://heartbeat.fritz.ai/automating-chrome-dinosaur-game-part-1-290578f13907

    image

    本文将介绍如何用TensorFlow.js自动化Chrome自带的恐龙游戏。如果你之前没有玩过,简单说明一下它是一个附送的游戏,当你离线时 (或Chrome崩溃时) 可以控制一个2d恐龙,需要控制恐龙跳跃躲避障碍。在这里可以玩一把:https://chromedino.com/

    神经网络 简言之是一个模拟人脑工作的计算系统模型。人类大脑由多个神经元组成,这些神经元结合在一起共同作出判断。

    图中每个连接都带有权重和偏执项,优化这些参数得到需要的结果称为学习。

    一个简易神经网络

    TensorFlow是近年谷歌的深度学习开发库,它不仅提升了深度学习和机器学习的性能,同时也使开发者能更好的开发人工智能应用。

    在TensorFlow的Python版本发布后,谷歌发布了用于Android的TensorFlow Lite,以及大家期待已久的 TensorFlow.js。TF.js 为JavaScript浏览器及后段提供了深度学习的能力。

    TensorFlow.js 的API可分为两种—核心API,其中包含基础数学函数、优化器等,发烧友可以据此从零开始构建模型;层API,构建在TensorFlow.js核心之上的高层API,便于用户直接在浏览器上构建、训练、执行深度学习模型。

    安装 TensorFlow.js

    本文中,我们使用层API。若要安装TensorFlow.js,我需要通过npm安装,命令如下:

    npm install @tensorflow/tf.js
    

    在TensorFlow.js项目,我们通常会用webpack, parcel, 或 rollup等工具构建。

    这些构建工具各有优缺点。Parcel适合较小的项目,rollup则刚出来。不过这些工具都是通过内部构建依赖图映射到项目的每个模块,最后生成1个或多个bundle。链接中的文章对这些工具做了详细的比较。

    这里打个广告,如果想收到机器学习的新闻邮件,可在通过此链接注册,你每周都会收到由专业人士审核的机器学习的邮件。

    Chrome 恐龙游戏

    我们将创建一个AI系统,像人一样玩这个游戏。

    首先我们需要模拟Chrome的自带的恐龙游戏(我们可以在GitHub中找到)。本例中我们用到一个 开源库 ,里面带有Chrome恐龙游戏的完整代码。我们对代码进行了格式化,使代码可读性更好。

    让我们一步步来看一下

    主类Runner.js中包含恐龙和游戏事件相关的实现。该类允许我们同时使用多个恐龙 (后续博客将使用此特性)。

    在这个类里加了3个事件分别为:

    1. onCrash

    2. onReset

    3. onRunning

    这三个事件是游戏中主要的分割点。当恐龙碰到障碍物时触发onCrash
    方法,onReset方法用于onCrash触发后重置游戏,onRunning方法在每个运动实例中调用以确定恐龙是否应该跳跃。

    可参考以下代码:

    https://github.com/aayusharora/GeneticAlgorithms

    src/game目录中包含复现Chrome恐龙游戏的代码

    runner.js导出这些方法,这样nn.js,我们的人工智能类可以访问以上谈到的方法。index.html里包含了HTML的div,在这里我们注入游戏画面以及相关脚本。

    很好!! 希望你还在看。

    接下来看一下如何设置项目。

    设置

    src/nn.js

    第一步是定义import的内容。

    这里我们使用babel-polyfill,这样就能使用ES6的全新特性了,其中包含了新的内置对象诸如 WeakMaps。

    接下来引入tensorflow库作为tf对象。

    下面导入画布宽度和高度,可以使用特征缩放,最后还有我们提到的Runner类。

    import 'babel-polyfill';    
    import * as tf from '@tensorflow/tfjs';    
    import { CANVAS_WIDTH, CANVAS_HEIGHT } from './game/constants';    
    import { Runner } from './game';
    

    接下来初始化runner类的实例为null。

    let runner = null;
    

    这里写一个setup函数,当所有DOM元素加载后,该函数将会被调用。

    function setup() {    
    // setup code here    
    }
    

    setup函数需要初始化runner实例,设置DINO_COUNT=1,并对应的给出onReset, onCrash, onRunning 事件对应的函数。之前说过Runner类支持多个恐龙同时运行。这里DINO_COUNT就设定了需要模拟的恐龙数量。

    runner = new Runner('.game', {    
    DINO_COUNT: 1,    
    onReset: handleReset,    
    onCrash: handleCrash,    
    onRunning: handleRunning    
    });
    

    把runner赋值给window.runner,这样可以作为全局变量访问,然后执行runner.init(),启动游戏。

    window.runner = runner;    
    runner.init();
    

    看起来已经完成设定,准备开始了 :)

    处理重置

    定义firstTime变量,表明恐龙游戏是第一次玩还是需要重置。这样就可以用同一个带条件判断的函数处理重置了。

    let firstTime = true;
    

    handleReset方法输入是恐龙数组,runner类创建了一组恐龙实例,支持多个恐龙同时在游戏中。这个设定是为接下来的系列,本文中数组里只含一个恐龙。

    function handleReset( dinos ) {    
    //will handle resetting and initialization of the game    
    }
    

    既然本例中只有1个恐龙,就取参数第0个元素。

    const dino = dinos[0];
    

    如果是第一次调用,将初始化模型并保存在dino.model对象中。我们用tf.sequential()创建模型,结果返回一个序列模型。接下来在模型中增加2层。

    神经网络会接收3个输入, 即定义恐龙状态的参数,例如游戏的速度, 障碍物的宽度,与恐龙间的距离。

    所以第一层的输入形状是 [3] ,这是一个2D tensor数组,例如 [ [1 , 1 , 0] ], 就代表3个不同的输入值。我们用的是最基本的激活函数sigmoid函数,为下一层输出6个值。

    if (firstTime) {    
    firstTime = false;    
    dino.model = tf.sequential();    
    dino.model.add(tf.layers.dense({    
    inputShape:[3],    
    activation:'sigmoid',    
    units:6    
    }))
    

    这是第二个输出层,包含6个输入,来自前一个隐层。

    dino.model.add(tf.layers.dense({    
    inputShape:[6],    
    activation:'sigmoid',    
    units:2    
    }))
    

    同样这里的激活函数是Sigmoid。那你觉得输出需要多少单元? 现在只需要2个单元, 对么? 1个输出恐龙跳跃范围是 [0,1] ,另一个输出是恐龙不动范围是 [1,0].

    dino.model.compile({    
    loss:'meanSquaredError',    
    optimizer : tf.train.adam(0.1)    
    })
    

    最终我们用 meanSquaredError loss 函数编译模型,用adam 优化器,其学习率为 0.1,可以试一下这个学习率 :)

    在dino.training对象中,含了2个数组保存我们的训练集inputs和labels。

    dino.training = {    
    inputs: [],    
    labels: []    
    };
    

    否则,这不是第一次reset,就用TensorFlow自带的model.fit函数训练神经网络。该函数的参数是两个tensor以向量形式。第一个参数的输入与input的形状一致,第二个参数与output的形状一致。这里用TensorFlow api中的tensor2d函数将二维数组转成系统中的tensor。

    else {    
    dino.model.fit(tf.tensor2d(dino.training.inputs),tf.tensor2d(dino.training.labels));    
    }
    

    太棒了, 我们已经完成了模型构建并实现了训练部分。

    那么…

    开始预测!

    很显然模型预测部分将由handleRunning使用,该函数决定接下来要做什么。

    handleRunning方法接收恐龙和状态作为参数。这里的状态是当前Runner的状态 — 里面包含与下一个障碍物的距离、其宽度和游戏速度。返回一个Promise对象,后续会回调恐龙执行的动作。

    function handleRunning(dino, state) {    
    return new Promise((resolve) => {    
    //resolve(action)    
    }    
    }
    

    在promise回调函数里,传给匿名函数作为参数——解决回调函数。如果恐龙当前不在跳跃状态,就用模型预测下一个动作。predict方法处会调用ConvertStateToVector方法,其输入是状态对象,返回特征缩放向量。 接下来调用 tf.tensor2d 方法将数组转换成 tensor,然后用它来执行predict方法。

    if (!dino.jumping) {    
    // whenever the dino is not jumping decide whether it needs to jump or not    
    let action = 0;// variable for action 1 for jump 0 for not    
    // call model.predict on the state vector after converting it to tensor2d object    
    const prediction = dino.model.predict(tf.tensor2d([convertStateToVector(state)]));  
      
    // the predict function returns a tensor we get the data in a promise as result    
    // and based on result decide the action
    

    model.predict方法返回一个对象,其中包含data方法,用以返回一个Promise对象。Promise对象中构造匿名回调函数,其输入为result,result是一个简单数组包含预测结果。

    既然前文定义了 [0,1] 作为跳跃输出,比较结果 result[1] 和 result[0]: 如果result[1] 大于 result[0], 就让恐龙跳一下; 否则恐龙继续保持奔跑状态。

    如果执行跳跃,将action设置为 1 ,将lastJumpingState设置为当前state, 因为我们选择在这个状态跳跃。

    const predictionPromise = prediction.data();    
    predictionPromise.then((result) => {    
    // console.log(result);    
    // converting prediction to action    
    if (result[1] > result[0]) {    
    // we want to jump    
    action = 1;    
    // set last jumping state to current state    
    dino.lastJumpingState = state;
    

    如果不选择跳跃,将lastRunningState设置为当前state, 因为我们选择在这个状态保持奔跑。

    else{    
    dino.lastRunningState = state;    
    }
    

    最后, 代入所需的参数执行Promise (0 保持, 1 预测跳跃) resolve(action);

    如果恐龙当前已在跳跃状态,执行 running (0) resolve(0);

    好的! 这里已经决定了恐龙如何行动。接下来要处理失败的情况,比如当恐龙 撞到障碍物。这里也是创建训练数据的地方

    处理恐龙落在障碍物上

    收集训练数据

    handleCrash函数会检查恐龙在起跳后是否撞到障碍物,基于这个状态选择向训练集增加什么数据。

    function handleCrash(dino) {    
    let input = null;    
    let label = null;    
    // check if at the time of crash dino was jumping or not    
    if (dino.jumping) {    
    // Should not jump next time    
    // convert state object to array
    

    如果恐龙在跳跃时撞到障碍物,这表示之前不应该起跳。那么保存lastJumpingState作为输入,其label为not-jump作为输出。

    同样的如果并未及时起跳,但是恐龙碰到了障碍物,这意味着之前应该起跳。取lastRunningState作为输入,其label为jump作为其输出。然后将这些数据作为新的训练数据送入dino.training。

    input = convertStateToVector(dino.lastJumpingState);    
    label = [1, 0];    
    } else {,    
    // Should jump next time    
    // convert state object to array    
    input = convertStateToVector(dino.lastRunningState);    
    label = [0, 1];    
    }    
    // push the new input to the training set    
    dino.training.inputs.push(input);    
    // push the label to labels    
    dino.training.labels.push(label);    
    }
    

    执行 npm 启动 webpack-dev-server, 可以打开下面的网址看到游戏:

    http://localhost:8080

    image

    结论和下一步

    好的, 本文中我们用神经网络自动化了Chrome恐龙游戏。后续文章将使用遗传算法结合神经网络。尝试使用遗传算法自动化游戏。

    到本系列结束时,将对所有三种自动化策略的性能进行比较。

    想要继续查看该篇文章相关链接和参考文献?

    点击如何使用 TensorFlow.js 自动化 Chrome 恐龙游戏?即可访问!

    今日资源推荐:《Tensorflow:实战Google深度学习框架》高清完整PDF版

    《Tensorflow:实战Google深度学习框架》为使用TensorFlow深度学习框架的入门参考书,旨在帮助读者以最快、最有效的方式上手TensorFlow和深度学习。书中省略了深度学习繁琐的数学模型推导,从实际应用问题出发,通过具体的TensorFlow样例程序介绍如何使用深度学习解决这些问题。《Tensorflow:实战Google深度学习框架》包含了深度学习的入门知识和大量实践经验,是走进这个最新、最火的人工智能领域的首选参考书。

    资源链接:https://ai.yanxishe.com/page/resourceDetail/84

    相关文章

      网友评论

        本文标题:如何使用 TensorFlow.js 自动化 Chrome 恐龙

        本文链接:https://www.haomeiwen.com/subject/cwkxcctx.html