美文网首页
PaddlePaddle

PaddlePaddle

作者: ccq_inori | 来源:发表于2018-07-07 16:42 被阅读0次

    前言

    转载于https://blog.csdn.net/tangxiaoyin/article/details/80132220

    这将是 PaddlePaddle 系列教程的开篇,属于非官方教程。既然是非官方,自然会从一个使用者的角度出发,来教大家怎么用,会有哪些坑,以及如何上手并用到实际项目中去。

    我之前写过一些关于 tensorflow 的教程,在我的简书上可以找到,非常简单基础的一个教程,但是备受好评,因为国内实在是很难找到一个系列的关于这些深度学习框架的教程。因此在这里,我来给 PaddlePaddle 也写一个类似的教程,不复杂,三行代码入门。

    三行代码 PaddlePaddle 从入门到精通

    PaddlePaddle 是百度大力推出的一个框架,不得不说相比于 tensorflow,PaddlePaddle 会简单很多,接下来我会细说。同时百度在人工智能方面的功底还是非常深厚,我曾经在腾讯实习,类似于 AT 这样的公司,甚至没有一个非常成型的框架存在。

    既然是三行代码精通 PaddlePaddle,那么得安装一下 PaddlePaddle。就目前来说,最好的办法是 build from source。步骤如下 (注意,这里是 CPU 版本,GPU 版本的源码编译过程后续补充,我们先用 CPU 来熟悉 API):

    # clone 最新代码到 paddle
    git clone https://github.com/PaddlePaddle/Paddle paddle
    cd paddle
    mkdir build
    cd build
    make all -j8
    sudo make install
    
    # 安装 python 接口,注意 paddlepaddle 目前貌似只支持 python2,因此在写脚本的时候一定要兼容一下 python3
    # 这里是 mac 的情况下,如果是 ubuntu /usr/local/opt  应该直接是/opt/
    sudo python -m pip install /usr/local/opt/paddle/share/wheels/*.whl
    # 或者直接
    sudo pip2 install /usr/local/opt/paddle/share/wheels/*.whl
    
    20171013100600335.jpeg

    好了,看上去应该算是安装完了。接下来我们用三行代码来测试一下?


    20171013100727491.jpeg

    PaddlePaddle 在 python API 上 0.10 有较大的变化,所以直接 import 一下 v2 版本的 API。如果可以说明 PaddlePaddle 安装没有问题。这里赞一下百度的技术功底和用户体验,这尼玛要是 caffe 或者 caffe2 编译出错概率 100%不说,python 安装了也不能 import,PaddlePaddle 一步到位,非常牛逼。

    闲话不多说,直接三行代码来熟悉一下 PaddlePaddle 的 API。

    三行代码来了

    接下来要做的事情是,用 PaddlePaddle 搭建一个 3 层 MLP 网络,跑一个二维的 numpy 随机数据,来了解一下 PaddlePaddle 从数据喂入到训练的整个 pipeline 吧。

    首先我们这个教程先给大家展示一个图片分类器,用到的数据集是 Stanford Dogs 数据集,下载链接,大概 800M, 同时下载一下 annotations, 大概 21M。下载好了我们用一个 paddle_test 的文件夹来做这个教程吧。

    mkdir paddle_test
    cd paddle_test
    mkdir data
    

    把所有的 images 和 annotations 扔到 data 里面去,解压一下:

    paddle_test
    └── data
        ├── annotation.tar
        └── images.tar
    

    顺便说一下,这里的 annotations 是为后面用 paddlepaddle 做分割做准备,本次分类任务,只需要一个 images.tar 就可以了,所有图片被放在了该类别的文件夹下面,以后处理其他分类任务时,只需要把不同类别放在文件夹就 OK 了,甚至不用改代码,非常方便,这比 MXNet 要有道理很多,多数情况下我们根本不需要海量图片训练,也没有必要搞个什么 imrecord 的数据格式,MXNet 导入图片真心蛋疼,没有 Pytorch 方便,但是 Pytorch 得运行速度堪忧。

    OK,将 images.tar 解压,会得到 120 个文件夹,也就是 120 个类别,每个类别里面都是一种狗狗图片。比如这张是一只 Beagle:


    20171013100850064.jpeg

    开始写三行代码

    好了,开始写三行代码了。

    def vgg_bn_drop(input_data):
    def event_handler(event):
    def train():
    

    实际上 PaddlePaddle 的使用也就是三行代码的事情,首先是网络构建,这里我们构建一个 VGG 网络,其次是 event 的处理函数,这个机制是 PaddlePaddle 独有的,PaddlePaddle 把所有的训练过程都包装成了一个 trainer,然后调用这个 event_handler 来处理比如打印 loss 信息这样的事情。OK,我们一步一步来,先来看一下 train 的过程吧:

    def train():
        data_dim = 3 * 32 * 32
        class_dim = 10
        image = paddle.layer.data(
            name="image", type=paddle.data_type.dense_vector(data_dim))
        net = vgg_bn_drop(image)
        out = paddle.layer.fc(input=net,
                              size=class_dim,
                              act=paddle.activation.Softmax())
        lbl = paddle.layer.data(
            name="label", type=paddle.data_type.integer_value(class_dim))
        cost = paddle.layer.classification_cost(input=out, label=lbl)
        parameters = paddle.parameters.create(cost)
        print(parameters.keys())
        momentum_optimizer = paddle.optimizer.Momentum(
            momentum=0.9,
            regularization=paddle.optimizer.L2Regularization(rate=0.0002 * 128),
            learning_rate=0.1 / 128.0,
            learning_rate_decay_a=0.1,
            learning_rate_decay_b=50000 * 100,
            learning_rate_schedule='discexp')
        # Create trainer
        trainer = paddle.trainer.SGD(cost=cost,
                                     parameters=parameters,
                                     update_equation=momentum_optimizer)
        reader = paddle.batch(
            paddle.reader.shuffle(
                paddle.dataset.cifar.train10(), buf_size=50000),
            batch_size=128)
        feeding = {'image': 0,
                   'label': 1}
        trainer.train(
            reader=reader,
            num_passes=200,
            event_handler=event_handler,
            feeding=feeding)
    

    PaddlePaddle 的网络训练流程分为几个步骤:

    首先定义网络,这里的网络不包括最后一层的 softmax;
    创建一个 cost,cost 当然就需要一个网络的输出和 lable 了;
    通过这个 cost 来创建网络训练的参数,非常简单明了;
    最后是优化器,这里定义反向传播的正则项,学习速率调整策略等;
    通过上面这些创建一个 trainer;
    最后这个 trainer 要训练起来,还需要持续的数据喂入,时间处理函数,和喂入的方式。
    接着我们看一下网络定义和事件处理函数:

    # define VGG network
    def vgg_bn_drop(input_data):
        def convolution_block(ipt, num_filter, groups, dropouts, num_channels=None):
            return paddle.networks.img_conv_group(
                input=ipt,
                num_channels=num_channels,
                pool_size=2,
                pool_stride=2,
                conv_num_filter=[num_filter] * groups,
                conv_filter_size=3,
                conv_act=paddle.activation.Relu(),
                conv_with_batchnorm=True,
                conv_batchnorm_drop_rate=dropouts,
                pool_type=paddle.pooling.Max())
        convolution_1 = convolution_block(input_data, 64, 2, [0.3, 0], 3)
        convolution_2 = convolution_block(convolution_1, 128, 2, [0.4, 0])
        convolution_3 = convolution_block(convolution_2, 256, 3, [0.4, 0.4, 0])
        convolution_4 = convolution_block(convolution_3, 512, 3, [0.4, 0.4, 0])
        convolution_5 = convolution_block(convolution_4, 512, 3, [0.4, 0.4, 0])
        drop = paddle.layer.dropout(input=convolution_5, dropout_rate=0.5)
        fc1 = paddle.layer.fc(input=drop, size=512, act=paddle.activation.Linear())
        bn = paddle.layer.batch_norm(
            input=fc1,
            act=paddle.activation.Relu(),
            layer_attr=paddle.attr.Extra(drop_rate=0.5))
        fc2 = paddle.layer.fc(input=bn, size=512, act=paddle.activation.Linear())
        return fc2
    def event_handler(event):
        if isinstance(event, paddle.event.EndIteration):
            if event.batch_id % 100 == 0:
                print("\nPass %d, Batch %d, Cost %f, %s" % (
                    event.pass_id, event.batch_id, event.cost, event.metrics))
            else:
                sys.stdout.write('.')
                sys.stdout.flush()
    

    这里我们先用 PaddlePaddle 内置的 cifar10 来测试一下能否训练起来,把上面的代码加上 import 之后:

    from __future__ import print_function, division
    import paddle.v2 as paddle
    import sys
    paddle.init(use_gpu=False, trainer_count=1)
    if __name__ == '__main__':
        train()
    

    在主函数里面运行 train()。见证奇迹的时刻到了。。

    PaddlePaddle 开始下载数据,并打印出了网络结构!


    20171013101152728.jpeg
    20171013101309123.jpeg

    接下来我们用这个代码来保存网络训练之后的权重:

    try:
        trainer.train(
            reader=reader,
            num_passes=200,
            event_handler=event_handler,
            feeding=feeding)
    except KeyboardInterrupt:
        with open('params_model.tar', 'w') as f:
            parameters.to_tar(f)
    

    最后,模型 train 好之后,导入模型进行预测:

    from __future__ import print_function
    from PIL import Image
    import numpy as np
    import os
    def load_image(file):
        im = Image.open(file)
        im = im.resize((32, 32), Image.ANTIALIAS)
        im = np.array(im).astype(np.float32)
        # PIL 打开图片存储顺序为 H(高度),W(宽度),C(通道)。
        # PaddlePaddle 要求数据顺序为 CHW,所以需要转换顺序。
        im = im.transpose((2, 0, 1)) # CHW
        # CIFAR 训练图片通道顺序为 B(蓝),G(绿),R(红),
        # 而 PIL 打开图片默认通道顺序为 RGB,因为需要交换通道。
        im = im[(2, 1, 0),:,:] # BGR
        im = im.flatten()
        im = im / 255.0
        return im
    test_data = []
    cur_dir = os.getcwd()
    test_data.append((load_image(cur_dir + '/image/dog.png'),))
    # with open('params_pass_50.tar', 'r') as f:
    #    parameters = paddle.parameters.Parameters.from_tar(f)
    probs = paddle.infer(
        output_layer=out, parameters=parameters, input=test_data)
    lab = np.argsort(-probs) # probs and lab are the results of one batch data
    print("Label of image/dog.png is: %d" % lab[0][0])
    

    OK, 本次列车到此结束,对于 PaddlePaddle 如何训练一个图片分类器,应该有了一个清醒的认识.

    相关文章

      网友评论

          本文标题:PaddlePaddle

          本文链接:https://www.haomeiwen.com/subject/ggobuftx.html