美文网首页
车辆行为克隆

车辆行为克隆

作者: ydlstartx | 来源:发表于2018-06-07 21:58 被阅读0次

    说是行为克隆,听着高大上,其实原理很简单。挂载在车盖上的摄像头拍摄一张图片,网络对其进行回归预测,输出车轮转向角。最终目标就是使模拟器中的小车可以自己开,不能超出车道线。

    训练数据就是好多好多张车辆运行中摄像头拍摄的图片,而label就是各个图片对应的车轮转向角,为[-25,25]中的值。

    原理都很简单,主要是我第一次是用的keras搭建的网络,并且使用generator来生成训练数据,主要记录这些内容。

    网络结构

    使用的是NVIDIA发表的一篇端到端自动驾驶论文中的网络结构,网络功能很强大,对于这个小项目绰绰有余了。网络为五层卷积后接四层全连接,因为只预测转向角,所以输出只有一个神经元。另外,在第一层卷积之前有两个预处理步骤:1.因为摄像头拍摄的范围还是挺大的,对于图像中天空这一部分是不需要的,所以给它裁掉。还有摄像头还会拍到一点车盖,这个给它裁掉。输入图像是(160,320,3),我看了下,上面裁60行,下面裁20行就可以。2.之后对输入normalize一下,这里只是简单的除以255后减去0.5而已。

    from keras.models import Sequential
    from keras.layers import Flatten, Dense, Lambda, Dropout
    from keras.layers.convolutional import Conv2D, Cropping2D
    from keras.layers.pooling import MaxPooling2D
    
    conv_trainable = True
    
    model = Sequential()
    model.add(Cropping2D(cropping=((60,20),(0,0)), input_shape=(160,320,3)))
    model.add(Lambda(lambda x: x / 255.0 - 0.5))
    
    model.add(Conv2D(24,(5,5),strides=(2,2),activation='relu', trainable=conv_trainable))
    model.add(Conv2D(36,(5,5),strides=(2,2),activation='relu', trainable=conv_trainable))
    model.add(Conv2D(48,(5,5),strides=(2,2),activation='relu', trainable=conv_trainable))
    model.add(Conv2D(64,(3,3),activation='relu', trainable=conv_trainable))
    model.add(Conv2D(64,(3,3),activation='relu', trainable=conv_trainable))
    
    model.add(Flatten())
    # 我训练的epoch不多,还没过拟合,所以没用dropout
    # model.add(Dropout(0.5))
    model.add(Dense(100,activation='relu'))
    # model.add(Dropout(0.6))
    model.add(Dense(50,activation='relu'))
    model.add(Dense(10,activation='relu'))
    model.add(Dense(1))
    
    model.compile(loss='mse', optimizer='adam')
    model.summary()
    

    对于结构这么简单的网络,使用keras可是太方便了!

    训练数据

    训练数据是好多好多图片,shape为(160,320,3)。所有图片的信息都存在一个csv文件中,csv文件的每一行包括车上三个摄像头拍摄图片的地址(中,左,右),和此时车轮的转向角。

    在训练之前先要做个data augment。我只是对每张图片都翻转一下。翻转后要记录新的图片地址和取了负值的转向角,然后更新原来的csv文件。下面代码完成这个操作:

    import csv
    import cv2
    import numpy as np
    
    # 本代码由于augment data,对于所有图片左右翻转下
    # 方法是通过csv文件中的地址分别读取图片,翻转图片,存储新图片,如此循环
    # 在该过程中记录新图片地址,最后更新csv文件。
    new_csv = []
    with open('./driving_log.csv', 'r') as csvfile:
        reader = csv.reader(csvfile)
        # 注意line中所有数据都是字符串形式
        for line in reader:
            for i in range(3):
                # 防止地址前后有空格,没有什么特殊的含义
                path = line[i].strip()
                img = cv2.imread(path)
                img = cv2.flip(img, 1)
                # 翻转后图片的新名字
                new_path = path.split('.jpg')[0] + '_r.jpg'
                cv2.imwrite(new_path, img)
                line[i] = new_path
            # 因为翻转了,所以左图右图互换
            line[1],line[2] = line[2], line[1]
            line[3] = str(-1.0 * float(line[3]))
            # 把新的信息存到列表里,后面更新csv文件
            new_csv.append(line)
    
    # 用open以写方式打开csv文件需要指定newline=''
    # 不然,写的行与行之间会多一个空行
    with open('./driving_log.csv', 'a', newline='') as csvfile:
        writer = csv.writer(csvfile)
        writer.writerows(new_csv)
    

    下面代码读入csv文件,提取出每一行,shuffle后,分类训练、验证集。

    lines = []
    with open('./driving_log.csv') as csvfile:
        # reader为一生成器
        reader = csv.reader(csvfile)
        for line in reader:
            lines.append(line)
    
    # sklearn的工具还是很好用的
    from sklearn.utils import shuffle
    lines = shuffle(lines)
    
    from sklearn.model_selection import train_test_split
    # 注意这种分法没有完全分开同一时刻左中右三个摄像头拍摄的图片
    train_samples, validation_samples = train_test_split(lines, test_size=0.2)
    

    这时训练数据我记得是好五六万张吧。一次都读进内存电脑课吃不消。所以每训练一个batch再从硬盘中读一个batch的图片。所以这里shuffle的只是图片的地址,到时候根据地址读图片就好了。

    使用生成器训练网络

    需要构造一个生成器,在训练时传入到model.fit_generator中,生成器每次返回一个batch的数据。

    # samples接收的就是保存了地址的列表
    # 返回的batch全部在samples中。
    def generator(samples, batch_size=32):
        num_samples = len(samples)
        # 要不断生成数据,所以无限循环
        while 1:
            # 每次大循环完该samples,也就是一个epoch,都shuffle下整个数据集
            shuffle(samples)
            # 在该for中每次yeild一个batch数据
            for offset in range(0, num_samples, batch_size):
                batch_samples = samples[offset:offset+batch_size]
                images = []
                labels = []
    
                for batch_sample in batch_samples:
                    # 这里使用了左中右三个摄像头的图片
                    # 所以yeild的真正的数据量为batch*3
                    for i in range(3):
                        # stip就是防止地址前后的空格
                        # 读不到图片imread可不会报错
                        image = cv2.imread(batch_sample[i].strip())
                        images.append(image)
                    label = float(batch_sample[3])
                    label_left = label + correction
                    label_right = label - correction
                    labels.extend([label, label_left, label_right])
    
                X_train = np.array(images)
                y_train = np.array(labels)
                # 这个shuffle我感觉没太大用
                yield shuffle(X_train, y_train)
    

    上面只是生成器的定义,下面,要建立训练集和验证集的生成器对象,分别传入之前分割好的列表即可:

    batch_size = 16
    train_generator = generator(train_samples, batch_size=batch_size)
    validation_generator = generator(validation_samples, batch_size=batch_size)
    

    这两个生成器就是用于model.fit_generator()中的了。

    训练!

    直接调用model.fit_generator就好:

    # 每一个epoch都保存一个模型
    # 所以设置model.fit_generator中的epochs参数为1
    # 并在循环中调用
    # 每次fit结束后就保持模型。
    for i in range(5):
        history_object = model.fit_generator(generator = train_generator,
                                         steps_per_epoch = int(len(train_samples)/batch_size),
                                         epochs = 1,
                                         validation_data = validation_generator,
                                         validation_steps = int(len(validation_samples)/batch_size))
    
        model.save('./model_%d.h5'%i)
    

    用keras可太方便了,这要是用tensorflow可费劲了。

    上面说这个网络结构强大是有原因的,一开始我搭建网络的时候忘记指定全连接层的转移函数了!!!所以这四层全连接就相当于一层线性层,但是,就算是这样,使用第4个epoch之后得到的模型,小车也能非常稳定的开。。。

    相关文章

      网友评论

          本文标题:车辆行为克隆

          本文链接:https://www.haomeiwen.com/subject/ytdmsftx.html