美文网首页程序员深度学习-推荐系统-CV-NLP
10.YOLO系列及如何训练自己的数据。

10.YOLO系列及如何训练自己的数据。

作者: 和蔼的zhxing | 来源:发表于2018-11-08 08:01 被阅读4次

    SSD失败之后就挺失望的,而且莫名其妙,于是转向YOLO了,其实object detection领域可选的模型并不多,RCNN系列我是大概看过的,还写过:RCNN系列,但是这种location和classification分开的思路,要达到实时的话我的硬件条件肯定是不可能的。YOLOV3我是在TX2上跑过的:YOLOV3-TX2跑起来,而且YOLO是有简化版本的模型的,对于简单应用应该是够了。
    因为以前跑过,整体的流程走下来还算比较顺利,比起SSD来说,训练时要修改的代码也比较少,可能留给犯错的概率就少一些。
    我分以下几个部分:

    • 1. YOLO系列简介。
    • 2. 编译环境准备。
    • 3. 训练配置。

    1. YOLOV3系列简介。

    1.1:简介。

    • 作者:Joseph Redmon
    • YOLO主页:YOLO
    • 作者github: https://github.com/pjreddie
    • 模型简介:You only look once (YOLO) is a state-of-the-art, real-time object detection system. On a Pascal Titan X it processes images at 30 FPS and has a mAP of 57.9% on COCO test-dev.

    和其他模型的对比:(总结起来一句话:比它快的准确率没有它高,准确率比它高的没有他快)

    Model Train Test mAP FLOPS FPS Cfg Weights
    SSD300 COCO trainval test-dev 41.2 - 46 link
    SSD500 COCO trainval test-dev 46.5 - 19 link
    YOLOv2 608x608 COCO trainval test-dev 48.1 62.94 Bn 40 cfg weights
    Tiny YOLO COCO trainval test-dev 23.7 5.41 Bn 244 cfg weights
    SSD321 COCO trainval test-dev 45.4 - 16 link
    DSSD321 COCO trainval test-dev 46.1 - 12 link
    R-FCN COCO trainval test-dev 51.9 - 12 link
    SSD513 COCO trainval test-dev 50.4 - 8 link
    DSSD513 COCO trainval test-dev 53.3 - 6 link
    FPN FRCN COCO trainval test-dev 59.1 - 6 link
    Retinanet-50-500 COCO trainval test-dev 50.9 - 14 link
    Retinanet-101-500 COCO trainval test-dev 53.1 - 11 link
    Retinanet-101-800 COCO trainval test-dev 57.5 - 5 link
    YOLOv3-320 COCO trainval test-dev 51.5 38.97 Bn 45 cfg weights
    YOLOv3-416 COCO trainval test-dev 55.3 65.86 Bn 35 cfg weights
    YOLOv3-608 COCO trainval test-dev 57.9 140.69 Bn 20 cfg weights
    YOLOv3-tiny COCO trainval test-dev 33.1 5.56 Bn 220 cfg weights
    YOLOv3-spp COCO trainval test-dev 60.6 141.45 Bn 20 cfg weights

    1.2.YOLO原理。


    论文我正在看,等我看完了再写这一部分,但是因为这个模型的训练和检测框架都是端到端的,所以即使 不了解中间的细节也是可以训练和检测的。


    2. 编译环境准备。

    相较于其他模型来说,darknet的编译环境是最简单的。因为他并没有用时下比较流行的深度学习框架来写,而是作者自己用C撸了一个框架:darknet。这个框架是用C和CUDA-C来写的(这代码能力就只有仰望的份了),所以装了ubuntu系统装好以后就可以用了,非常简单。
    如果需要(一般肯定是需要的)GPU加速的话,那么需要安装NVIIDA的那一套东西(驱动,CUDA,CUDNN),如果需要测试视频和显示视频或者照片的话,那么需要安装opencv。
    所以是不是很简单?
    我自己的电脑是win10+ubuntu的双系统。win10下darknet也是可以配置的,但是为了简单和适应linux系统我这次还是选择了ubuntu系统,中间安装opencv的时候空间不够了,我手贱想从win10下面分出来一点空间来给ubuntu的时候,出了岔子,ubunut系统崩掉了,一气之下我把C盘清空了,两个系统都重装了。
    装系统的话就不多说了,win10下装ubuntu的话大概以下几个步骤:

    • ①从win的系统盘右键压缩出来50G(有的话可以再多点)的未分配的空间。(可能是绿色或者黑色的,不是很影响)
    • ②制作ubuntu的u盘启动盘,用软碟通就可以,这个很简单。
    • ③重启,进bios,从u盘启动,顺便把电脑的网断了(拔掉网线或者关闭wifi),然后安装,不要选择安装更新,并且自己分配空间,就从刚才从win10上压缩的未分配空间来分配。
      然后基本就可以了,如果遇到什么问题,勤百度,这写坑基本上都有。

    至于安装NVIDIA的那一套,网上也是有很多教程,我也是踩了很多坑,现在也无法截图写教程了,就不说了,这一套更新挺快的,并不是越新越好(越适合自己的项目),注意各个版本需要匹配。
    opencv的编译写一下,因为我正在弄。

    • ①安装一些依赖环境:
    sudo apt-get install build-essential 
    sudo apt-get install cmake git libgtk2.0-dev pkg-config libavcodec-dev libavformat-dev libswscale-dev 
    sudo apt-get install python-dev python-numpy libtbb2 libtbb-dev libjpeg-dev libpng-dev libtiff-dev libjasper-dev libdc1394-22-dev 
    sudo apt-get install –assume-yes libopencv-dev libdc1394-22 libdc1394-22-dev libjpeg-dev libpng12-dev libtiff5-dev libjasper-dev libavcodec-dev libavformat-dev libswscale-dev libxine2-dev libgstreamer0.10-dev libgstreamer-plugins-base0.10-dev libv4l-dev libtbb-dev libqt4-dev libfaac-dev libmp3lame-dev libopencore-amrnb-dev libopencore-amrwb-dev libtheora-dev libvorbis-dev libxvidcore-dev x264 v4l-utils unzip 
    sudo apt-get install ffmpeg libopencv-dev libgtk-3-dev python-numpy python3-numpy libdc1394-22 libdc1394-22-dev libjpeg-dev libpng12-dev libtiff5-dev libjasper-dev libavcodec-dev libavformat-dev libswscale-dev libxine2-dev libgstreamer1.0-dev libgstreamer-plugins-base1.0-dev libv4l-dev libtbb-dev qtbase5-dev libfaac-dev libmp3lame-dev libopencore-amrnb-dev 
    

    选择的地方全部选择yes,然后等待安装完成就可以了。

    • ② 下载opencv源码,这个自己想办法吧,网络好的话还是比较快的。然后解压。
    • ③ 配置cmake编译。
    cd opencv-3.4.1       #解压的文件
    mkdir build           #创建build文件夹
    cd build                #进入build文件夹
    cmake -D CMAKE_BUILD_TYPE=RELEASE -D CMAKE_INSTALL_PREFIX=/usr/local -D WITH_TBB=ON -D WITH_V4L=ON -D WITH_QT=ON -D WITH_OPENGL=ON -D WITH_GTK=ON -D WITH_GTK_2_X=ON -D CUDA_NVCC_FLAGS="-D_FORCE_INLINES" ..
    #配置cmake
    sudo make        #编译
    

    编译还是挺慢的,我跑了步回来还没好,耐心等着就可以了。
    然后

    sudo make install      #这个sudo是必须的,要不会因为权限问题产生错误
    

    这样就可以了,有的教程写这里需要添加动态连接什么的,我倒没有这么做,就直接可以用了。

    • ④测试。
    mkdir opencv_cpp     #建立一个文件夹:
    gedit lena.cpp      #建立测试文件
    gedit CMakelist.txt  #建立CMakeLists文件
    cmake .      #编译头文件和源文件
    make   #生成可执行文件
    

    CMakelist.txt 里面写的是:

    cmake_minimum_required(VERSION 2.8)
    project( DisplayImage )
    find_package( OpenCV REQUIRED )
    add_executable( LENA lena.cpp )
    target_link_libraries( LENA ${OpenCV_LIBS} )
    

    cpp文件里写的是:

    #include <stdio.h>
     #include <opencv2/opencv.hpp> 
    using namespace cv; 
    int main(int argc, char** argv ) 
    { if ( argc != 2 ) 
    { printf("usage: DisplayImage.out <Image_Path>\n"); 
    return -1; } 
    Mat image; 
    image = imread( argv[1], 1 ); 
    if ( !image.data ) 
    { printf("No image data \n"); return -1; }
     namedWindow("Display Image", WINDOW_AUTOSIZE ); 
    imshow("Display Image", image); 
    waitKey(0); 
    return 0; 
    }
    

    然后找一张照片命名lena.jpg,放到lena.cpp的同级目录下。
    最后执行:
    ./LENA lena.jpg 看到显示照片的话就说明没有问题了。
    c++版本的opencv这里就可以用了,但是没有好用的编辑器,还是不如win下面VS写起来好用。


    未完待续……

    相关文章

      网友评论

        本文标题:10.YOLO系列及如何训练自己的数据。

        本文链接:https://www.haomeiwen.com/subject/rnvvxqtx.html