美文网首页
opencv编译流程

opencv编译流程

作者: Alexander | 来源:发表于2023-05-29 19:34 被阅读0次
    一、结构介绍
    • 1.1,视觉跟踪需要用到opencv的trackering类,但官方的OpenCV releases并不包含opencv_contrib。所以在编译的时候需要包含tracking
    二、编译前的准备
    • 2.1,安装Cmake,编译脚本可以用cmake
    • 2.2,下载opencv指定版本的标准库
    • 2.3,下载opencv_contrib相同版本的贡献库
    • 2.4,根据这个路径~/opencv/platforms/ios/build_framework.py找到build_framework,修改几处基础配置。(将 **--enable_nonfree**设置为**default=True**,默认是False。由于项目只支持真机,减少编译时间可以将**--iphoneos_archs**为**armv7**)。
    • 2.5,opencv_contrib库中包含很多功能库,我们只需用到tracking这个类,所以可以直接从~/opencv_contrib/modules中找到tracking,移动到~/opencv/modules中即可。

    2.5步骤是编译的一种方式,若还需用到其他库可以如下直接编译
    ./OpenCV/
    ├── opencv-4.5.5/
    └── opencv_contrib-4.5.5/
    注解: 标准库和贡献库必须在同一个目录下编译

    三、编译OpenCV
    • 3.1,切换到你的工作目录,编译后的文件将输出到这个目录(cd <yourWorkSpace>
    • 3.2,执行编译脚本方式一(将需要的功能库移动到opencv的modules种)python opencv/platforms/ios/build_framework.py ios
    • 3.3,编译脚本方式二(直接编译标准库和贡献库, --contrib 参数指定为我们下周的扩展包的目录)python path/to/build_framework.py --contrib path/to/opencv_contrib iOS
    四、项目接入opencv2.framework
    • 4.1,FiFish项目中视觉追踪有两个版本(即VL1.0和VL2.0),但两个版本底层也是通过OpenCV实现的。
    • 4.2,具体实现在QYVisionLockTrackerManager
    #import <opencv2/opencv.hpp>
    #import "opencv2/imgproc.hpp"
    #import "qyTracker.h"
    #import <opencv2/tracking/tracking_legacy.hpp>
    
    {
        cv::Ptr<cv::legacy::TrackerMedianFlow> medianTracker; //  VL1.0 视觉跟踪器
        QytTracker *tracker; // VL2.0 视觉跟踪器
    }
    
    ----------- VL1.0(VL1.0是直接和opencv交互) ----------- 
    cv::Rect2d rect2d =  [self calculateRectInImageMat:dstMat sizeScale:sizeScale centerScale:centerScale];
    medianTracker = cv::legacy::TrackerMedianFlow::create();
    bool isTrackerInit = medianTracker->init(dstMat, rect2d);
    self.isInitTracker = isTrackerInit;
    complete([self calculateRectWithScreenScale:sizeScale centerScale:centerScale] ,isTrackerInit);
    
    ----------- VL2.0(VL2.0是与算法交互) ----------- 
     if (tracker == NULL) {
       tracker = new QytTracker();
      }
     cv::Rect bbox = [self calculateRectInImageSize:dstMat sizeScale:sizeScale centerScale:centerScale];
     tracker->init(dstMat, bbox);
     self.isInitTracker = YES;
     complete([self calculateRectWithScreenScale:sizeScale centerScale:centerScale] ,YES);
    
    • 4.3,算法需要的类型的cv:Mat类型,所以需要将yuv转成cv:Mat类型
    // yuv转cv::Mat
    - (cv::Mat)dstMatWithYuv:(uint8_t *)yuv_frame width:(int)width height:(int)height {
        cv::Mat dstMat;
        cv::Mat rgbMat;
        if (yuv_frame == nil) {
            return rgbMat;
        }
        cv::Mat yuvMat(height+height/2, width, CV_8UC1, yuv_frame);
        if (yuvMat.empty()) {
            return rgbMat;
        }
        rgbMat = cv::Mat(height,width,CV_8UC3);
    //    // COLOR_YUV2BGR_I420  COLOR_YUV2BGR_NV12
        if (rgbMat.empty()) {
            return rgbMat;
        }
    
        cv::cvtColor(yuvMat, rgbMat, COLOR_YUV2BGR_I420, 3);
    //    if (rgbMat.rows > mMatScaleTargetHeight) {
    //        double h = (double)height;
    //        double w = (double)width;
    //        int dstWidth = mMatScaleTargetHeight / h * w;
    //        rgbMat.copyTo(dstMat);
    ////        cv::resize(rgbMat, dstMat, cv::Size(dstWidth, mMatScaleTargetHeight), 0, 0, INTER_AREA); // resize CPU占用有点大
    //    } else {
    //        rgbMat.copyTo(dstMat);
    //    }
        rgbMat.copyTo(dstMat);
        yuvMat.release();
        rgbMat.release();
        return dstMat;
    }
    
    注解: cv::resize()函数会造成CPU增加, 所以在询问算法组的同事后表示可以注释这个函数。
    
    总结

    优化点:

    • 1.0,VisionLock 底层算法是CPU处理,所以在使用久了后,手机会发烫,已反馈给算法组的同事, 同时需要查出上层代码能增加CPU的地方,eg:上次检测出cv::resize()函数会增加CPU。
    • 1.1,由于播放器不同,获取到的视频帧格式不同(可能是NV12、P420、imageBuffer),这里可以优化下代码,看看能不能有更好的兼容性。

    相关文章

      网友评论

          本文标题:opencv编译流程

          本文链接:https://www.haomeiwen.com/subject/bzzyddtx.html