美文网首页
2019-01-16

2019-01-16

作者: HEQING0423 | 来源:发表于2019-01-16 17:37 被阅读0次

    SGBM算法获取视差图

    立体校正后的左右两幅图像得到后,匹配点是在同一行上的,可以使用OpenCV中的BM算法或者SGBM算法计算视差图。由于SGBM算法的表现要远远优于BM算法,因此采用SGBM算法获取视差图。SGBM中的参数设置如下:

    int numberOfDisparities = ((imgSize.width / 8) + 15) & -16;

        cv::Ptr sgbm =cv::StereoSGBM::create(0, 16, 3);

        sgbm->setPreFilterCap(32);

        int SADWindowSize = 9;

        int sgbmWinSize = SADWindowSize > 0 ? SADWindowSize : 3;

        sgbm->setBlockSize(sgbmWinSize);

        intcn = imgL.channels();

        sgbm->setP1(8* cn*sgbmWinSize*sgbmWinSize);

        sgbm->setP2(32* cn*sgbmWinSize*sgbmWinSize);

        sgbm->setMinDisparity(0);

       sgbm->setNumDisparities(numberOfDisparities);

        sgbm->setUniquenessRatio(10);

        sgbm->setSpeckleWindowSize(100);

        sgbm->setSpeckleRange(32);

        sgbm->setDisp12MaxDiff(1);

        intalg = STEREO_SGBM;

        if(alg == STEREO_HH)

           sgbm->setMode(cv::StereoSGBM::MODE_HH);

        else if(alg == STEREO_SGBM)

           sgbm->setMode(cv::StereoSGBM::MODE_SGBM);

        else if(alg == STEREO_3WAY)

           sgbm->setMode(cv::StereoSGBM::MODE_SGBM_3WAY);

        sgbm->compute(imgL, imgR, disp);

    默认计算出的是左视差图,如果需要计算右视差图,则将上面加粗的三条语句替换为下面前三条语句。由于视差值计算出来为负值,disp类型为16SC1,因此需要取绝对值,然后保存:

    sgbm->setMinDisparity(-numberOfDisparities);

       sgbm->setNumDisparities(numberOfDisparities);

        sgbm->compute(imgR, imgL, disp);

        disp = abs(disp);

    SGBM算法得到的左、右视差图如下,左视差图的数据类型为CV_16UC1,右视差图的数据类型为CV_16SC1 (SGBM中视差图中不可靠的视差值设置为最小视差(mindisp-1)*16。因此在此例中,左视差图中不可靠视差值设置为-16,截断值为0;右视差图中不可靠视差值设置为(-numberOfDisparities-1)*16,取绝对值后为(numberOfDisparities+1)*16,所以两幅图会有较大差别):

    左视差图(不可靠视差值为0)

    右视差图(不可靠视差值为 (numberOfDisparities+1)*16 )

    如果将右视差图不可靠视差值也设置为0,则如下

    至此,左视差图和右视差图遥相呼应。

    2. 视差图空洞填充

    视差图中视差值不可靠的视差大多数是由于遮挡引起,或者光照不均匀引起。既然牛逼如SGBM也觉得不可靠,那与其留着做个空洞,倒不如用附近可靠的视差值填充一下。

    空洞填充也有很多方法,在这里我检测出空洞区域,然后用附近可靠视差值的均值进行填充。填充后的视差图

    填充后左视差图

    填充后右视差图

    3. 视差图转换为深度图

    视差的单位是像素(pixel),深度的单位往往是毫米(mm)表示。而根据平行双目视觉的几何关系(此处不再画图推导,很简单),可以得到下面的视差与深度的转换公式:

     depth = ( f * baseline) / disp

     上式中,depth表示深度图;f表示归一化的焦距,也就是内参中的fx; baseline是两个相机光心之间的距离,称作基线距离;disp是视差值。等式后面的均已知,深度值即可算出。

    在上面我们用SGBM算法获取了视差图,接下来转换为深度图,函数代码如下:

    /*

    函数作用:视差图转深度图输入:dispMap ----视差图,8位单通道,CV_8UC1

    K       ----内参矩阵,float类型输出:depthMap ----深度图,16位无符号单通道,CV_16UC1

    */

    voiddisp2Depth(cv::Mat dispMap, cv::Mat&depthMap, cv::Mat K)

    {

        inttype = dispMap.type();

        float fx = K.at<float>(0, 0);

        float fy = K.at<float>(1, 1);

        float cx = K.at<float>(0, 2);

        float cy = K.at<float>(1, 2);

        float baseline = 65; //基线距离65mm

        if(type == CV_8U)

        {

            const float PI = 3.14159265358;

            intheight = dispMap.rows;

            intwidth = dispMap.cols;

            uchar* dispData = (uchar*)dispMap.data;

            ushort* depthData = (ushort*)depthMap.data;

            for (int i = 0; i < height; i++)

            {

                for (int j = 0; j < width; j++)

                {

                    intid = i*width + j;

                    if(!dispData[id])  continue;  //防止0除

                    depthData[id] =ushort( (float)fx *baseline / ((float)dispData[id]) );

                }

            }

        }

        else

        {

            cout <<"please confirm dispImg's type!"<< endl;

            cv::waitKey(0);

        }

    }

    注:png的图像格式可以保存16位无符号精度,即保存范围为0-65535,如果是mm为单位,则最大能表示约65米的深度,足够了。

    上面代码中我设置深度图的精度为CV_16UC1,也就是ushort类型,将baseline设置为65mm,转换后保存为png格式即可。如果保存为jpg或者bmp等图像格式,会将数据截断为0-255。所以保存深度图,png格式是理想的选择。(如果不是为了获取精确的深度图,可以将baseline设置为1,这样获取的是相对深度图,深度值也是相对的深度值)

    转换后的深度图如下;

     左深度图

      右深度图

    空洞填充后的深度图,如下:

    左深度图(空洞填充后)

     右深度图(空洞填充后)

    视差图到深度图完成。

    注:视差图和深度图中均有计算不正确的点,此文意在介绍整个流程,不特别注重算法的优化,如有大神望不吝赐教。

    附:视差图和深度图的空洞填充

     步骤如下:

    ① 以视差图dispImg为例。计算图像的积分图integral,并保存对应积分图中每个积分值处所有累加的像素点个数n(空洞处的像素点不计入n中,因为空洞处像素值为0,对积分值没有任何作用,反而会平滑图像)。

    ② 采用多层次均值滤波。首先以一个较大的初始窗口去做均值滤波(积分图实现均值滤波就不多做介绍了,可以参考我之前的一篇博客),将大区域的空洞赋值。然后下次滤波时,将窗口尺寸缩小为原来的一半,利用原来的积分图再次滤波,给较小的空洞赋值(覆盖原来的值);依次类推,直至窗口大小变为3x3,此时停止滤波,得到最终结果。

    ③ 多层次滤波考虑的是对于初始较大的空洞区域,需要参考更多的邻域值,如果采用较小的滤波窗口,不能够完全填充,而如果全部采用较大的窗口,则图像会被严重平滑。因此根据空洞的大小,不断调整滤波窗口。先用大窗口给所有空洞赋值,然后利用逐渐变成小窗口滤波覆盖原来的值,这样既能保证空洞能被填充上,也能保证图像不会被过度平滑。

     空洞填充的函数代码如下,仅供参考:

      voidinsertDepth32f(cv::Mat& depth)

      {

         const intwidth = depth.cols;

         const intheight = depth.rows;

         float* data = (float*)depth.data;

        cv::Mat integralMap = cv::Mat::zeros(height, width, CV_64F);

        cv::Mat ptsMap = cv::Mat::zeros(height, width, CV_32S);

         double* integral = (double*)integralMap.data;

         int* ptsIntegral = (int*)ptsMap.data;

         memset(integral,0, sizeof(double) * width * height);

         memset(ptsIntegral,0, sizeof(int) * width * height);

         for (int i = 0; i < height; ++i)

         {

             intid1 = i * width;

             for (int j = 0; j < width; ++j)

             {

                 intid2 = id1 + j;

                 if (data[id2] > 1e-3)

                 {

                     integral[id2] = data[id2];

                     ptsIntegral[id2] =1;

                 }

             }

         }

         // 积分区间

         for (int i = 0; i < height; ++i)

         {

             intid1 = i * width;

             for (int j = 1; j < width; ++j)

             {

                 intid2 = id1 + j;

                 integral[id2] += integral[id2 -1];

                 ptsIntegral[id2] +=ptsIntegral[id2 -1];

             }

         }

         for (int i = 1; i < height; ++i)

         {

             intid1 = i * width;

             for (int j = 0; j < width; ++j)

             {

                 intid2 = id1 + j;

                 integral[id2] += integral[id2 -width];

                 ptsIntegral[id2] +=ptsIntegral[id2 - width];

             }

         }

         intwnd;

         double dWnd = 2;

         while (dWnd > 1)

         {

             wnd =int(dWnd);

             dWnd /=2;

             for (int i = 0; i < height; ++i)

             {

                 intid1 = i * width;

                 for (int j = 0; j < width; ++j)

                 {

                     intid2 = id1 + j;

                     int left = j - wnd - 1;

                     intright = j + wnd;

                     int top = i - wnd - 1;

                     intbot = i + wnd;

                     left = max(0, left);

                     right = min(right,width -1);

                     top = max(0, top);

                     bot = min(bot, height -1);

                     intdx = right - left;

                     intdy = (bot - top) * width;

                     intidLeftTop = top * width + left;

                     intidRightTop = idLeftTop + dx;

                     intidLeftBot = idLeftTop + dy;

                     intidRightBot = idLeftBot + dx;

                     intptsCnt = ptsIntegral[idRightBot] + ptsIntegral[idLeftTop] -(ptsIntegral[idLeftBot] + ptsIntegral[idRightTop]);

                     doublesumGray = integral[idRightBot] +integral[idLeftTop] - (integral[idLeftBot] + integral[idRightTop]);

                     if (ptsCnt <= 0)

                     {

                         continue;

                     }

                     data[id2] =float(sumGray / ptsCnt);

                  }

             }

             int s = wnd / 2 * 2 + 1;

             if (s > 201)

             {

                 s =201;

             }

             cv::GaussianBlur(depth, depth,cv::Size(s, s), s, s);

         }

     }

    相关文章

      网友评论

          本文标题:2019-01-16

          本文链接:https://www.haomeiwen.com/subject/uyamdqtx.html