美文网首页
图像处理实战-文档扫描

图像处理实战-文档扫描

作者: YvanYan | 来源:发表于2020-06-22 17:06 被阅读0次

文档识别项目的主要工作是:识别出给定图片中的文档区域。.

完整代码:https://github.com/YvanYan/image_processing/tree/master/document


实现流程:
1.对输入图片进行边缘检测。
2.计算近似轮廓。
3.对文档区域进行透视变换。

1.对输入图片进行边缘检测。

image = cv2.imread('images/page.jpg')
image = resize(image, height=1000)
cv_show('image', image)

size_ratio = image.shape[0] / (TRANSFORM_HEIGHT * 1.0)
image_copy = image.copy()

image = resize(image, height=TRANSFORM_HEIGHT)
image_gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
image_gray = cv2.GaussianBlur(image_gray, (5, 5), 0)
image_edge = cv2.Canny(image_gray, 75, 200)
cv_show('image_edge', image_edge)
  • 首先对图形进行尺寸变化,在进行尺寸变化后,需要保留尺寸变化的比例(size_ratio),因为后面进行透视变化的时候需要根据此比例进行像素位置的变化。
  • 然后使用Canny算法进行轮廓检测。cv2.Canny()函数,第一个参数是输入图像,第二个和第三个参数是minVal和maxVal。

2.计算近似轮廓。

cnts = cv2.findContours(image_edge, cv2.RETR_LIST, cv2.CHAIN_APPROX_SIMPLE)[1]
cnts = sorted(cnts, key=cv2.contourArea, reverse=True)[:5]

for c in cnts:
    peri = cv2.arcLength(c, True)

    approx = cv2.approxPolyDP(c, 0.02 * peri, True)

    if len(approx) == 4:
        screenCnt = approx
        break

image_ = cv2.drawContours(image, [screenCnt], -1, (0, 255, 0), 2)
cv_show('image_', image)
  • 首先通过findContours找到经过Canny边缘检测后的图片中的所有轮廓。如果这里直接对原图片进行findContours,那么会选取整张图片。
  • 然后将轮廓根据图形面积进行排序,取面积最大的前五个。对前五个轮廓进行arcLength轮廓周长的计算。通过approxPolyDP对轮廓进行多边形逼近。approxPolyDP第一个参数表示轮廓点集;第二个参数表示从原始轮廓到近似轮廓的距离,越小越精确,越大形状越规矩;第三个参数若为True则为封闭图形。
  • 将多边形逼近得到的图形进行判断,若为四个点,则表示为矩形。即需要得到的结果。

3.对文档区域进行透视变换。

def order_points(pts):
    # 一共4个坐标点
    rect = np.zeros((4, 2), dtype="float32")

    # 按顺序找到对应坐标0123分别是 左上,右上,右下,左下
    # 计算左上,右下
    s = pts.sum(axis=1)
    rect[0] = pts[np.argmin(s)]
    rect[2] = pts[np.argmax(s)]

    # 计算右上和左下
    diff = np.diff(pts, axis=1)
    rect[1] = pts[np.argmin(diff)]
    rect[3] = pts[np.argmax(diff)]

    return rect


def four_point_transform(image, pts):
    # 获取输入坐标点
    rect = order_points(pts)
    (tl, tr, br, bl) = rect

    # 计算输入的w和h值
    widthA = np.sqrt(((br[0] - bl[0]) ** 2) + ((br[1] - bl[1]) ** 2))
    widthB = np.sqrt(((tr[0] - tl[0]) ** 2) + ((tr[1] - tl[1]) ** 2))
    maxWidth = max(int(widthA), int(widthB))

    heightA = np.sqrt(((tr[0] - br[0]) ** 2) + ((tr[1] - br[1]) ** 2))
    heightB = np.sqrt(((tl[0] - bl[0]) ** 2) + ((tl[1] - bl[1]) ** 2))
    maxHeight = max(int(heightA), int(heightB))

    # 变换后对应坐标位置
    dst = np.array([
        [0, 0],
        [maxWidth - 1, 0],
        [maxWidth - 1, maxHeight - 1],
        [0, maxHeight - 1]], dtype="float32")

    # 计算变换矩阵
    M = cv2.getPerspectiveTransform(rect, dst)
    warped = cv2.warpPerspective(image, M, (maxWidth, maxHeight))

    # 返回变换后结果
    return warped

# 透视变换
warped = four_point_transform(image_copy, screenCnt.reshape(4, 2) * size_ratio)
cv_show('warped', warped)
  • order_points来将得到的四个顶点信息,进行对应。通过(x,y)的和可以确定左上角和右下角的顶点坐标,通过(y-x)的值可以确定右上角的坐标。
  • four_point_transform来进行透视变换。首先计算宽度和高度,然后构建变换矩阵,最后将输入图片根据变换矩阵进行变换。 four_point_transform的参数信息:第一个参数为输入的图片;第二个参数为得到的最大矩形的顶点信息,这里就用到了前面保存下来的size_ratio,因为图片进行了resize操作,这里需要再根据size_ratio将像素点resize回去。

这样就得到了图片中的文档区域。

结果

image.png

相关文章

网友评论

      本文标题:图像处理实战-文档扫描

      本文链接:https://www.haomeiwen.com/subject/nptffktx.html