Python OpenCV 365 天学习计划,与橡皮擦一起进入图像领域吧。本篇博客是这个系列的第 43 篇。
该系列文章导航参考:https://blog.csdn.net/hihell/category_10688961.html
基础知识铺垫
先补齐一下昨天文章发布出去的一个小坑,最后一段代码实现之后,发现运行之后图像边缘出现了很多锯齿。
20210217211831100[1].png疑惑的同时,肯定是代码有细节弄差了,复查代码的时候发现问题了,注意下述代码:
dst[dst_y, dst_x, n] = (1-u)*(1-v)*src[j, i, n]+u*(1-v) * src[j+1, i, n] + (1-u)*v*src[j, i+1, n] + u*v*src[j+1, i+1, n]
与公式比对,这个细致的活你可以自己比对一下。
f(i+u,j+v) = (1-u)(1-v)f(i,j) + (1-u)vf(i,j+1) + u(1-v)f(i+1,j) + uvf(i+1,j+1)
问题出在图像的行与列上,代码的 u*(1-v) * src[j+1, i, n] + (1-u)*v*src[j, i+1, n]
这个部分我写反了~尴尬
修改成下述代码,搞定,基本一模一样了。
dst[dst_y, dst_x, n] = (1-u)*(1-v)*src[j, i, n]+v*(1-u) * src[j+1, i, n] + (1-v)*u*src[j, i+1, n] + u*v*src[j+1, i+1, n]
20210217212140837[1].png
算法优化
下面说一下算法优化吧,咱还在 这篇博客 挖下了一个小坑,最近邻插值算法最终的结果不尽人意,图像在放大的时候出现了很强的锯齿。
先把之前的代码迁移过来,修改成如下格式:
import cv2 as cv
import numpy as np
def nearest_demo(src, multiple_y, multiple_x):
src_y, src_x, src_c = src.shape
tar_x, tar_y, tar_c = src_x*multiple_x, src_y*multiple_y, src_c
# 生成一个黑色的目标图像
tar_img = np.zeros((tar_y, tar_x, tar_c), dtype=np.uint8)
print(tar_img.shape)
# 渲染像素点的值
# 注意 y 是高度,x 是宽度
for y in range(tar_y-1):
for x in range(tar_x-1):
# 计算新坐标 (x,y) 坐标在源图中是哪个值
src_y = round(y*src_y/tar_y)
src_x = round(x*src_x/tar_x)
tar_img[y, x] = src[src_y, src_x]
return tar_img
src = cv.imread("./ttt.png")
print(src.shape)
cv.imshow("src", src)
# dsize = (cols,rows) 中文,(宽度,高度)
dst = cv.resize(src, (src.shape[1]*2, src.shape[0]
* 2), interpolation=cv.INTER_NEAREST)
cv.imshow("dst", dst)
new_dst = nearest_demo(src, 2, 2)
cv.imshow("new_dst", new_dst)
cv.waitKey(0)
cv.destroyAllWindows()
第一部分的优化是关于中心点的,这部分说真的,橡皮擦找了很多资料,发现都解释的不太清楚,基本就是到重点的地方就略过了,大意我在进行转述一遍,如果你有好的解释,欢迎在评论区提供给我,重点就是那 0.5 像素的问题。
上文代码如果想实现和 OpenCV 提供的内置函数一样的效果,重点修改的地方如下:
srcy = round(y*src_y/tar_y)
srcx = round(x*src_x/tar_x)
# 修改如下
srcy = round((y+0.5)*src_y/tar_y-0.5)
srcx = round((x+0.5)*src_x/tar_x-0.5)
就是在这个地方直接懵掉了,有的博客中写道 srcX=dstX* (srcWidth/dstWidth)+0.5*(srcWidth/dstWidth-1)
相当于我们在原始的浮点坐标上加上了0.5*(srcWidth/dstWidth-1)
?
但是这个地方没有其它解释了,有的博客会用两张图对比着说要源图像与目标图像的几何中心对齐,但是也只是画了两张图加上一些简单的文字描述,摘抄如下:
假设源图像是 3x3
,这个图像的中心点坐标为 (1,1)
,目标图像为 9x9
,中心点坐标是 (4,4)
,那中心点对齐就应该指的是 (4,4)
点对齐到 (1,1)
点,但是根据 srcx = round(x*src_x/tar_x)
与 srcy = round(y*src_y/tar_y)
公式计算,得到的中心点坐标是 (1.333,1.333)
并不是 (1,1)
,图像整体偏右下方,现在需要对齐。
那我们进行一下简单的推算。中心点对齐提前假设源图像不动,那最终应该是存在下列公式。
源图像 src
中心点坐标 ,目标图像 dst
中心点坐标
将上述值带入公式:
式子转换成
最后求得 K 的值为
所以 K 其实等于
对应到代码上,就变成了如下内容:
# 修改前
src_y = round(dst_y*src_height/tar_height)
src_x = round(dst_x*src_width/tar_width)
# 修改后
src_y = round(dst_y*src_height/tar_height+1/2*(src_height/tar_height-1))
src_x = round(dst_x*src_width/tar_width+1/2*(src_height/tar_height-1))
其实这时你在这里一下,就得到最终的结果了。
# 修改后
src_y = round((dst_y+0.5)*src_height/tar_height-0.5)
src_x = round((dst_x+0.5)*src_width/tar_width-0.5)
修改之后,运行感觉比系统内置的效果还出色一些了,哈哈哈。
20210218154827642[1].png相同的优化复制到双线性插值算法中,自己可以对比一下运行的效果。
关于运行速度,我也找了一些资料,奈何目前掌握的基础知识不够,目前先搁置一下吧,这个系列过 100 篇的时候,我们在聊。
橡皮擦的小节
真没有想到,一个 0.5 像素的小问题竟然这么费力。
希望今天的 1 个小时你有所收获,我们下篇博客见~
相关阅读
技术专栏
网友评论