18年ECCV的文章,中科大做图像处理的组,这篇文章指出目前存在的图像去噪的方法主要有两种:(a) 基于图像内部自相关性的方法,如BM3D;(b) 基于外部样本学习的方法,如DnCNN,但是这两种效果都可以再提升,所以将Boosting用到图像去噪里。整个文章的思路就如下式:

其中,G( )表示某种降噪模型。上式将第n次恢复的图像x(n)与原始带噪声的图像y相加,得到增强的信号作为第n+1次恢复的输入。为了约束各像素的数值,使boosting操作可迭代进行,上式将G( )所得的结果减去x(n),得到第n+1步的恢复图像x(n+1)。
把G函数里面展开为:

v是原始噪声图像中所含的噪声,u是第n次去噪后的图像中所含的噪声,那么理论上在有效的去噪模型下v >= u的,所以根据Cauchy-Schwarz不等式容易推导出y+xn的信噪比将大于原始输入信号y,这就完成了Boosting的操作。然后如何将这个Boosting结合到CNN中,作者进行了如下的网络设计:

其对应的过程如下式,同最上的公式相比,去除掉了最后的-xn的步骤,将迭代展开成端对端的过程,便于训练。

然后就是正经的网络结构了,D表示扩张卷积,后面的数字是卷积核大小。文章用了整整一章讲述了这四个模型分别是什么,但根据图应该就能看出来,从上到下依次加深复杂度,但是我还真没看出来下图和上面所说的Boosting有什么联系,这不就是res结构么,希望大神不吝赐教。

去噪的结果是比dncnn高了0.3,这点是值得肯定的,所以他的卷积和扩张卷积同步处理再结合的思想是可以借鉴的

�
网友评论