这篇文章是ECCV2018年的作品,一个去噪-去马赛克的级联作品,看这篇paper的原因是他的网络结构和我目前所用的RES基本一模一样。但这篇文章是来做去马赛克-去噪联合问题(但这一般去噪网络都可以完成这个)。
本文中,作者假设图像受到的高斯噪声都是独立同分布的,那么从噪声图像y中恢复出来x的过程就可以利用贝叶斯理论求最大后验概率:
上式可以等效为下式,其中第一项对应于上式的对数似然信息,第二项对应于上式的对数先验信息,因为最大的对数似然结果也就表示着让y和x无限接近,等价于下式第一项:
那么此时目标函数就可以表示为:
一般的网络求出了目标函数,然后投入到网络就可以训练了,但是这里作者认为此目标函数难以优化,所以采用majorization-minimization (MM)算法进行优化。
majorization-minimization (MM)算法本质上是针对难以优化的函数找到一个近似值,主要思路如下图所示,蓝色为难以优化的原函数J(x),红色为近似的网络Q(x),他们需要满足:1)Q(x)容易优化(要不然为什么要进行近似);2)Q(x)>=J(x),for all x;3)Q(xk)=J(xk)(意思是取得最值的点两个函数值要相等)
在本文中,作者找到了一个替代Q(x)的近似函数,令
近似为:
上式就需要满足:
文中所考虑的
如果用上述网络进行训练,那么就需要训练之前输入噪声水平,而且其中Φ(x)可以直接通过网络学习出来,也不需要增加额外的正则化器。所以最终网络需要优化的函数变为:
针对以上作者选用的网络如下图所示,相比于SRResNet网络他没有使用BN层,也没有解释原因,但理论上增加BN会提升实验结果的,训练的时候要将噪声水平和待回复的图像同时输进去:
看到这里就觉得文章花了很大篇幅讲的MM算法没什么意义啊,image2image的目标函数就是让恢复图像无限接近ground truth,直接让两种相等就是目标函数了啊,难以优化也是网络的事,毕竟神经网络是个黑箱子,能不能优化好也不确定呢。那MM的作用呢?为了把噪声水平引进?还是为了用Φ(x)自动训练?不太理解,作者在后面的实验上也没有对比不用MM的,我在思考如果不用MM就是普通的目标函数也不会有什么影响吧。
通过MM将原来的连续性求解变成了迭代的问题,用下属算法进行加速收敛:
展示一些实验结果,但是作者对比的baseline都是2016年的文章,效果也是一般,本文也没有很大的提升。
不考虑文章的创新点,只在实验结果上来说还有几个可以改进的地方:
1)网络增加BN层
2)作者的res-block只采用了5个,增加数量应该可以提升效果
现在还是不太懂这篇文章的贡献点何在,可能过段时间重新回来看会有其他感悟。
网友评论