美文网首页Artificial Intelligenceimage denoising
文章学习33“Universal Denoising Netwo

文章学习33“Universal Denoising Netwo

作者: Carrie_Hou | 来源:发表于2018-11-17 22:25 被阅读17次

    现在去噪的方向主要分为三类:一类是将去噪和高级图像任务结合起来,做multi-task;第二类是在噪声上下功夫,尽可能的模拟出真实的噪声,然后在此基础上进行去噪;第三类就是在高斯白噪声(AWGN)下的去噪工作。本文就是在AWGN下的去噪,作者说选择AWGN有两个原因,首先是噪声可以通过方差稳定变换转化到其他域,在这个域内满足AWGN的噪声分布,在此完成去噪之后再转化到原域;第二个原因是凸函数可以使用近端映射,为后文的近端梯度法做基础。

    不像之前的去噪网络的loss函数,本文的loss函数有两部分组成,数据项和正则化项:

    正则化项的通用公式是,势函数和正则化算子,正则化算子就是一阶二阶的微分算子,例如梯度;势函数的选择一般是lp vector norms和 Schatten matrix norms,因为这样和算子结合可以形成凸调节器,便于优化:

    同时当正则化项选择为非局部的时候,整个网络就会考虑图像的非局部自相似性,似的去噪结果大为提高。此时网络的目标函数就是:

    其中的λ会增大很多的工作量,所以将上式等价为受限优化问题,当ε大于0下式是成立的,但ε仍旧是一个需要设定的参数,但他和噪声水平是相关的,我们可以通过一些估计噪声水平的方法确认这个参数:

    近端梯度法:由于上式有无法求导的先验条件,所以采用近端梯度法将上式写成可微分部分和不可微分部分两项:

    其中第二项是针对原始目标函数的指示函数

    获得的,即:意思是当不在固定取值范围内时为正无穷,那肯定不是最优解,这样把范围限制在集合C。

    然后依据近端梯度法采取迭代的方式转化为下式:

    其中prox函数在集合C上的投影就是:

    假设正则化项的梯度计算为:

    那么t时刻的目标函数就是:

    对于第一次的迭代,0时刻的值就是y(输入的噪声图像),那么1时刻的输出就是:

    以此类推,k时刻的输出就是:

    以上这么多公式目的就是解决λ增大的工作量,但我觉得画蛇添足,用近端梯度法这么复杂的操作来替换一个参数的设定,我理解不了。

    文章为了将图像的非局部自相似性应用上,将正则化项转化为非局部处理,如下图所示,非局部处理部分包括三部分,卷积层用以特征提取,块匹配用以forms a 3-D group for every valid patch and it consists of the P most similar patches to the reference patch (including the reference patch itself)这里看不懂。。。第三部分一个协同过滤层,将全局信息映射到单个patch。这个非局部操作是没看懂。

    文章后面介绍了势函数的选择和算子投影的训练,实验结果如下,这个结果是很不错,也是因为这个结果看的这篇文章:

    这篇文章应该没有多少人会关注,因为理解起来真的很费劲,看了很多遍还是不知道作者在讲什么,有大佬看懂了的麻烦给讲讲啊

    相关文章

      网友评论

        本文标题:文章学习33“Universal Denoising Netwo

        本文链接:https://www.haomeiwen.com/subject/unzifqtx.html