美文网首页
Total variation loss 全变分 总变分

Total variation loss 全变分 总变分

作者: Williamongh | 来源:发表于2019-08-09 14:27 被阅读0次

深度学习基础--loss与激活函数--Total variation loss

全变分在图像处理中最直接和最有效的应用为图像去噪和复原。Rudin等人(Rudin1990)观察到,受噪声污染的图像的总变分比无噪图像的总变分明显的大。总变分定义为梯度幅值的积分。限制总变分就会限制噪声。

用在图像上,total variation loss可以使图像变得平滑。信号处理中,总变差去噪,也称为总变差正则化,是最常用于数字图像处理的过程,其在噪声去除中具有应用。

它基于这样的原理:具有过多和可能是虚假细节的信号具有高的总变化,即,信号的绝对梯度的积分是高的。根据该原理,减小信号的总变化,使其与原始信号紧密匹配,去除不需要的细节,同时保留诸如边缘的重要细节。该概念由Rudin,Osher和Fatemi于1992年开创,因此被称为ROF模型。

这种噪声消除技术优于简单的技术,例如线性平滑或中值滤波,这些技术可以降低噪声,但同时可以更大或更小程度地消除边缘。相比之下,即使在低信噪比下,总变差去噪在同时保留边缘同时平滑掉平坦区域中的噪声方面也非常有效。

一些解释

首先是数学上的,实际上,在数学上更容易掌握的是L2图像模型。假设噪声(这里仅以去噪为例)为高斯噪声,则使用L2图像模型将导出33的模板卷积,相当于33模板的高斯低通滤波。这种卷积操作在数学上也称为磨光,也就是说,通过卷积得到的函数被磨光了——所谓光滑意味着无穷可微性。这实际上与自然图像有相当的距离,自然图像应该不是光滑的。BV模型正式为了解决这个问题。或者说,BV模型的产生不是为了光滑,而是为了解决过于光滑的问题——显然的,正如绝对值函数一样,它容许一些点的不可导性,或者说不光滑的点的存在。

BV模型使得图像是分段(片)光滑的,而不是无穷可微(光滑)的。正是由于不可导点的容许性,从而BV模型比L2图像模型更接近自然图像,比如对图像边的保持。回到Lp空间,BV模型一定程度上是L1图像模型。

相关文章

  • Total variation loss 全变分 总变分

    深度学习基础--loss与激活函数--Total variation loss 全变分在图像处理中最直接和最有效的...

  • 法律英语每日一词11-Loss(2)

    constructive total loss(保险法)推定全损 =constructive loss 1)Su...

  • 变分推断

    作者:知乎用户 链接:https://www.zhihu.com/question/41765860/answer...

  • 变分推断

    在github看到这个文章写的不错,就转载了,大家一起学习:https://github.com/keithyin...

  • 变分推理

    1. Notations

  • 变分Bayes

    $\log_\theta $$$a_1$

  • 变分推断

    变分推断(Variational Inference) 一文读懂贝叶斯推理问题:MCMC方法和变分推断

  • 变分原理

    变分是求取泛函极值的方法,泛函就是以函数为自变量,实数或者复数为函数值的特殊的函数。泛函在描述自然中应用极广,比如...

  • 经典变分

    也就是最小作用量原理,寻求函数,满足,其实就是一个作用量泛函的变分。 得到的结果就是欧拉-拉格朗日方程,,这个公式...

  • 8分变5分

    我给闪闪建议,写完作业,每天做几道政治或者历史,这样可以提分。他却说,要做数学,原因是他说他的数学也不好了,由8分...

网友评论

      本文标题:Total variation loss 全变分 总变分

      本文链接:https://www.haomeiwen.com/subject/leqhjctx.html