美文网首页
互信息测度

互信息测度

作者: 此间不留白 | 来源:发表于2020-10-06 21:32 被阅读0次

上海交通大学 医学图像处理技术

信息的测度

Hartley 用如下公式,定义了信息的测度:
H = n \log s
其中,n代表信息的长度,而s表示信息中每个信息种类可能值(概率)的数量。

Shannon 提出了基于Shannon 熵新的信息测度公式,如下所示:
H = \sum_{i}p_i \log \frac{1}{p_i}

  • Shannon 熵公式根据结果发生的概率对信息进行了权重处理
  • 事件发生的信息量与其概率成反比

用熵表示图像配准效果

用熵的概念表示图像的配准效果,熵在此处和灰度相关直方图一样,如下图所示,在二维平面上生成两幅图像的灰度相关直方图来判断图像的配准效果,如果图像配准效果好,灰度相关直方图的分布越集中,反之,越分散。


定义联合熵的公式如下所示:
H(A,B) = -\sum_{i,j}p(i,j) \log [p(i,j)]'

图像配准的效果越好,联合熵的值越小。

互信息的定义

两幅图像的互信息有三种常用的定义,如下:
(1)
I(A,B) = H(B)-H(B|A) = H(A) - H(A|B)
其中H(B|A) 表示A已知的情况下,B的信息测度。

(2)
I(A,B) = H(A)+H(B)-H(A,B)

  • 互信息测度的值越大,联合熵的值越小;
  • 使用互信息而不是联合熵的优势在于,互信息包括了单个输入的熵;
  • 在图像背景区域较低的情况下,图像的联合熵也会更小,所以使用互信息测度优于联合熵。

(3)
I(A,B) = \sum_{a.b}p(a,b) \log (\frac{p(a,b)}{p(a) p(b)})

  • 此定义与两个分布之间的Kullback-Leibler距离有关;
  • 此公式定义了两个分布之间的依赖性;
  • I(A,B)的值越大,则图像的配准效果越好;
  • 在特征选择中,将该值最小化,以确保两个特征不相关。

归一化互信息的定义

  • 归一化互信息的定义如下:
    NMI(A,B) = \frac{H(A)+H(B)}{H(A,B)}
  • 熵相关系数
    ECC(A,B) = 2- \frac{2}{NMI(A,B)}

互信息的性质

互信息具有如下几个性质:

  • A,B的互信息等于B,A的互信息,即I(A,B) = I(B,A)
  • I(A,A) = H(A),即一幅图像本身的互信息等于该图像的熵;
  • 两幅图像之间的互信息小于其本身的熵,即I(A,B) \le H(A),I(A,B) \le H(B)
  • I(A,B) \ge 0,B已知的情况下,无法增加A的不确定性;
  • I(A,B) = 0,说明两幅图像完全无关;
  • 如果A,B是高斯分布,其互信息可以用如下公式表达:
    I(A,B) = - \frac{1}{2} \log (1- \rho)^2

互信息在图像配准过程中的应用

结合以上所学,总结出利用互信息进行图像配准的一些方法框架,如下图所示,描述了图像配准中一些主流的测度方法,转换方法和优化的算法:


利用互信息的图像配准流程

下图表述了利用互信息实现图像配准的基本流程,首先通过对输入图像进行预处理,再通过初始的概率密度预估,通过互信息测度评估图像配准的结果,并通过最优化算法加速这一过程,再利用图像配准中的一些转换方法重新调整图像,并不断迭代此过程,直到达到最优的配准结果。


概率密度预估一般是通过计算两幅图像的联合熵实现的,但是,也有通过Parzen Winodow方法实现的概率密度估计,通过采样点S_x,S_y的加权和实现,加权是通过高斯窗实现的,如下公式所示:
p(x,y,S_x,S_y) = \frac{1}{N} \sum_{s} W (Dist(x,y:S_x,S_y))

互信息测度在图像配准中的应用

如下图所示,如果两幅配准后的能够完全重合在一起,其图像的互信息测度较大,且互信息测度等于该图像的熵,且联合熵的分布是一条对角斜线,所有点都集中地分布在该斜线上。


如下图,若对其中一幅图像中的人物稍加移动,互信息测度变小,联合熵变大,且联合熵的分布在直线上会略加散乱。



再如下图所示,若对图像中的目标移动更大的幅度,则互信息测度更小,联合熵更大,且联合熵的分布有了更多的散落点分布在对角线两侧。


相关文章

  • 互信息测度

    上海交通大学 医学图像处理技术[https://www.bilibili.com/video/BV1iW411G7...

  • 基于互信息和左右信息熵的短语提取

    1 互信息和信息熵的概念2 算法流程3 代码实现 1 互信息和信息熵的概念 1.1 互信息 互信息体现了两个变量之...

  • 测度与测度空间

    淡水鱼写于2020/2024 集函数:顾名思义,集合的函数,定义域是由集合构成的集合,值域是R。集函数是有限的:如...

  • Mahout距离测度

    1、欧式距离测度:也就是两点之间的直线距离 2、平方欧式距离测度:欧式距离的平方 3、曼哈顿距离测度:类似勾股定理...

  • 吴军信息论笔记|如何利用互信息解决问题

    1. 什么是互信息,互信息vs相关性的关系 吴军老师讲的概念本身不难,信息之间是有相关性的,互信息是度量相关性的尺...

  • 熵之道

    熵的定义如下: 互信息 = H(D) - H(D|A) 信息增益 = 经验熵 - 经验条件熵; 互信息和信息增益理...

  • 时光测度

    时光作用于万物,万物因而得以反身测度时光。 古人早就这么干了。一炷香一盏茶的工夫,说不出精确对应几分钟,可也能意会...

  • 游戏测度

    欲辨已忘言 连续的一个星期的测度 游戏确实恨快乐,不过是蒙昧被掌控和设计的快乐 初心只是小姐姐找哥哥的角色体验,但...

  • 时空质的外延部份涉及到其数值测度问题

    第2点 测量关系 时空质的外延部份涉及到其数值测度问题,其测度数值都是相对于参照系的,而且都只能够是近似值。测度时...

  • 互信息——事件相关性度量

    延续上一次对熵的理解,今天来看看互信息。先说概念:互信息(Mutual Information)也叫转移信息(tr...

网友评论

      本文标题:互信息测度

      本文链接:https://www.haomeiwen.com/subject/bbotpktx.html