基于互信息的学图像配准

上传人:M****1 文档编号:588328075 上传时间:2024-09-07 格式:PPT 页数:48 大小:795.02KB
返回 下载 相关 举报
基于互信息的学图像配准_第1页
第1页 / 共48页
基于互信息的学图像配准_第2页
第2页 / 共48页
基于互信息的学图像配准_第3页
第3页 / 共48页
基于互信息的学图像配准_第4页
第4页 / 共48页
基于互信息的学图像配准_第5页
第5页 / 共48页
点击查看更多>>
资源描述

《基于互信息的学图像配准》由会员分享,可在线阅读,更多相关《基于互信息的学图像配准(48页珍藏版)》请在金锄头文库上搜索。

1、基于互信息的医学图像配准许向阳华中科技大学医学图像信息研究中心讨论内容 互信息的概念 互信息的改进 搜索策略的优化1. 互信息的概念互信息是信息理论中的一个基本概念。1948年C. E. Shannon提出, A mathematical theory of communication,Bell System Technical Journal, vol. 27, pp. 379423/623656,1948.1995年Colligon和Viola首次用于医学图像配准。互信息用于描述两个系统间的统计相关性,或者一个系统中包含的另一个系统的信息的多少。对于来自同一对象的两幅图像,配准后,互信息应

2、为最大。互信息只是一种相似性测度基于互信息的配准方法仍然遵循一般的配准框架 Collignon A, et al, Automated multi-modality registration based on information theory, Information Processing in Medical Imaging, 1995,263-274Viola P, Wells WM, Alignment by Maximization of mutual information, International Conference on computer Vision, 1995, L

3、os Alamitos,CA: IEEE Computer Science Press,1995,1623.1. 互信息的概念熵 熵(entropy)是信息的测度。熵的概念来源于通讯理论。 Pi = 灰度值为i的像素点数 / 总像素点数 1. 互信息的概念熵可以有三种解释:当一个事件发生时,其给出的信息数量; 一个事件的结果的不确定性; 事件发生的概率分布。 Question: 熵大,说明什么问题? 熵小,又说明什么?1. 互信息的概念熵 Jumarie entropy 不适于多模态图像配准 Renyi entropy 在图像配准中很少使用1. 互信息的概念联合熵 联合熵H(A,B)是随机变量

4、A和B相关性的统计量。PAB(a,b)是联合概率分布函数。联合熵越小,说明什么问题?1. 互信息的概念Joint grey value histograms of an MR image with itself. The leftmost histogram shows the situation when the images are registered. Because the images are identical, all grey value correspondences lie on the diagonal. The three following are the resu

5、lting histograms when one MR image is rotated with respect to the other by angles of 2, 5 and 10 degrees respectively. Below the histograms are the corresponding joint entropy values.1. 互信息的概念 条件熵 1993年,Woods应用条件熵作为配准的测度,开发了PET-MT图像配准的软件AIR.1. 互信息的概念互信息第(1)种定义形式能够最好的解释“互信息” 。将熵作为不确定性度量的概念时,式(1)解释为“B

6、的不确定性减去当A已知时B的不确定性”。换句话说,互信息是当A给出时,B的不确定性的减少程度。若A能完全表达B,则互信息最大,即不确定性减少程度最大。 (1)1. 互信息的概念互信息(2)第(2)种定义形式最接近联合熵。式中的A、B不是指两幅完整的图像,而是分别代表两幅图像的重叠区域。互信息和联合熵都是在图像的重叠区域上计算的,因此,度量值取决于重叠区域的大小和重叠区的内容。1. 互信息的概念式(2)含有项H(A,B),表示最大互信息与最小联合熵有关。联合熵表明了两幅图的灰度值分布。在通常情况下,联合熵小,表明对齐的程度高。但是,采用两幅图像重叠区域的联合熵可能会出现两幅图像完全误配时,联合熵

7、最小的情况。如一幅图像例的一部分背景区域和另一幅图像的一部分背景区域重叠,其它部分不重叠时,联合熵最小。采用互信息可以避免这种情况,因为对只有部分背景对齐的情况,H(A)和H(B)很小,因而互信息很小。随着A、B重叠区域的增大,A、B中包含更多的信息,使得H(A)、H(B)增大。尽管联合熵也增大,但是互信息在增加,更好的反映了对齐的程度。互信息 VS 联合熵1. 互信息的概念互信息(3)第(3)种形式与Kullback-Leibler距离有关。测量了两幅图像灰度值的联合分布p(a,b)和在两幅图像相互独立的情况下的联合分布p(a)p(b)之间的距离。是两幅图像的依赖性的度量。其假设就是,在两幅

8、图像正确对齐的情况下,它们的灰度值之间的依赖最大。误配会导致度量值降低。 1. 互信息的概念圆代表了图像的边缘熵两圆合并区域为联合熵重叠部分为互信息1. 互信息的概念互信息的优点分割和特征提取方法中存在的问题在图像的获取和特征提取过程中会产生不同程度的噪声,使得提取到的特征点位置存在一定的误差,要使一幅图像中的特征点精确匹配另一幅图像中的特征点是很困难的;从两幅图像中提取到的图像特征点集数目是不等的,确定它们之间的对应关系较难; 一幅图像中的某些特征点在另一幅图像中没有相对应的特征点,即存在着出界点;特征点集之间的变换可能是刚性的,也可能是非刚性的。 互信息的性质非负性:I(A,B)=0。B的

9、不确定性不会因为对A的了解而增大。独立性:当PAB(a,b) = PA(a)PB(b)时,I(A,B)=0。若A和B是独立的,则不能从一幅图像中获得任何关于另一幅图像的信息。对称性:I(A,B) = I(B,A)自信息:I(A,A) = H(A)有界性:I(A,B) =min(H(A),H(B) I(A,B) = min (H(A), H(B) = (H(A) + H(B) / 2 = max (H(A), H(B) = H(A,B) f(t2) F(t3)f(t2)用(t1,f(t1), (t2,f(t2), (t3,f(t3) 插值极小点:t4.再由t1,t2,t4插值。选点原则:两头高,中间低Brent算法3.2 一维搜索方法Brent算法3.2 一维搜索方法

展开阅读全文
相关资源
正为您匹配相似的精品文档
相关搜索

最新文档


当前位置:首页 > 医学/心理学 > 基础医学

电脑版 |金锄头文库版权所有
经营许可证:蜀ICP备13022795号 | 川公网安备 51140202000112号