基于多尺度几何分析的多传感器图像融合研究

基于多尺度几何分析的多传感器图像融合研究

论文摘要

图像融合就是把多个不同模式的图像传感器获得的同一场景的多幅图像,或同一传感器在不同时刻或不同方式下获得的多幅图像合成一幅包含输入图像相关信息的图像的过程。通过综合利用不同图像之间的互补信息和冗余信息,能够获得对该场景更为全面、准确的图像描述。目前,图像融合技术已广泛应用在军事、遥感、机器人、医学处理以及计算机视觉等领域中。由于具有良好的多尺度和时频局部特性,小波变换已被广泛应用于多传感器图像融合领域中。传统小波变换能够有效表示信号的点奇异性,但不能最优地表示图像结构中的直线和曲线奇异性;同时,采用小波变换对图像进行分析时,只能获得有限方向信息,不能精确描述图像边缘的方向。近年来,针对传统的小波变换的局限性,为了更好地检测、表示和处理图像等高维空间数据,先后出现了Ridgelet变换、Curvelet变换、Contourlet变换等多尺度几何分析(Multiscale Geometric Analysis, MGA)理论。相对于传统的小波变换,上述MGA工具不仅具有多尺度和时(空)频局部特性,还具有多方向和各向异性,能够有效捕捉图像中的高维奇异性,对图像进行稀疏表示,图像经MGA分解后能量更加集中,更利于跟踪图像中的几何特征。本文主要围绕第一代Curvelet变换、第二代Curvelet变换以及非下采样Contourlet变换等MGA工具,对多传感器图像融合技术进行深入、系统的研究。本文的主要研究工作及贡献如下:1、针对全色波段图像与多光谱图像的融合,提出了一种基于内容决策与第一代Curvelet变换的遥感图像融合算法,有效克服了传统的基于小波变换图像融合算法中空间质量较低的缺点,使得融合后的多光谱图像在有效减少光谱失真的同时显著提高了空间质量。2、针对IKONOS卫星全色波段与多光谱图像的融合,提出了一种基于成像系统物理特性的注入模型。在注入模型中融入了各波段成像传感器的相对光谱响应、地表物体对各波段的光谱反射率及各波段的辐射调整系数等因素,解决了采用其它传统注入模型的遥感图像融合算法中容易存在细节信息“过”注入或“抵消”的问题,使得融合后的多光谱图像在提高空间质量的同时,更好地保持了原始多光谱图像的光谱特性。3、结合第二代Curvelet变换,提出了一种基于局部区域标准方差和方向对比度的多聚焦图像融合算法。给出的基于局部区域标准方差的“选择”和“平均”相结合的低频子带系数选择方案,解决了“平均法”系数选择方案容易降低融合图像对比度的问题;根据人眼视觉具有方向和频率选择特性,充分利用Curvelet变换多尺度和多方向特性,在Curvelet域提出了方向对比度的概念,并应用于高频子带系数的组合,获得了良好的融合性能。4、结合非下采样Contourlet变换,提出了一种基于成像机理与方向信息的多聚焦图像融合算法。从多聚焦图像的成像机理出发,给出了离焦光学系统具有低通滤波特性,可以根据源图像中的高频细节信息判断图像相应区域的聚焦特性,为传统的多聚焦图像的聚焦度量因子提供了一定的理论依据。在此基础上,提出了一种新的聚焦度量因子—方向向量范数,并制定了基于方向向量范数和方向对比度的系数选择方案。实验结果表明该算法不仅能够有效提取源图像中的有用信息得到聚焦良好的图像,还对配准误差具有一定的鲁棒性,能够有效降低配准误差对融合性能的影响。5、针对红外与可见光图像的融合,提出了两种基于非下采样Contourlet变换的图像融合算法。一种是基于窗口的图像融合算法,并针对低频子带系数和各带通方向子带系数分别提出了基于红外图像与可见光图像物理特征的加权平均系数选择方案和基于区域能量匹配的系数选择方案。另一种是基于区域分割的图像融合算法,并针对目标区域和背景区域分别定义了不同的融合规则。尤其针对背景区域的融合,根据区域之间的结构相似度判断红外图像与可见光图像相应区域之间存在冲突信息或冗余信息,分别制定了基于区域方向信息熵和基于区域能量的融合规则。6、针对红外图像与彩色可见光图像的融合,提出了基于亮度-色调-饱和度(Intensity-Hue-Saturation, IHS)变换和第二代Curvelet变换以及基于lαβ彩色传递和非下采样Contourlet变换两种彩色图像融合算法。解决了红外图像与可见光图像的R、G、B通道单独进行融合的图像融合算法容易造成颜色失真的问题,能够使得融合后的彩色图像最大可能地保持可见光图像中的自然彩色信息。同时在基于lαβ彩色传递和非下采样Contourlet变换的图像融合算法中,根据噪声和图像几何特征在MGA域中的分布差异,提出了方向信息熵的概念,以区分噪声和有意义的图像特征,避免了将噪声误作为有用信息传输到融合图像中,提高了算法对噪声的鲁棒性。

论文目录

  • 摘要
  • Abstract
  • 第一章 绪论
  • 1.1 多传感器图像融合
  • 1.2 图像融合算法分类
  • 1.2.1 图像融合中的图像源
  • 1.2.2 图像融合层次
  • 1.2.3 像素级图像融合算法
  • 1.2.4 基于多尺度分解的图像融合算法
  • 1.2.5 需解决的关键问题
  • 1.3 图像的多尺度几何分析
  • 1.3.1 图像的稀疏表示与非线性逼近
  • 1.3.2 图像的多尺度几何分析
  • 1.4 论文的主要研究工作
  • 1.4.1 本文内容安排
  • 1.4.2 本文主要贡献
  • 第二章 第一代Curvelet 变换及其在图像融合中的应用
  • 2.1 引言
  • 2.2 第一代 Curvelet 变换
  • 2.2.1 连续Ridgelet 变换
  • 2.2.2 第一代Curvelet 变换及其数字实现算法
  • 2.3 多传感器图像融合
  • 2.3.1 基于Curvelet 变换多传感器图像融合算法
  • 2.3.2 融合实验
  • 2.4 全色波段图像与多光谱图像融合
  • 2.4.1 基于内容决策及Curvelet 变换的遥感图像融合算法
  • 2.4.2 融合实验
  • 2.5 小结
  • 第三章 第二代Curvelet 变换及其在图像融合中的应用
  • 3.1 引言
  • 3.2 第二代 Curvelet 变换
  • 3.2.1 连续Curvelet 变换
  • 3.2.2 离散Curvelet 变换
  • 3.3 多聚焦图像融合
  • 3.3.1 基于局部区域标准方差和方向对比度的图像融合算法
  • 3.3.2 融合实验
  • 3.4 红外与彩色可见光图像融合
  • 3.4.1 IHS 颜色空间
  • 3.4.2 基于IHS 颜色空间及Curvelet 变换的彩色图像融合算法
  • 3.4.3 融合实验
  • 3.5 全色波段图像与多光谱图像融合
  • 3.5.1 基于 Curvelet 变换的全色波段图像与多光谱图像融合算法
  • 3.5.2 融合实验
  • 3.6 小结
  • 第四章 非下采样 Contourlet 变换及其在图像融合中的应用
  • 4.1 引言
  • 4.2 非下采样Contourlet 变换
  • 4.2.1 非下采样Contourlet 变换
  • 4.2.2 非下采样 Contourlet 变换中滤波器组的设计
  • 4.3 不同图像分解和重构工具在图像融合中的性能比较
  • 4.4 基于窗口选择的红外与可见光图像融合
  • 4.4.1 基于物理特性和能量匹配的图像融合算法
  • 4.4.2 融合实验
  • 4.5 基于区域分割的红外图像与可见光图像融合
  • 4.5.1 基于区域分割和非下采样 Contourlet 变换图像融合算法
  • 4.5.2 融合实验
  • 4.6 小结
  • 第五章 基于成像机理与方向信息的多聚焦图像融合
  • 5.1 引言
  • 5.2 多聚焦图像成像机理
  • 5.3 基于方向信息的多聚焦图像融合算法
  • 5.4 融合实验
  • 5.5 小结
  • 第六章 基于彩色传递和熵信息的红外与可见光图像融合
  • 6.1 引言
  • 6.2 lαβ颜色空间
  • 6.3 基于彩色传递和熵信息的图像融合算法
  • 6.4 融合实验
  • 6.5 小结
  • 第七章 基于成像系统物理特性的全色波段图像与多光谱图像融合
  • 7.1 引言
  • 7.2 基于成像系统物理特性及非下采样 Contourlet 变换的遥感图像融合.
  • 7.2.1 全色波段图像细节信息的提取
  • 7.2.2 注入模型αk (m , n) 的定义
  • PCIS 图像融合算法'>7.2.3 NSCTPCIS 图像融合算法
  • 7.3 融合实验
  • 7.4 小结
  • 第八章 结论与展望
  • 8.1 论文的主要贡献及结论
  • 8.2 论文的不足及研究展望
  • 致谢
  • 参考文献
  • 作者攻读博士学位期间的研究成果
  • 学术论文
  • 参与的科研课题
  • 相关论文文献

    标签:;  ;  ;  ;  ;  

    基于多尺度几何分析的多传感器图像融合研究
    下载Doc文档

    猜你喜欢