西华大学学报(自然科学版)
西華大學學報(自然科學版)
서화대학학보(자연과학판)
JOURNAL OF XIHUA UNIVERSITY(NATURAL SCIENCE EDITION)
2014年
3期
11-15
,共5页
图像融合%非下采样Contourlet变换%脉冲耦合神经网络%连接强度%空间频率%改进的拉普拉斯能量和
圖像融閤%非下採樣Contourlet變換%脈遲耦閤神經網絡%連接彊度%空間頻率%改進的拉普拉斯能量和
도상융합%비하채양Contourlet변환%맥충우합신경망락%련접강도%공간빈솔%개진적랍보랍사능량화
image fusion%nonsubsampled Contourlet transform%pulse coupled neural networks%linking strength%spatial frequency%sum-modified-Laplacian
提出一种在图像的非下采样Contourlet变换(NSCT)域内基于脉冲耦合神经网络(PCNN)的融合方法.首先采用NSCT对严格配准的待融合图像进行多分辨率多方向分解,得到低频子带和高频方向子带;然后使用各子带系数的空间频率作为PCNN对应神经元的自适应连接强度系数,使用改进的拉普拉斯能量和作为PCNN每个神经元的外部激励,经过PCNN点火过程获得各子带对应的点火映射图,并通过判决选择算子确定融合图像的各子带系数;最后采用NSCT逆变换对低频子带系数和高频方向子带系数进行重构,得到融合图像.使用红外与可见光图像进行仿真实验的结果表明,本文方法优于基于小波变换、NSCT及传统NSCT与PCNN结合的图像融合方法.
提齣一種在圖像的非下採樣Contourlet變換(NSCT)域內基于脈遲耦閤神經網絡(PCNN)的融閤方法.首先採用NSCT對嚴格配準的待融閤圖像進行多分辨率多方嚮分解,得到低頻子帶和高頻方嚮子帶;然後使用各子帶繫數的空間頻率作為PCNN對應神經元的自適應連接彊度繫數,使用改進的拉普拉斯能量和作為PCNN每箇神經元的外部激勵,經過PCNN點火過程穫得各子帶對應的點火映射圖,併通過判決選擇算子確定融閤圖像的各子帶繫數;最後採用NSCT逆變換對低頻子帶繫數和高頻方嚮子帶繫數進行重構,得到融閤圖像.使用紅外與可見光圖像進行倣真實驗的結果錶明,本文方法優于基于小波變換、NSCT及傳統NSCT與PCNN結閤的圖像融閤方法.
제출일충재도상적비하채양Contourlet변환(NSCT)역내기우맥충우합신경망락(PCNN)적융합방법.수선채용NSCT대엄격배준적대융합도상진행다분변솔다방향분해,득도저빈자대화고빈방향자대;연후사용각자대계수적공간빈솔작위PCNN대응신경원적자괄응련접강도계수,사용개진적랍보랍사능량화작위PCNN매개신경원적외부격려,경과PCNN점화과정획득각자대대응적점화영사도,병통과판결선택산자학정융합도상적각자대계수;최후채용NSCT역변환대저빈자대계수화고빈방향자대계수진행중구,득도융합도상.사용홍외여가견광도상진행방진실험적결과표명,본문방법우우기우소파변환、NSCT급전통NSCT여PCNN결합적도상융합방법.