北京师范大学学报(自然科学版)
北京師範大學學報(自然科學版)
북경사범대학학보(자연과학판)
JOURNAL OF BEIJING NORMAL UNIVERSITY
2007年
1期
50-52
,共3页
立体图像%自组织神经网络%矢量量化%视差估计
立體圖像%自組織神經網絡%矢量量化%視差估計
입체도상%자조직신경망락%시량양화%시차고계
为了提高左图像的编码效率,提出了一种新的基于自组织神经网络的立体图像编码算法(SOM+VQ+DE),SOM-VQ+DE算法对右图像采用视差估计补偿技术(DE)编码,对左图像则使用基于自组织特征映射算(SOM)的矢量量化编码来取代传统的JPEG方法,矢量量化与视差估计的残差均使用DCT+霍夫曼进行编码.对立体测试图像Pentagon的实验表明,SOM+VQ+DE算法能够有效地提高左图像的压缩效率:1)在压缩比均为6.5.1时,SOM+VQ+DE算法的PsNR较JEPGqG+DE算法提高了2.42 dB;2)在PsNR均为30 dB时,SOM+VQ+DE算法的压缩比改善是JPEG+DE算法的1.8倍.
為瞭提高左圖像的編碼效率,提齣瞭一種新的基于自組織神經網絡的立體圖像編碼算法(SOM+VQ+DE),SOM-VQ+DE算法對右圖像採用視差估計補償技術(DE)編碼,對左圖像則使用基于自組織特徵映射算(SOM)的矢量量化編碼來取代傳統的JPEG方法,矢量量化與視差估計的殘差均使用DCT+霍伕曼進行編碼.對立體測試圖像Pentagon的實驗錶明,SOM+VQ+DE算法能夠有效地提高左圖像的壓縮效率:1)在壓縮比均為6.5.1時,SOM+VQ+DE算法的PsNR較JEPGqG+DE算法提高瞭2.42 dB;2)在PsNR均為30 dB時,SOM+VQ+DE算法的壓縮比改善是JPEG+DE算法的1.8倍.
위료제고좌도상적편마효솔,제출료일충신적기우자조직신경망락적입체도상편마산법(SOM+VQ+DE),SOM-VQ+DE산법대우도상채용시차고계보상기술(DE)편마,대좌도상칙사용기우자조직특정영사산(SOM)적시량양화편마래취대전통적JPEG방법,시량양화여시차고계적잔차균사용DCT+곽부만진행편마.대입체측시도상Pentagon적실험표명,SOM+VQ+DE산법능구유효지제고좌도상적압축효솔:1)재압축비균위6.5.1시,SOM+VQ+DE산법적PsNR교JEPGqG+DE산법제고료2.42 dB;2)재PsNR균위30 dB시,SOM+VQ+DE산법적압축비개선시JPEG+DE산법적1.8배.