欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于自適應(yīng)稀疏表示的多聚焦圖像融合方法

文檔序號(hào):6550962閱讀:680來(lái)源:國(guó)知局
基于自適應(yīng)稀疏表示的多聚焦圖像融合方法
【專利摘要】本發(fā)明公開了一種基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,根據(jù)原始圖像中結(jié)構(gòu)特征的不同將子塊進(jìn)行分類,使原始圖像分為相同模型、平滑模型和細(xì)節(jié)模型。然后將相同模型直接放入融合結(jié)果圖像中,對(duì)平滑模型和細(xì)節(jié)模型分別采用算術(shù)平均法和稀疏表示法進(jìn)行圖像塊融合。本發(fā)明的有優(yōu)點(diǎn)是能夠分割出平滑模型和細(xì)節(jié)模型,減少稀疏編碼的圖像塊數(shù),從而在確保融合圖像主觀效果和客觀性能指標(biāo)均優(yōu)的基礎(chǔ)上,縮短了運(yùn)算時(shí)間。
【專利說(shuō)明】基于自適應(yīng)稀疏表示的多聚焦圖像融合方法

【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于數(shù)字圖像處理【技術(shù)領(lǐng)域】,具體是一種基于自適應(yīng)稀疏表示的多聚焦圖像融合方法。

【背景技術(shù)】
[0002]多聚焦圖像融合作為圖像融合的一個(gè)重要分支,正日益廣泛地應(yīng)用于機(jī)器視覺(jué)、目標(biāo)識(shí)別、數(shù)碼相機(jī)等領(lǐng)域。在實(shí)際應(yīng)用中,一些光學(xué)鏡頭往往不能使得同一場(chǎng)景的多個(gè)目標(biāo)都在同一聚焦區(qū)域,因此需要將多幅圖像中的清晰模型結(jié)合起來(lái),生成一幅所有目標(biāo)都清晰的圖像,以滿足對(duì)圖像更深層次應(yīng)用的需要。多聚焦圖像融合正是解決這一問(wèn)題的有效途徑。
[0003]多聚焦融合圖像擁有大量的冗余信息,能夠更加清晰地描述出一幅場(chǎng)景。傳統(tǒng)的融合方法包括小波變換、輪廓波變換等,但是在變換與反變換的過(guò)程中可能發(fā)生圖像信息的丟失,從而影響最終的融合效果。目前,稀疏表示作為一種有效的表示模型廣泛應(yīng)用于圖像領(lǐng)域。B.Yang 等在 “B.Yang, and S.Li, “Multifocus image fusion andrestoration with sparse representation, ”IEEE Transactions on Instrumentationand Measurement, 2010, 59(4):884-892.”提出了一種基于過(guò)完備稀疏表示的圖像融合算法,融合效果較好,但DCT字典的適應(yīng)性不強(qiáng),運(yùn)算復(fù)雜度高;N.Yu等在“N.Yu, T.Qiu,F.Bi, and A.Wang, “Image Features Extraction and Fusion Based on Joint SparseRepresentation,,,IEEE Journal of Selected Topics in Signal Processing,2011,5(5):1074-1082.”采用K-SVD方法對(duì)選取的圖像庫(kù)進(jìn)行訓(xùn)練得到適應(yīng)性強(qiáng)的過(guò)完備字典,并利用稀疏系數(shù)中非零元素所對(duì)應(yīng)的基向量作為圖像特征,分離相同特征和相異特征分別進(jìn)行融合,克服了融合圖像中相異特征清晰度下降問(wèn)題。但是稀疏表示圖像融合算法需要對(duì)每個(gè)圖像塊進(jìn)行稀疏表示,其復(fù)雜度高的問(wèn)題,依然沒(méi)有得到較好解決。


【發(fā)明內(nèi)容】

[0004]本發(fā)明的目的在于克服上述現(xiàn)有的稀疏表示圖像融合技術(shù)運(yùn)算復(fù)雜度高的缺點(diǎn),提出了一種基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,以提高稀疏表示算法融合圖像的效率。
[0005]為實(shí)現(xiàn)上述目的,本發(fā)明在自適應(yīng)稀疏表示的框架下實(shí)現(xiàn)多聚焦圖像融合,其技術(shù)方案是根據(jù)圖像的結(jié)構(gòu)特征將子塊分為相似模型、平滑模型和細(xì)節(jié)模型。然后對(duì)三種模型采取不同的處理,相似模型直接放入融合圖像,平滑模型和細(xì)節(jié)模型分別采用加權(quán)平均法和稀疏表示法進(jìn)行融合,從而減少了稀疏編碼的圖像塊數(shù),以提高融合效率。
[0006]本發(fā)明一種基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,包括如下步驟:
[0007]1、利用成像設(shè)備獲得焦距不同的待融合自然圖像。
[0008]2、對(duì)源圖像預(yù)處理
[0009]將獲取的配準(zhǔn)待融合圖像歸一化,再按照一定大小進(jìn)行滑動(dòng)分塊處理。
[0010]3、圖像塊分類處理
[0011]先將待融合圖像子塊劃分為相似塊和異同塊,將步驟2獲得的所有對(duì)應(yīng)位圖像子塊進(jìn)行像素值對(duì)比,區(qū)分相似塊和異同塊,相似塊屬于相似模型;
[0012]再將待融合圖像的異同塊進(jìn)一步劃分,將獲得的異同塊計(jì)算出各塊的梯度值,若塊的梯度都小于等于閾值μ,屬于源圖像的平滑模型,反之屬于細(xì)節(jié)模型。
[0013]4、訓(xùn)練K-SVD過(guò)完備字典
[0014]選擇一些信息豐富的自然圖像,利用K-SVD (Aharon M, Elad M, BrucksteinA.K-SVD:An algorithm for designing overcomplete dict1naries for sparserepresentat1n[J].1EEE Transact1n on Signal Processing, 2006, 54(11):4311-4322)的方法對(duì)這些自然圖像進(jìn)行字典學(xué)習(xí),獲得過(guò)完備字典。
[0015]5、利用正交匹配追蹤算法(Rosenblum K, Zelnik-Manor L, Eldar Y.Dict1naryOptimizat1n for Block-Sparse Representat1ns [J].Signal Processing,IEEETransact1ns on, 2012, 60(5):2386-2395)分別求解利用步驟3獲得的各源圖像細(xì)節(jié)模型在K-SVD過(guò)完備字典下的稀疏系數(shù)。
[0016]6、將步驟3獲得的相似模型直接放入融合結(jié)果圖的對(duì)應(yīng)位。
[0017]7、將步驟3獲得的平滑模型利用算術(shù)加權(quán)平均法進(jìn)行融合。
[0018]8、利用步驟5獲得的源圖像的細(xì)節(jié)模型、稀疏系數(shù)以及稀疏度和絕對(duì)值組合,取大的融合規(guī)則獲得細(xì)節(jié)模型的融合稀疏系數(shù)。
[0019]9、重構(gòu)細(xì)節(jié)模型
[0020]利用步驟8獲得的融合稀疏系數(shù)與K-SVD過(guò)完備字典相乘,得到列向量化的細(xì)節(jié)模型融合圖像。
[0021]10、重構(gòu)融合圖像
[0022]將列向量化的三種模型融合圖像轉(zhuǎn)化為圖像塊,疊加到對(duì)應(yīng)位置,再除以每個(gè)位置像素值疊加的次數(shù),最終獲得融合結(jié)果圖像。
[0023]本發(fā)明的有益效果是:
[0024]1、本發(fā)明將稀疏表示引入多聚焦圖像融合領(lǐng)域,克服了傳統(tǒng)技術(shù)在變換過(guò)程中信息丟失的情況,使得本發(fā)明擁有更良好的融合效果。
[0025]2、本發(fā)明根據(jù)圖像特征對(duì)圖像塊進(jìn)行分類處理,克服了稀疏表示算法運(yùn)算復(fù)雜度高的問(wèn)題,本發(fā)明的融合效率比傳統(tǒng)稀疏表示算法明顯提高,使得稀疏表示算法可以更好地應(yīng)用到實(shí)際的圖像融合中。

【專利附圖】

【附圖說(shuō)明】
[0026]圖1是本發(fā)明基于自適應(yīng)稀疏表示的多聚焦圖像融合方法的流程圖。
[0027]圖2是本發(fā)明基于自適應(yīng)稀疏表示的多聚焦圖像融合方法的仿真圖;圖2(幻和圖2(b)是一組待融合圖像,2(a)為聚焦在左邊的源圖像,2(b)為聚焦在右邊的源圖像;圖2(c)?(e)分別為傳統(tǒng)的小波變換法、輪廓波變換法和稀疏表示算法;圖2(f)為采用本發(fā)明對(duì)圖2(a)和2(b)待融合圖像進(jìn)行融合后獲得的多聚焦圖像。

【具體實(shí)施方式】
[0028]以下結(jié)合附圖和實(shí)施例對(duì)本發(fā)明作詳細(xì)說(shuō)明:本實(shí)施例在以本發(fā)明技術(shù)方案為前提下進(jìn)行實(shí)施的例子,給出了詳細(xì)的實(shí)施方式和過(guò)程,但本發(fā)明的保護(hù)范圍不應(yīng)限于下述的實(shí)施例。
[0029]實(shí)施例
[0030]參照?qǐng)D1,本發(fā)明一種基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,包括如下步驟:
[0031 ] 1、利用成像設(shè)備獲得焦距不同的待融合自然圖像
[0032]本發(fā)明實(shí)施例中待融合的多焦距自然圖像大小為256X256,灰度范圍是O~255。
[0033]2、對(duì)源圖像預(yù)處理
[0034]將配準(zhǔn)的待融合圖像進(jìn)行歸一化,再采用具有位移不變特性的滑動(dòng)窗口技術(shù)對(duì)源圖像進(jìn)行分塊,步長(zhǎng)取I。假設(shè)源圖像大小為NXM,選取nXn大小對(duì)源圖像A,B分塊各得到(Ν+η-1) X (Μ+η-1)個(gè)圖像子塊。
[0035]3、圖像塊分類處理
[0036]按照待融合圖像的結(jié)構(gòu)特性,對(duì)圖像子塊進(jìn)行分類。圖像f可分為相似模型f;、平滑模型f。和細(xì)節(jié)模型fd,即
[0037]f = fe+fc+fd (I)
[0038]先將步驟2獲得的圖像子塊劃分為相似塊和異同塊。對(duì)比各源圖像對(duì)應(yīng)位置圖像子塊的像素值,如果相應(yīng)子塊的每個(gè)像素點(diǎn)都相等,該子塊屬于相似模型;反之為異同塊,進(jìn)行下一步區(qū)分。
[0039]再將待融合圖像的異同塊進(jìn)一步劃分。不同子塊之間包含邊緣和紋理越多的圖像塊,信息更豐富,體現(xiàn)的細(xì)節(jié)更清晰,屬于細(xì)節(jié)模型。相反包含信息量較少的子塊,屬于平滑模型。本發(fā)明選擇梯度作為圖像塊進(jìn)一步分類的判斷準(zhǔn)則。圖像的梯度G(x,y)定義為式
(2)所示:

【權(quán)利要求】
1.一種基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,其特征在于,包括下列步驟: (1)利用成像設(shè)備獲得焦距不同的待融合自然圖像; (2)對(duì)源圖像預(yù)處理 將獲取的配準(zhǔn)待融合圖像歸一化,再按照一定大小進(jìn)行滑動(dòng)分塊處理; (3)圖像塊分類處理 將步驟(2)獲得的所有對(duì)應(yīng)位圖像子塊進(jìn)行像素值對(duì)比,區(qū)分相似塊和異同塊,相似塊屬于相似模型,再計(jì)算各異同塊的梯度值,若都小于等于閾值μ,屬于源圖像的平滑模型,反之屬于細(xì)節(jié)模型; (4)訓(xùn)練K-SVD過(guò)完備字典 選擇一些信息豐富的自然圖像,利用K-SVD的方法對(duì)這些自然圖像進(jìn)行字典學(xué)習(xí),獲得過(guò)完備字典; (5)利用正交匹配追蹤算法分別求解利用步驟(3)獲得的各源圖像細(xì)節(jié)模型在K-SVD過(guò)完備子典下的稀疏系數(shù); (6)將步驟(3)獲得的相似模型直接放入融合結(jié)果圖的對(duì)應(yīng)位; (7)將步驟(3)獲得 的平滑模型利用算術(shù)加權(quán)平均法進(jìn)行融合; (8)利用步驟(5)獲得的源圖像的細(xì)節(jié)模型稀疏系數(shù)、以及稀疏度和絕對(duì)值組合,取大的融合規(guī)則獲得細(xì)節(jié)模型的融合稀疏系數(shù); (9)重構(gòu)細(xì)節(jié)模型 將步驟(8)獲得的稀疏系數(shù)與K-SVD過(guò)完備字典相乘,得到列向量化的細(xì)節(jié)模型融合圖像; (10)重構(gòu)融合圖像 將列向量化的三種模型融合圖像轉(zhuǎn)化為圖像塊,疊加到對(duì)應(yīng)位置,再除以每個(gè)位置像素值疊加的次數(shù),最終獲得融合結(jié)果圖像。
2.根據(jù)權(quán)利要求1所述的基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,其特征在于:步驟(3)所述的圖像塊分類處理的具體步驟如下: 先將待融合圖像子塊劃分為相似塊和異同塊,對(duì)比各源圖像對(duì)應(yīng)位置圖像子塊的像素值,如果相應(yīng)子塊的每個(gè)像素點(diǎn)都相等,該子塊屬于相似模型f;;反之為異同塊,進(jìn)行下一步區(qū)分; 再將待融合圖像的異同塊進(jìn)一步劃分,選擇梯度作為圖像塊進(jìn)一步分類的判斷準(zhǔn)則,圖像的梯度G(x,y)定義為式⑴所示:2⑴ 其中,M,N是分塊的大小,f(x,y)是子塊中(x,y)處的像素值,梯度值G越大,代表圖像塊的信息量越大,相反,圖像塊的信息量越少; 根據(jù)梯度定義公式計(jì)算出每個(gè)異同子塊的梯度值G,設(shè)定閾值μ,若對(duì)應(yīng)位置子塊的梯度值都小于等于μ,屬于平滑模型f。;否則子塊屬于細(xì)節(jié)模型fd。
3.根據(jù)權(quán)利要求1所述的基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,其特征在于:步驟(4)所述的訓(xùn)練K-SVD過(guò)完備字典的具體步驟如下:選擇一組信息豐富的自然圖像,再在這些自然圖像上以塊的方式隨機(jī)提取大小為NXN大小的樣本塊并列向量化,提取的樣本表示為X,則對(duì)應(yīng)的過(guò)完備字典表示為D可以通過(guò)下列目標(biāo)方程得到:
4.根據(jù)權(quán)利要求1所述的基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,其特征在于:步驟(5)所述的利用正交匹配追蹤算法求解源圖像細(xì)節(jié)模型在K-SVD過(guò)完備字典下的稀疏系數(shù)的具體步驟如下: 用大小為
的窗口從左至右,從上至下遍歷各個(gè)待融合的多聚焦圖像,并將每個(gè)圖像塊轉(zhuǎn)換為長(zhǎng)度為η的列向量,表示為
,其中N為單幅圖像中圖像塊的數(shù)目; 對(duì)于
利用過(guò)完備字典D及OMP算法進(jìn)行稀疏表示系數(shù)的求解,即可獲得相應(yīng)的待融合多聚焦圖像稀疏表示系數(shù)^^和αΒ:.Α 2
5.根據(jù)權(quán)利要求1所述的基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,其特征在于:步驟(7)所述的平滑模型利用算術(shù)加權(quán)平均法進(jìn)行融合的具體步驟如下: 平滑模型f。的加權(quán)平均融合可表示為
其中權(quán)系數(shù)選取Co1 = ω2 = 0.5,平滑模型的融合圖像放入融合圖像的對(duì)應(yīng)位。
6.根據(jù)權(quán)利要求1所述的基于自適應(yīng)稀疏表示的多聚焦圖像融合方法,其特征在于:步驟(8)所述的利用細(xì)節(jié)模型稀疏系數(shù)以及稀疏度和絕對(duì)值組合取大的融合規(guī)則得到細(xì)節(jié)模型融合稀疏系數(shù)的具體步驟如下: 當(dāng)稀疏度一致時(shí),可用I1范數(shù)進(jìn)行系數(shù)選取,利用結(jié)合系數(shù)稀疏度和I1范數(shù)的融合規(guī)則求細(xì)節(jié)模型的融合稀疏系數(shù)aF,如式(6)所示
【文檔編號(hào)】G06T5/50GK104077761SQ201410293009
【公開日】2014年10月1日 申請(qǐng)日期:2014年6月26日 優(yōu)先權(quán)日:2014年6月26日
【發(fā)明者】陳利霞, 李子, 袁華, 莫建文, 張彤, 首照宇, 歐陽(yáng)寧, 趙暉, 林樂(lè)平, 王學(xué)文 申請(qǐng)人:桂林電子科技大學(xué)
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
梓潼县| 和顺县| 平江县| 镇宁| 瓮安县| 九寨沟县| 棋牌| 南雄市| 承德县| 临沭县| 右玉县| 福清市| 亚东县| 连山| 油尖旺区| 炉霍县| 阿荣旗| 洛扎县| 遂宁市| 临潭县| 元氏县| 古浪县| 松潘县| 靖宇县| 海原县| 南京市| 噶尔县| 安康市| 三门县| 合阳县| 广河县| 通城县| 突泉县| 哈巴河县| 琼结县| 廉江市| 洛隆县| 黔西县| 河津市| 饶河县| 监利县|