欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于區(qū)域高斯加權(quán)的圖像匹配計(jì)算方法

文檔序號:6365110閱讀:475來源:國知局
專利名稱:一種基于區(qū)域高斯加權(quán)的圖像匹配計(jì)算方法
技術(shù)領(lǐng)域
本發(fā)明涉及一種模式識別特征提取方法,屬于模式識別技術(shù)領(lǐng)域。
背景技術(shù)
圖像匹配技術(shù)在很多領(lǐng)域都有廣泛的應(yīng)用,如圖像檢索,釣魚網(wǎng)站識別等。傳統(tǒng)的圖像匹配技術(shù)在匹配類似網(wǎng)頁圖片時(shí)有許多的局限性,主要是網(wǎng)頁圖像通常在結(jié)構(gòu)和紋理上具有某些相似性。在使用傳統(tǒng)的低層次的特征,如紋理和顏色進(jìn)行匹配時(shí),人眼感覺不相似的兩幅圖像很容易被計(jì)算機(jī)識別為相似度較高的圖像,而同一網(wǎng)頁圖像有時(shí)由于受到頁面flash的影響卻容易被判定為不相似的圖像。而高層次的語義特征在現(xiàn)有的技術(shù)上還不容易獲得,所以通過高層次的特征也不能很好的解決問題。通過觀察網(wǎng)頁這一類圖像的特點(diǎn)我們可以發(fā)現(xiàn),在人的思維模式特別關(guān)注的區(qū)域,如網(wǎng)頁的logo,頁面頂部布局等,往往這些區(qū)域也具有很強(qiáng)的判別性,即同一網(wǎng)站的往往很相似,不同網(wǎng)站的往往差別很大。

發(fā)明內(nèi)容
本發(fā)明的目的是為了解決現(xiàn)有的圖像匹配技術(shù)中存在的局限性問題,一種基于區(qū)域高斯加權(quán)的圖像匹配計(jì)算方法。通過提前訓(xùn)練,獲得圖像各個(gè)子區(qū)域的判別權(quán)重,然后統(tǒng)計(jì)每個(gè)子塊內(nèi)的LBP紋理直方圖和顏色直方圖,通過直方圖與權(quán)重的相乘累加得到最終的加權(quán)相似度。具體方法的實(shí)現(xiàn)如下第一步準(zhǔn)備訓(xùn)練樣本,對于每一個(gè)樣本圖像都要進(jìn)行樣本的歸一化,該歸一化的過程即相當(dāng)于把圖像當(dāng)作一個(gè)向量來計(jì)算它的模值,整幅圖像所有像素作為向量的元素,然后,每個(gè)象素點(diǎn)的灰度值除以該模值,從而得到歸一化以后的圖像,即為圖像準(zhǔn)備相似圖像作為正例,不相似圖像作為反例,對于選取的同一類圖像根據(jù)關(guān)鍵點(diǎn)做對齊處理,消除平移旋轉(zhuǎn)影響,對齊采取的策略是根據(jù)圖像中的特殊點(diǎn)進(jìn)行操作,網(wǎng)頁的圖像在頂端都有一些特定直線,采用hough變換來定位特定直線,利用這些直線作為參考進(jìn)行對齊處理,然后做背景差分,找出同一類圖像的不相似區(qū)域;第二步對于第一步選取的反例圖像,首先進(jìn)行歸一化,然后計(jì)算各幅圖像對應(yīng)子區(qū)域的之間的距離,通過累加獲得不同類圖像各個(gè)子塊之間的平均距離,通過sm分類器訓(xùn)練或K-means方法獲得距離的閾值,首先,隨機(jī)選取三個(gè)圖像子塊的特征作為聚類的初始中心,然后將其他圖像子塊按歐式距離聚類到這三個(gè)聚類中心上,然后根據(jù)聚類結(jié)果計(jì)算新的聚類中心,反復(fù)以上步驟,直到聚類中心前后兩次的偏移量小于給定閾值;將圖像區(qū)域分為類間相似區(qū)域,類間不相似區(qū)域和中間區(qū)域;第三步對于中間區(qū)域,權(quán)重為1,對于類間相似區(qū)域、類間不相似區(qū)域權(quán)重為其對應(yīng)的子塊特征的高斯函數(shù)值;
權(quán)利要求
1.一種基于區(qū)域高斯加權(quán)的圖像匹配計(jì)算方法,其特征在于如下步驟 第一步準(zhǔn)備訓(xùn)練樣本,對于每一個(gè)樣本圖像都要進(jìn)行樣本的歸一化,該歸一化的過程即相當(dāng)于把圖像當(dāng)作一個(gè)向量來計(jì)算它的模值,整幅圖像所有像素作為向量的元素,然后,每個(gè)象素點(diǎn)的灰度值除以該模值,從而得到歸一化以后的圖像,即為圖像準(zhǔn)備相似圖像作為正例,不相似圖像作為反例,對于選取的同一類圖像根據(jù)關(guān)鍵點(diǎn)做對齊處理,消除平移旋轉(zhuǎn)影響,對齊采取的策略是根據(jù)圖像中的特殊點(diǎn)進(jìn)行操作,網(wǎng)頁的圖像在頂端都有一些特定直線,采用hough變換來定位特定直線,利用這些直線作為參考進(jìn)行對齊處理,然后做背景差分,找出同一類圖像的不相似區(qū)域; 第二步對于第一步選取的反例圖像,首先進(jìn)行歸一化,然后計(jì)算各幅圖像對應(yīng)子區(qū)域的之間的距離,通過累加獲得不同類圖像各個(gè)子塊之間的平均距離,通過sm分類器訓(xùn)練或K-means方法獲得距離的閾值,首先,隨機(jī)選取三個(gè)圖像子塊的特征作為聚類的初始中心,然后將其他圖像子塊按歐式距離聚類到這三個(gè)聚類中心上,然后根據(jù)聚類結(jié)果計(jì)算新的聚類中心,反復(fù)以上步驟,直到聚類中心前后兩次的偏移量小于給定閾值;將圖像區(qū)域分為類間相似區(qū)域,類間不相似區(qū)域和中間區(qū)域; 第三步對于中間區(qū)域,權(quán)重為1,對于類間相似區(qū)域、類間不相似區(qū)域權(quán)重為其對應(yīng)的子塊特征的高斯函數(shù)值;
全文摘要
本發(fā)明提出了一種基于區(qū)域高斯加權(quán)的圖像匹配計(jì)算方法。通過提前訓(xùn)練,獲得圖像各個(gè)子區(qū)域的判別權(quán)重,然后統(tǒng)計(jì)每個(gè)子塊內(nèi)的LBP紋理直方圖和顏色直方圖,通過直方圖與權(quán)重的相乘累加得到最終的加權(quán)相似度。具體方法的實(shí)現(xiàn)如下第一步對同一類歸一化之后的圖像通過背景差分,找出同一類圖像的不相似區(qū)域;第二步對于不同類的歸一化之后的圖像,通過圖像子塊間的距離按閾值將圖像區(qū)域分為類間相似區(qū)域,類間不相似區(qū)域和中間區(qū)域;第三步,基于高斯函數(shù)計(jì)算圖像子塊的權(quán)重;第四步根據(jù)所求的區(qū)域權(quán)重,對區(qū)域內(nèi)的紋理直方圖和顏色直方圖進(jìn)行加權(quán)累加,并計(jì)算總體圖像的相似度。
文檔編號G06T7/00GK102663754SQ20121011362
公開日2012年9月12日 申請日期2012年4月17日 優(yōu)先權(quán)日2012年4月17日
發(fā)明者薄占濱 申請人:北京博研新創(chuàng)數(shù)碼科技有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1
电白县| 增城市| 南靖县| 庆城县| 昭平县| 二连浩特市| 桦川县| 贡嘎县| 呼和浩特市| 吉隆县| 宽甸| 宕昌县| 黄冈市| 年辖:市辖区| 墨竹工卡县| 峨眉山市| 红原县| 诸暨市| 高阳县| 广东省| 江阴市| 叶城县| 普安县| 道真| 卢龙县| 隆化县| 台中市| 岳普湖县| 拉孜县| 横峰县| 林甸县| 龙胜| 岳阳市| 长宁县| 长春市| 正安县| 都昌县| 即墨市| 寿宁县| 如东县| 栾川县|