欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于形態(tài)成分分析與自適應(yīng)字典學(xué)習(xí)的場景圖像文字檢測的方法與流程

文檔序號:11951827閱讀:308來源:國知局
一種基于形態(tài)成分分析與自適應(yīng)字典學(xué)習(xí)的場景圖像文字檢測的方法與流程
本發(fā)明涉及一種基于形態(tài)成分分析與自適應(yīng)字典學(xué)習(xí)的場景圖像文字檢測的方法,屬于數(shù)字圖像處理
技術(shù)領(lǐng)域

背景技術(shù)
:進入21世紀以來,互聯(lián)網(wǎng)行業(yè)飛速發(fā)展,加之近幾年智能手機的蓬勃發(fā)展,在PC端與移動終端的數(shù)字信息正在飛快的增長。數(shù)字圖像和視頻正是當(dāng)今數(shù)字世界的主要元素之一,數(shù)字圖像和視頻中往往包含大量的文本區(qū)域,而這些文本信息正是理解該圖像和視頻含義的重要線索。如何從復(fù)雜的自然場景圖像中提取出文本信息,對圖像理解、圖像檢索都將有著非同尋常的意義,因此場景圖像中的文本定位技術(shù)的研究吸引了眾多海內(nèi)外學(xué)者的研究。場景圖像的文本定位算法是指,通過信息處理技術(shù)自動標記出圖像中的文本區(qū)域,為后續(xù)的文字識別奠定基礎(chǔ)。場景圖像中的非文本區(qū)域可能是任何隨機的場景,文本區(qū)域可能是嵌入在背景中的,也有可能成為背景紋理的一部分,甚至文本被背景部分遮擋等等,這些問題是文本定位的主要難題,也是場景圖像文定位算法面臨的核心問題。國內(nèi)外的研究者們提出了不同的算法來解決這些問題并在該領(lǐng)域取得了豐富的研究成果,使得文本定位在許多領(lǐng)域中得到了廣泛的應(yīng)用,例如在圖像檢索/分類、不良信息的過濾、車牌識別等技術(shù)方面的應(yīng)用??偨Y(jié)目前研究人員的工作,圖像和視頻文字檢測方法主要分為基于邊緣特征的方法、基于連通區(qū)域的方法、基于紋理特征的方法、基于機器學(xué)習(xí)的方法和一些綜合上述幾種的混合方法?;谶吘壧卣鞯姆椒ㄖ饕抢梦谋矩S富的邊緣信息進行文本區(qū)域的檢測,該類方法通常先使用一些邊緣檢測算子,如梯度算子、Sobel算子、Canny算子等。基于邊緣特征的方法優(yōu)點很明顯:速度很快。但是其缺點也很明顯:當(dāng)背景含有豐富的強邊緣信息時,該類方法容易混淆背景的邊緣和文字的邊緣,降低檢測的準確率?;谶B通區(qū)域的方法是利用圖像中的文字和背景通常具有較強的顏色對比,且大多數(shù)圖像中的文本自身顏色具有一致性來實現(xiàn)文字檢測的?;谶B通區(qū)域的方法首先利用字符顏色一致性與背景具有較大對比度來分割圖像,然后對分割后的圖像進行連通域的分析,得到候選連通分量,再利用文字區(qū)域的幾何特征對每個連通分量進行處理,最終形成文本區(qū)域。這種方法的優(yōu)點是計算速度快,缺點是對于背景中含有與文本相同顏色通道的圖像的誤檢率很高?;诩y理的方法通常把文本看成一種特殊的紋理,采用Gabor變換,小波變換和傅里葉變換等方法檢測圖像的紋理特征,然后根據(jù)訓(xùn)練的文字紋理特征檢測圖像的文字區(qū)域?;诩y理的方法優(yōu)點是檢測準確率高,缺點是計算量大,耗時長。機器學(xué)習(xí)的方法在處理不同文字的大小,顏色,及復(fù)雜背景方面取得了成功,可以使用機器學(xué)習(xí)的理論與傳統(tǒng)的方法相結(jié)合的方法來實現(xiàn)場景圖片文本區(qū)域檢測。例如利用支持向量機SVM的方法訓(xùn)練文字的紋理筆畫特征,用Gabor濾波器提取文字特征,用Adaboost對候選塊進行分類,得到文本區(qū)域。技術(shù)實現(xiàn)要素:本發(fā)明要解決的技術(shù)問題是提供一種基于形態(tài)成分分析與自適應(yīng)字典學(xué)習(xí)的場景圖像文字檢測的方法,以用于解決現(xiàn)有技術(shù)對于研究場景圖像文字檢測困難的問題,本發(fā)明的場景圖像文字檢測的方法對不同應(yīng)用場景下的圖像、視頻理解及檢索等上層應(yīng)用能提供有力支撐。本發(fā)明的技術(shù)方案是:一種基于形態(tài)成分分析與自適應(yīng)字典學(xué)習(xí)的場景圖像文字檢測的方法,首先構(gòu)建樣本數(shù)據(jù)并訓(xùn)練出兩個初始字典:文字字典和背景字典;然后由訓(xùn)練好的初始字典、待檢測的圖像和自適應(yīng)字典學(xué)習(xí)算法計算出待檢測圖像的文字和背景所對應(yīng)的字典和稀疏表示系數(shù);再由自適應(yīng)字典和待檢測圖像對應(yīng)的稀疏表示系數(shù)重建待檢測圖像中的文字圖像;用啟發(fā)式規(guī)則對重建的文字圖像進行處理來檢測出待檢測圖像中的候選的文字區(qū)域;最后用矩形框框出最終的文字區(qū)域;具體步驟為:Step1、訓(xùn)練樣本的采集;Step1.1、從互聯(lián)網(wǎng)上收集文字圖像和背景圖像,其中文字圖像只有文字沒有背景紋理,背景圖像不含有文字;Step1.2、用滑動窗口采集Step1.1中的文字圖像和背景圖像的數(shù)據(jù),每個窗口(n×n)的數(shù)據(jù)作為一個列向量(n2×1),列向量統(tǒng)一稱為原子,n為滑動窗口的大小,這樣所有采集到的文字訓(xùn)練數(shù)據(jù)和背景訓(xùn)練數(shù)據(jù)為兩個n2維的矩陣;Step2、用K-svd的方法學(xué)習(xí)初始字典;用K-svd的方法學(xué)習(xí)初始字典,學(xué)習(xí)字典的目標函數(shù)為:minD,α{||x-Dα||F2+λ1||α||1}s.t.||di||2=1]]>其中x、D、α分別為訓(xùn)練樣本數(shù)據(jù)、訓(xùn)練的字典和訓(xùn)練樣本的稀疏表示系數(shù),當(dāng)訓(xùn)練數(shù)據(jù)為文字數(shù)據(jù)時,學(xué)習(xí)到的字典為文字字典Dt1;當(dāng)訓(xùn)練數(shù)據(jù)為背景數(shù)據(jù)時,學(xué)習(xí)到的字典為背景字典Db1,di為Dζ(ζ=t1,b1)中的第i個原子;Step3、待檢測圖像預(yù)處理;對待檢測圖像x進行濾波處理,保留前景文字的特征,弱化背景的紋理特征,用自適應(yīng)濾波器進行預(yù)處理操作;Step4、利用初始字典和預(yù)處理的待檢測圖像學(xué)習(xí)自適應(yīng)字典和對應(yīng)的稀疏表示系數(shù);Step4.1學(xué)習(xí)自適應(yīng)字典和對應(yīng)的稀疏表示系數(shù)目標函數(shù)的設(shè)計;學(xué)習(xí)自適應(yīng)字典和對應(yīng)的稀疏表示系數(shù)的目標函數(shù)為:{Dt,Db,αt,αb}=argminDt,Db,αt,αb{||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+η||DtTDb||F2+Σj=1CΣi=1CΣl=1mWi,j||dtil-dtjI-||22+λ1Σi∈{t,b}||αi||1}]]>s.t.||dk||2=1,∀k∈Ω.]]>其中x,Dt,Db分別為待檢測圖像的數(shù)據(jù)和求解的自適應(yīng)的文字字典和背景字典,αt,αb為要求解的待檢測圖像對應(yīng)的文字和背景的稀疏表示系數(shù),Ω為字典D=[Dt,Db]中的子原子集,I是值全為1的單位向量,是文字字典第j個原子的平均值,權(quán)重矩陣W=(Wi,j)mi,j,Wi,j用來衡量不同原子間的相似度,如果兩個原子是一個類的,Wi,j應(yīng)該取較大值,否則,Wi,j應(yīng)該取較小值;Step4.2目標函數(shù)的解;Step4.2.1給定D和用迭代映射的方法求解到的稀疏編碼為:αtl+1=proxv(αtl-vk▿αt(l)Q(αtl,αbl))]]>αbl+1=proxv(αbl-vk▿αb(l)Q(αtl,αbl))]]>其中,proxμh(α)i=0|αi|<μαi+sign(αi)μotherwise,]]>▿αt(l)Q(αtl,αbl)=2(DtTDtαtl-DtTx+DtTDbαbl+DbTDbαtl)+DbTDtαbl]]>▿αb(l)Q(αtl,αbl)=2(DbTDbαbl-DbTx+DbTDtαtl+DtTDtαbl)+DtTDbαtl]]>Step4.2.2已知稀疏表示系數(shù)αt和αb,求解到的Dt和Db為:Dtl+1=2(DtlαtlαtlT-xαtlT+DbαblαtlT+DtlαblαblT+DblTDtlT+CDtlT-WMT+AkAkTDtlT)]]>Dbl+1=2(DblαblαblT-xαblT+DtαtlαblT+DblαtlαtlT+DtlTDblT+AkAkTDblT)]]>其中,Ak∈Rs×r和是Ak的行向量;Step5、重建待檢測圖像中的文字;由Step4中求解的自適應(yīng)字典D=[Dt,Db]和待檢測圖像的稀疏表示系數(shù)α=[αt,αb],待檢測圖像中文字的重建可以通過下式重建:xt=Dαt得到的數(shù)據(jù)是一個矩陣,設(shè)定重建圖像的大小與待檢圖像的大小嚴格一樣,用matlab函數(shù)把矩陣數(shù)據(jù)顯示為圖像形式,圖像中的沒有重構(gòu)的背景部分像素值為0;Step6、待檢測圖像中候選的文字區(qū)域;對Step5中重建的文字圖像用啟發(fā)式規(guī)則處理、雙閾值限制,面積寬高比方法去除錯誤重建的噪聲或背景部分,找到重建的文字圖像的連通區(qū)域的重心點,然后把確定出來的重心點連接在一起,最后用矩形框包圍以重心點為中心,以給定閾值為邊長的矩形框,這些矩形框所包圍的區(qū)域為候選的文字區(qū)域;Step7、確定待檢測圖像的文字區(qū)域;對Step6中候選的文字區(qū)域用水平方向是否一致的方法和矩形框面積閾值限定的方法進行判斷矩形框之間是否水平合并,對于不滿足合并條件的矩形框直接舍棄得到一個大的矩形框,最后留下來的矩形框為檢測到的文本區(qū)域。所述步驟Step1.2中,文字字符具有類的特性,對文字樣本數(shù)據(jù)進行聚類處理,在后續(xù)求解文字字典和稀疏表示系數(shù)的時候以類為單位進行求解。所述步驟Step3,待檢測圖像預(yù)處理是用自適應(yīng)濾波器對帶檢測圖像處理。所述步驟Step4,目標函數(shù)設(shè)計用了形態(tài)成分分析的思想把文字從背景中分離出來,自適應(yīng)字典與其對應(yīng)的稀疏表示系數(shù)是用迭代更新的算法求解的,求解稀疏表示系數(shù)的時候用的是軟閾值的方法,求解自適應(yīng)字典的時候用的增益的拉格朗日算法求解。所述步驟Step5中,重建圖像的大小與待檢測圖像的大小要一致,顯示重建圖像的時候文字的像素值顯示為1,非文字像素值顯示為0。所述步驟Step6中,對重建的文字圖像用啟發(fā)式規(guī)則如形態(tài)學(xué)處理、雙閾值限制,面積寬高比等方法去除噪聲,在重建的文字圖像基礎(chǔ)上用連通區(qū)域的重心點來確定每個文字或字母的重心位置,然后把確定出來的重心點連接在一起,最后用矩形框包圍連接的重心點區(qū)域形成候選的文字區(qū)域。所述步驟Step7中,對候選的連通區(qū)域中的矩形框用水平合并,面積閾值法得到最終的一個大的合并的矩形框及檢測的文本區(qū)域。Step4.1中的目標函數(shù)的具體求解方法:自適應(yīng)字典的學(xué)習(xí)是根據(jù)不同的待檢測圖像學(xué)習(xí)相對應(yīng)的字典。自適應(yīng)字典學(xué)習(xí)是根據(jù)目標函數(shù)來學(xué)習(xí)得到的,目標函數(shù)為:{Dt,Db,αt,αb}=argminDt,Db,αt,αb{||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+η||DtTDb||F2+Σj=1CΣi=1CΣl=1mWi,j||dtil-dtjI-||22+λ1Σi∈{t,b}||αi||1}]]>s.t.||dk||2=1,∀k∈Ω.]]>其中x,Dt,Db分別為待檢測圖像的數(shù)據(jù)和求解的自適應(yīng)的文字字典和背景字典,αt,αb為待檢測圖像對應(yīng)的文字和背景的稀疏表示系數(shù),Ω為字典D=[Dt,Db]中的子原子集,I是值全為1的單位向量,是文字字典第j個原子的平均值,權(quán)重矩陣W=(Wi,j)mi,j,Wi,j用來衡量不同原子間的相似度,如果兩個原子在同一類中,Wi,j應(yīng)該取較大值,否則,Wi,j應(yīng)該取較小值;是判別忠誠項,使重構(gòu)的字典Di(i=t,b)對圖像中的文字連通區(qū)域xt和背景連通區(qū)域xb有很強的判別能力;為了提高文字和背景的分離效果,字典Di(i=t,b)應(yīng)能夠很好地表示xi(i=t,b)而不是xj(j≠i,j=t,b),也就是Di(i=t,b)是與xi(i=t,b)有關(guān)的學(xué)習(xí)字典,(i≠j,i,j=t,b)應(yīng)該無限趨向于0;項是為了加強不同子字典的不相關(guān)性的判別項;由于文本數(shù)據(jù)具有背景數(shù)據(jù)沒有的很強的關(guān)聯(lián)性,因此用歐氏距離衡量不同文本之間的關(guān)系,即應(yīng)該是一個很小值。上述目標函數(shù)模型可以轉(zhuǎn)化為下式:Dt,Dbαt,αb=argminDt,Dbαt,αb||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+η||DtTDb||F2+Tr(DtCDtT)+Tr(MCTMT)-2Tr(DtWMT)+λ1Σi∈(t,b)||αi||1]]>s.t||dk||2=1,∀k∈Ω]]>式中,Dt=[Dt1,Dt2,...,Dtc],C是對角元素為對角矩陣,M=[m1I,m2I,...,mcI]是由miI構(gòu)成的第i類文字連通區(qū)域的平均值矩陣。上述模型的最小化問題可以用迭代優(yōu)化和α=(αt,αb)T,即給定D和稀疏編碼可以通過下式求解:{αt,αb}=argminαt,αb||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+λ1Σi∈(t,b)||αi||1=argminαt,αb{Q(αt,αb)+λ1h(αt,αb)},]]>其中,由于Q(αt,αb)相對于αt和αb嚴格可偏導(dǎo),用迭代映射的方法(IPM)可以求解上式:αtl+1=proxv(αtl-vk▿αt(l)Q(αtl,αbl))]]>αbl+1=proxv(αbl-vk▿αb(l)Q(αtl,αbl))]]>其中,proxμh(α)i=0|αi|<μαi+sign(αi)μotherwise,]]>▿αt(l)Q(αtl,αbl)=2(DtTDtαtl-DtTx+DtTDbαbl+DbTDbαtl)+DbTDtαbl]]>▿αb(l)Q(αtl,αbl)=2(DbTDbαbl-DbTx+DbTDtαtl+DtTDtαbl)+DtTDbαtl]]>給定稀疏表示系數(shù)αt和αb,求解Dt和Db時,目標函數(shù)變?yōu)椋簕Dt,Db}=argminDt,Db||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+η||DtTDb||F2+Tr(DtCDtT)-2Tr(DtWMT)]]>s.t.||dk||2=1,∀k∈Ω]]>用增益的拉格朗日Lagrangian來求解上式,上式可以轉(zhuǎn)換為:L(Dt,Db,η,μ)=argminDt,Db||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+η||DtTDb||F2+Tr(DtCDtT)-2Tr(DtWMT)+ηT(dkTdkI-I)+μ||dkTdkI-I||22]]>∀k∈Ω]]>上式可以用增益拉格朗日乘子法求解:Dtl+1=argminDtlL(Dtl,Dbl,ηl,μl)]]>Dbl+1=argminDblL(Dtl,Dbl,λl,μl)]]>ηl+1=ηl+μl(dk(l+1)Tdk(l+1)I-I)]]>μl+1=kμl通過和Dt和Db的迭代求解如下:Dtl+1=2(DtlαtlαtlT-xαtlT+DbαblαtlT+DtlαblαblT+DblTDtlT+CDtlT-WMT+AkAkTDtlT)]]>Dbl+1=2(DblαblαblT-xαblT+DtαtlαblT+DblαtlαtlT+DtlTDblT+AkAkTDblT)]]>其中,Ak∈Rs×r和是Ak的行向量。本發(fā)明的有益效果是:1、本發(fā)明提出的場景圖像文字檢測的方法使計算機能夠自動地理解圖像所包含的語義信息、并為導(dǎo)盲技術(shù),車牌識別和車輛定位追蹤技術(shù)以及圖像檢索技術(shù)等提供了有力的支撐;2、本發(fā)明設(shè)計了一種自適應(yīng)字典學(xué)習(xí)和求解的方法;3、本發(fā)明提出的文字檢測的方法為場景圖像的文字識別提供了有力支撐;4、本發(fā)明提出的文字檢測方法相比其他方法精確率明顯提高。附圖說明圖1是本發(fā)明的流程圖;圖2是本發(fā)明的待檢測源圖像;圖3是本發(fā)明的待檢測源圖像預(yù)處理之后的圖像;圖4是本發(fā)明重建的待檢測源圖像中的文字圖像;圖5是本發(fā)明待檢測圖像上文字重心連接線圖像;圖6是本發(fā)明候選文字區(qū)域圖像;圖7是本發(fā)明待檢測源圖像上的文字區(qū)域圖像;具體實施方式下面結(jié)合附圖和具體實施方式,對本發(fā)明作進一步說明。實施例1:如圖1-7所示,一種基于形態(tài)成分分析與自適應(yīng)字典學(xué)習(xí)的場景圖像文字檢測的方法,首先構(gòu)建樣本數(shù)據(jù)并訓(xùn)練出兩個初始字典:文字字典和背景字典;然后由訓(xùn)練好的初始字典、待檢測的圖像和自適應(yīng)字典學(xué)習(xí)算法計算出待檢測圖像的文字和背景所對應(yīng)的字典和稀疏表示系數(shù);再由自適應(yīng)字典和待檢測圖像對應(yīng)的稀疏表示系數(shù)重建待檢測圖像中的文字圖像;用啟發(fā)式規(guī)則對重建的文字圖像進行處理來檢測出待檢測圖像中的候選的文字區(qū)域;最后用矩形框框出最終的文字區(qū)域;具體步驟為:Step1、訓(xùn)練樣本的采集;Step1.1、從互聯(lián)網(wǎng)上收集文字圖像和背景圖像,其中文字圖像只有文字沒有背景紋理,背景圖像不含有文字;Step1.2、用滑動窗口采集Step1.1中的文字圖像和背景圖像的數(shù)據(jù),每個窗口(n×n)的數(shù)據(jù)作為一個列向量(n2×1),列向量統(tǒng)一稱為原子,n為滑動窗口的大小,這樣所有采集到的文字訓(xùn)練數(shù)據(jù)和背景訓(xùn)練數(shù)據(jù)為兩個n2維的矩陣;Step2、用K-svd的方法學(xué)習(xí)初始字典;用K-svd的方法學(xué)習(xí)初始字典,學(xué)習(xí)字典的目標函數(shù)為:minD,α{||x-Dα||F2+λ1||α||1}s.t.||di||2=1]]>其中x、D、α分別為訓(xùn)練樣本數(shù)據(jù)、訓(xùn)練的字典和訓(xùn)練樣本的稀疏表示系數(shù),當(dāng)訓(xùn)練數(shù)據(jù)為文字數(shù)據(jù)時,學(xué)習(xí)到的字典為文字字典Dt1;當(dāng)訓(xùn)練數(shù)據(jù)為背景數(shù)據(jù)時,學(xué)習(xí)到的字典為背景字典Db1,di為Dζ(ζ=t1,b1)中的第i個原子;Step3、待檢測圖像預(yù)處理;對待檢測圖像x進行濾波處理,保留前景文字的特征,弱化背景的紋理特征,用自適應(yīng)濾波器進行預(yù)處理操作;Step4、利用初始字典和預(yù)處理的待檢測圖像學(xué)習(xí)自適應(yīng)字典和對應(yīng)的稀疏表示系數(shù);Step4.1學(xué)習(xí)自適應(yīng)字典和對應(yīng)的稀疏表示系數(shù)目標函數(shù)的設(shè)計;學(xué)習(xí)自適應(yīng)字典和對應(yīng)的稀疏表示系數(shù)的目標函數(shù)為:{Dt,Db,αt,αb}=argminDt,Db,αt,αb{||x-Dtαt-Dbαb||22+Σi,j∈{t,b}i≠j||Diαj||22+η||DtTDb||F2+Σj=1CΣi=1CΣl=1mWi,j||dtil-dtjI-||22+λ1Σi∈{t,b}||αi||1}]]>s.t.||dk||2=1,∀k∈Ω.]]>其中x,Dt,Db分別為待檢測圖像的數(shù)據(jù)和求解的自適應(yīng)的文字字典和背景字典,αt,αb為要求解的待檢測圖像對應(yīng)的文字和背景的稀疏表示系數(shù),Ω為字典D=[Dt,Db]中的子原子集,I是值全為1的單位向量,是文字字典第j個原子的平均值,權(quán)重矩陣W=(Wi,j)mi,j,Wi,j用來衡量不同原子間的相似度,如果兩個原子是一個類的,Wi,j應(yīng)該取較大值,否則,Wi,j應(yīng)該取較小值;Step4.2目標函數(shù)的解;Step4.2.1給定D和用迭代映射的方法求解到的稀疏編碼為:αtl+1=proxv(αtl-vk▿αt(l)Q(αtl,αbl))]]>αbl+1=proxv(αbl-vk▿αb(l)Q(αtl,αbl))]]>其中,proxμh(α)i=0|αi|<μαi+sign(αi)μotherwise,]]>▿αt(l)Q(αtl,αbl)=2(DtTDtαtl-DtTx+DtTDbαbl+DbTDbαtl)+DbTDtαbl]]>▿αb(l)Q(αtl,αbl)=2(DbTDbαbl-DbTx+DbTDtαtl+DtTDtαbl)+DtTDbαtl]]>Step4.2.2已知稀疏表示系數(shù)αt和αb,求解到的Dt和Db為:Dtl+1=2(DtlαtlαtlT-xαtlT+DbαblαtlT+DtlαblαblT+DblTDtlT+CDtlT-WMT+AkAkTDtlT)]]>Dbl+1=2(DblαblαblT-xαblT+DtαtlαblT+DblαtlαtlT+DtlTDblT+AkAkTDblT)]]>其中,Ak∈Rs×r和是Ak的行向量;Step5、重建待檢測圖像中的文字;由Step4中求解的自適應(yīng)字典D=[Dt,Db]和待檢測圖像的稀疏表示系數(shù)α=[αt,αb],待檢測圖像中文字的重建可以通過下式重建:xt=Dαt得到的數(shù)據(jù)是一個矩陣,設(shè)定重建圖像的大小與待檢圖像的大小嚴格一樣,用matlab函數(shù)把矩陣數(shù)據(jù)顯示為圖像形式,圖像中的沒有重構(gòu)的背景部分像素值為0;Step6、待檢測圖像中候選的文字區(qū)域;對Step5中重建的文字圖像用啟發(fā)式規(guī)則處理、雙閾值限制,面積寬高比方法去除錯誤重建的噪聲或背景部分,找到重建的文字圖像的連通區(qū)域的重心點,然后把確定出來的重心點連接在一起,最后用矩形框包圍以重心點為中心,以給定閾值為邊長的矩形框,這些矩形框所包圍的區(qū)域為候選的文字區(qū)域;Step7、確定待檢測圖像的文字區(qū)域;對Step6中候選的文字區(qū)域用水平方向是否一致的方法和矩形框面積閾值限定的方法進行判斷矩形框之間是否水平合并,對于不滿足合并條件的矩形框直接舍棄得到一個大的矩形框,最后留下來的矩形框為檢測到的文本區(qū)域。所述步驟Step1.2中,文字字符具有類的特性,對文字樣本數(shù)據(jù)進行聚類處理,在后續(xù)求解文字字典和稀疏表示系數(shù)的時候以類為單位進行求解。所述步驟Step3,待檢測圖像預(yù)處理是用自適應(yīng)濾波器對帶檢測圖像處理。所述步驟Step4,目標函數(shù)設(shè)計用了形態(tài)成分分析的思想把文字從背景中分離出來,自適應(yīng)字典與其對應(yīng)的稀疏表示系數(shù)是用迭代更新的算法求解的,求解稀疏表示系數(shù)的時候用的是軟閾值的方法,求解自適應(yīng)字典的時候用的增益的拉格朗日算法求解。所述步驟Step5中,重建圖像的大小與待檢測圖像的大小要一致,顯示重建圖像的時候文字的像素值顯示為1,非文字像素值顯示為0。所述步驟Step6中,對重建的文字圖像用啟發(fā)式規(guī)則如形態(tài)學(xué)處理、雙閾值限制,面積寬高比等方法去除噪聲,在重建的文字圖像基礎(chǔ)上用連通區(qū)域的重心點來確定每個文字或字母的重心位置,然后把確定出來的重心點連接在一起,最后用矩形框包圍連接的重心點區(qū)域形成候選的文字區(qū)域。所述步驟Step7中,對候選的連通區(qū)域中的矩形框用水平合并,面積閾值法得到最終的一個大的合并的矩形框及檢測的文本區(qū)域。以上結(jié)合附圖對本發(fā)明的具體實施方式作了詳細說明,但是本發(fā)明并不限于上述實施方式,在本領(lǐng)域普通技術(shù)人員所具備的知識范圍內(nèi),還可以在不脫離本發(fā)明宗旨的前提下作出各種變化。當(dāng)前第1頁1 2 3 
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
乌什县| 余庆县| 睢宁县| 开原市| 开原市| 揭阳市| 苗栗县| 菏泽市| 平泉县| 开封县| 陈巴尔虎旗| 惠东县| 安国市| 娱乐| 和平区| 晋州市| 彰化市| 惠安县| 沽源县| 太白县| 内乡县| 麦盖提县| 宝山区| 巫溪县| 吉隆县| 潍坊市| 元谋县| 巩留县| 芷江| 府谷县| 会泽县| 韶关市| 竹溪县| 犍为县| 佛冈县| 琼中| 独山县| 浦东新区| 祁阳县| 白水县| 嘉禾县|