欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

手寫粘連數(shù)字串的識別方法

文檔序號:6637936閱讀:559來源:國知局
手寫粘連數(shù)字串的識別方法
【專利摘要】本發(fā)明公開了一種手寫粘連數(shù)字串的識別方法,包括了以下幾個主要步驟:(a)聯(lián)機(jī)手寫輸入數(shù)字串,獲取該數(shù)字串的筆畫數(shù)目m、每個筆畫所對應(yīng)的軌跡坐標(biāo)和該數(shù)字串的圖像;(b)計算每個筆畫各自的中心橫坐標(biāo);(c)將步驟a所得數(shù)字串的圖像進(jìn)行初次分割;(d)將m個筆畫分類至M個區(qū)域;(e.f.g.h.i) 對M個初分割區(qū)域進(jìn)行判斷,滿足條件直接識別;不滿足條件分段識別;(j)返回最終結(jié)果。與現(xiàn)有方法相比,本發(fā)明可以實現(xiàn)連續(xù)手寫數(shù)字字符串的識別,大大提高手寫數(shù)字的錄入效率。同時,本發(fā)明有很強(qiáng)的通用性,對于不同的粘連情況都有好的效果。
【專利說明】手寫粘連數(shù)字串的識別方法

【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于手寫體數(shù)字串的識別方法,特別是一種手寫粘連數(shù)字串的識別方法。

【背景技術(shù)】
[0002]光學(xué)字符識別(OCR)技術(shù)已經(jīng)成為人們錄入文字信息的關(guān)鍵技術(shù),一個OCR系統(tǒng)可以實現(xiàn)將影像中的文字信息轉(zhuǎn)化成相應(yīng)的計算機(jī)文字,大大減少了影像資料的存儲空間。同時,提取出的計算機(jī)文字信息可以直接用于分析、傳輸、處理等。因此,OCR技術(shù)在各個領(lǐng)域都得到了廣泛的應(yīng)用?,F(xiàn)有的OCR技術(shù)中,單個手寫數(shù)字的識別已經(jīng)廣泛使用。但是,這些OCR技術(shù)都是基于單個字符的逐個識別,其識別效率太低,不能滿足對字符串識別的要求,尤其是字符串粘連時,其識別率就更低。
[0003]中國專利2012100769575公開了一種連筆手寫字符的識別方法,該方法包括下述步驟:(1)對輸入圖像進(jìn)行降噪處理,消除數(shù)字噪聲;(2)通過基于邊緣的字?jǐn)?shù)估計算法計算字?jǐn)?shù);(3)通過最小代價切分算法計算最佳字符分割方案;(4)通過基于筆畫的筆跡跟蹤算法確定是否存在需要再切分的塊,如果存在需要再切分的塊,則返回步驟(2)重新計算、分割;如果不存在,則進(jìn)行下一步驟;(5)對分割后的字符圖像進(jìn)行OCR識別,轉(zhuǎn)化為計算機(jī)文字。該方法能夠?qū)崿F(xiàn)連筆字符的精確分割,提高對連筆字符識別的正確率。但是,該方法僅能夠?qū)φ尺B較少的數(shù)字串進(jìn)行識別,對于粘連較大的數(shù)字串的識別,還不能滿足實際要求。而且,對于手寫粘連數(shù)字串識別的通用性差,只能對于一些特定的粘連情況有好的效果O


【發(fā)明內(nèi)容】

[0004]本發(fā)明的目的在于克服現(xiàn)有技術(shù)中存在的缺陷,提供一種手寫粘連數(shù)字串的識別方法。
[0005]為達(dá)到上述目的,本發(fā)明采用如下技術(shù)方案:
一種手寫粘連數(shù)字串的識別方法,其特征在于包括以下步驟:
a.聯(lián)機(jī)手寫輸入數(shù)字串,獲取該數(shù)字串的筆畫數(shù)目m、每個筆畫所對應(yīng)的軌跡坐標(biāo)和該數(shù)字串的圖像;
b.根據(jù)步驟a所得的每個筆畫所對應(yīng)的軌跡坐標(biāo),計算每個筆畫各自的中心橫坐標(biāo),得到這m個筆畫的中心橫坐標(biāo)數(shù)組avgX[i],i=l,......,m ;
c.將步驟a所得數(shù)字串的圖像進(jìn)行初次分割,得到M個初分割區(qū)域,并記錄該M個初分割區(qū)域的左右邊界值(Lx[j],Rx[j] ),j=l,......,M ;
d.將m個筆畫所對應(yīng)的軌跡坐標(biāo)的中心橫坐標(biāo)avgX[i],i=l,......,m與M個初分割區(qū)域的左右邊界值(Lx [j],Rx[j] ),j=l,......,M進(jìn)行對比,若Lx[j]〈avgX[i]〈Rx[j],則將第
i個筆畫劃歸為初分割區(qū)域j,得到數(shù)組count [j],j=l,......,M,其中count[j]的值表示第j個初分割區(qū)域中包含的筆畫個數(shù);得到筆畫數(shù)組V[j] [count [j]],保存第j個初分割區(qū)域?qū)?yīng)不同筆畫i的數(shù)值; e.讀取步驟d所得數(shù)組V[j][Count[j]],j=l,……,M,判斷第j個初分割區(qū)域中的筆畫個數(shù)count[j]是否為1,若是則轉(zhuǎn)入步驟h ;否則轉(zhuǎn)入步驟f ;
f.若第j個初分割區(qū)域的筆畫個數(shù)count[j]>l,且該初分割區(qū)域的寬高比小于1,即初分割區(qū)域的寬度與初分割區(qū)域高度的比值小于1,若是則轉(zhuǎn)入步驟h ;否則轉(zhuǎn)入步驟g ;
g.數(shù)字串的分段識別:讀取前2個筆畫,采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,若成功識別則刪除這2個筆畫,返回識別結(jié)果;若不能識別,則讀取前I個筆畫,采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識另IJ,并刪除這個已識別的筆畫,同時返回識別結(jié)果,重復(fù)步驟g直至該初分割區(qū)域的筆畫全部識別完畢,轉(zhuǎn)入步驟i ;
h.采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,并返回識別結(jié)果;
1.讀取筆畫數(shù)組中的下一個數(shù)值V[j+l][Count[j+l]],重復(fù)步驟e;直至筆畫數(shù)組中的所有數(shù)值均處理完畢;
j.返回最終識別結(jié)果,得到手寫粘連數(shù)字串所表示的數(shù)值。
[0006]上述的步驟a的具體步驟為:
a-Ι.檢測手寫數(shù)字之間的提筆和落筆,記錄字符串的筆畫數(shù)目m ;a-2.獲取m個筆畫相對應(yīng)的軌跡坐標(biāo):筆畫的軌跡坐標(biāo)用(Xn,Yn)點坐標(biāo)序列表示:(X1J1), (X2, Y2),…,(Xn,Yn),其中η是筆畫的采樣點數(shù)。
[0007]a-3.得到軌跡坐標(biāo)數(shù)組Datapoint [m] [n],m就是字符串的筆畫數(shù)目;Datapoint [i] [η]保存第i個筆畫的軌跡坐標(biāo),?=1,2,3...,ηι。
[0008]上述的步驟c的具體步驟為:
c-Ι.圖像的灰度化,圖像的灰度化采用加權(quán)平均的方法,公式如下:
Colorpoint = 0.30*R +0.59*G +0.11*B(1.1)
c-2.圖像的二值化,二值化時選取特定閾值A(chǔ),A的取值范圍50~200 ;當(dāng)某個點的灰度值大于A時,設(shè)該點為白色,否則為黑色;
c-3.圖像的初次分割:檢測字符之間的白色像素列來確定初分割區(qū)域的邊界,分別記錄M個初分割區(qū)域的左右邊界值(Lx [M],Rx [M])。
[0009]本發(fā)明通過獲取錄入字符串的筆畫信息,經(jīng)過預(yù)處理、粗分割區(qū)域筆畫信息判斷、粗分割區(qū)域識別和未識別區(qū)域的分段依次識別,能夠?qū)崿F(xiàn)對粘連較大數(shù)字串的識別。同時,本發(fā)明有很強(qiáng)的通用性,對于不同的粘連情況都有好的效果。

【專利附圖】

【附圖說明】
[0010]圖1是本發(fā)明手寫粘連數(shù)字串識別方法的總的流程示意圖;
圖2是本發(fā)明方法中數(shù)字識別的識別流程圖。
[0011]圖3為本發(fā)明方法中分段識別的識別流程圖。
[0012]圖4是本發(fā)明實施例中的手寫粘連數(shù)字串圖像。
[0013]圖5是本發(fā)明實施例中得到的初分割區(qū)域。
[0014]【具體實施方式】:
為了使本領(lǐng)域中的技術(shù)人員更好地理解本申請中的技術(shù)方案,下面將結(jié)合本申請實施例中的附圖,對本申請的技術(shù)方案進(jìn)行更加清楚、完整的表述。本發(fā)明的優(yōu)選實例詳述如下: 實施例一:
參見圖1,一種手寫粘連數(shù)字串的識別方法,包括以下幾個主要步驟:a.聯(lián)機(jī)手寫輸入數(shù)字串,獲取該數(shù)字串的筆畫數(shù)目m、每個筆畫所對應(yīng)的軌跡坐標(biāo)和該數(shù)字串的圖像;
步驟a的具體步驟為:
a-Ι.檢測手寫數(shù)字之間的提筆和落筆,記錄字符串的筆畫數(shù)目m ;a-2.獲取m個筆畫相對應(yīng)的軌跡坐標(biāo):筆畫的軌跡坐標(biāo)用(Xn,Yn)點坐標(biāo)序列表示:(X1J1), (X2, Y2),…,(Xn,Yn),其中η是筆畫的采樣點數(shù)。
[0015]a-3.得到軌跡坐標(biāo)數(shù)組Datapoint [m] [n],m就是字符串的筆畫數(shù)目;Datapoint [i] [η]保存第i個筆畫的軌跡坐標(biāo),?=1,2,3...,ηι。
[0016]參見圖4,本實施例中手寫粘連數(shù)字串的筆畫數(shù)目m為7,取η為50。
[0017]b.根據(jù)步驟a所得的每個筆畫所對應(yīng)的軌跡坐標(biāo),計算每個筆畫各自的中心橫坐標(biāo),得到這7個筆畫的中心橫坐標(biāo)數(shù)組avgX[i],i=l,......,7 ;
c.將步驟a所得數(shù)字串的圖像進(jìn)行初次分割,得到M個初分割區(qū)域,并記錄該M個初分割區(qū)域的左右邊界值(Lx[j],Rx[j] ),j=l,......,M ;
步驟c的具體步驟為:
c-Ι.圖像的灰度化,圖像的灰度化采用加權(quán)平均的方法,公式如下:
Colorpoint = 0.30*R +0.59*G +0.11*B(1.1)
c-2.圖像的二值化,二值化時選取特定閾值A(chǔ),A的取值范圍50~200 ;當(dāng)某個點的灰度值大于A時,設(shè)該點為白色,否則為黑色;
c-3.圖像的初次分割:檢測字符之間的白色像素列來確定初分割區(qū)域的邊界,分別記錄M個初分割區(qū)域的左右邊界值(Lx [M],Rx [M])。
[0018]參見圖5,本實施例中初分割區(qū)域的數(shù)目M為3。
[0019]d.將7個筆畫所對應(yīng)的軌跡坐標(biāo)的中心橫坐標(biāo)avgX[7],i=l,……,7與3個初分割區(qū)域的左右邊界值(Lx[j],Rx[j] ),j=l,2,3進(jìn)行對比,若Lx[j]〈avgX[i]〈Rx[j],則將第
i個筆畫劃歸為初分割區(qū)域j,得到數(shù)組count [j],j=l,......,M,其中count[j]的值表示第j個初分割區(qū)域中包含的筆畫個數(shù);得到筆畫數(shù)組V[j] [count [j]],保存第j個初分割區(qū)域?qū)?yīng)不同筆畫i的數(shù)值;
e.f.g.h.1.對3個初分割區(qū)域進(jìn)行判斷,滿足條件直接識別;不滿足條件分段識別法識別;
j.返回最終識別結(jié)果,得到手寫粘連數(shù)字串所表示的數(shù)值。
[0020]實施例二:
參見圖2,數(shù)字串的識別方法,包括以下幾個主要步驟:
e.讀取步驟d所得數(shù)組V[j][Count[j]],j=l,2,3,判斷第j個初分割區(qū)域中的筆畫個數(shù)count[j]是否為1,若是則轉(zhuǎn)入步驟h ;否則轉(zhuǎn)入步驟f ;
f.若第j個初分割區(qū)域的筆畫個數(shù)count[j]>l,且該初分割區(qū)域的寬高比小于1,即初分割區(qū)域的寬度與初分割區(qū)域高度的比值小于1,若是則轉(zhuǎn)入步驟h ;否則轉(zhuǎn)入步驟g ;
g.數(shù)字串的分段識別,轉(zhuǎn)入步驟i;
h.采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,并返回識別結(jié)果; 1.讀取筆畫數(shù)組中的下一個數(shù)值V[j+l][Count[j+l]],重復(fù)步驟e ;直至筆畫數(shù)組中的所有數(shù)值均處理完畢;
j.返回最終識別結(jié)果,得到手寫粘連數(shù)字串所表示的數(shù)值。
[0021]實施例三:
參見圖3,分段識別方法,步驟如下:
讀取前2個筆畫,采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,若成功識別則刪除這2個筆畫,返回識別結(jié)果;若不能識別,則讀取前I個筆畫,采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,并刪除這個已識別的筆畫,同時返回識別結(jié)果,重復(fù)步驟g直至該初分割區(qū)域的筆畫全部識別完畢。
【權(quán)利要求】
1.在一種手寫粘連數(shù)字串的識別方法,其特征在于包括以下步驟: a.聯(lián)機(jī)手寫輸入數(shù)字串,獲取該數(shù)字串的筆畫數(shù)目m、每個筆畫所對應(yīng)的軌跡坐標(biāo)和該數(shù)字串的圖像; b.根據(jù)步驟a所得的每個筆畫所對應(yīng)的軌跡坐標(biāo),計算每個筆畫各自的中心橫坐標(biāo),得到這m個筆畫的中心橫坐標(biāo)數(shù)組avgX[i],i=l,......,m ; c.將步驟a所得數(shù)字串的圖像進(jìn)行初次分割,得到M個初分割區(qū)域,并記錄該M個初分割區(qū)域的左右邊界值(Lx[j],Rx[j] ),j=l,......,M ; d.將m個筆畫所對應(yīng)的軌跡坐標(biāo)的中心橫坐標(biāo)avgX[i],i=l,......,m與M個初分割區(qū)域的左右邊界值(Lx [j],Rx[j] ),j=l,......,M進(jìn)行對比,若Lx[j]〈avgX[i]〈Rx[j],則將第i個筆畫劃歸為初分割區(qū)域j,得到數(shù)組count [j],j=l,......,M,其中count[j]的值表示第j個初分割區(qū)域中包含的筆畫個數(shù);得到筆畫數(shù)組V[j] [count [j]],保存第j個初分割區(qū)域?qū)?yīng)不同筆畫i的數(shù)值; e.數(shù)字串的識別:讀取步驟d所得數(shù)組V[j][Count[j]],j=l,……,M,判斷第j個初分割區(qū)域中的筆畫個數(shù)count[j]是否為1,若是則轉(zhuǎn)入步驟h ;否則轉(zhuǎn)入步驟f ; f.若第j個初分割區(qū)域的筆畫個數(shù)count[j]>l,且該初分割區(qū)域的寬高比小于1,即初分割區(qū)域的寬度與初分割區(qū)域高度的比值小于1,若是則轉(zhuǎn)入步驟h ;否則轉(zhuǎn)入步驟g ; g.數(shù)字串的分段識別:讀取前2個筆畫,采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,若成功識別則刪除這2個筆畫,返回識別結(jié)果;若不能識別,則讀取前I個筆畫,采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識另IJ,并刪除這個已識別的筆畫,同時返回識別結(jié)果,重復(fù)步驟g直至該初分割區(qū)域的筆畫全部識別完畢,轉(zhuǎn)入步驟i ; h.采用神經(jīng)網(wǎng)絡(luò)算法進(jìn)行識別,并返回識別結(jié)果; 1.讀取筆畫數(shù)組中的下一個數(shù)值V[j+l][Count[j+l]],重復(fù)步驟e;直至筆畫數(shù)組中的所有數(shù)值均處理完畢; j.返回最終識別結(jié)果,得到手寫粘連數(shù)字串所表示的數(shù)值。
2.根據(jù)權(quán)利要求1所述的手寫粘連數(shù)字串的識別方法,其特征在于所述的步驟a的具體步驟為: a-Ι.檢測手寫數(shù)字之間的提筆和落筆,記錄字符串的筆畫數(shù)目m ; a-2.獲取m個筆畫相對應(yīng)的軌跡坐標(biāo):筆畫的軌跡坐標(biāo)用(Xn,Yn)點坐標(biāo)序列表示:(X1, Y1), (X2, Y2),…,(Xn, Yn),其中η是筆畫的采樣點數(shù); a-3.得到軌跡坐標(biāo)數(shù)組Datapoint [m] [η],m就是字符串的筆畫數(shù)目;Datapoint [i][η]保存第i個筆畫的軌跡坐標(biāo),i=l,2,3…,m0
3.根據(jù)權(quán)利要求1所述的手寫粘連數(shù)字串的識別方法,其特征在于所述的步驟c的具體步驟為: c-Ι.圖像的灰度化,圖像的灰度化采用加權(quán)平均的方法,公式如下:
Colorpoint = 0.30*R +0.59*G +0.11*B(1.1) c-2.圖像的二值化,二值化時選取特定閾值A(chǔ),A的取值范圍50~200 ;當(dāng)某個點的灰度值大于A時,設(shè)該點為白色,否則為黑色; c-3.圖像的初次分割:檢測字符之間的白色像素列來確定初分割區(qū)域的邊界,分別記錄M個初分割區(qū)域的左右邊界值(Lx [M],Rx [M])。
【文檔編號】G06K9/20GK104504385SQ201410749989
【公開日】2015年4月8日 申請日期:2014年12月10日 優(yōu)先權(quán)日:2014年12月10日
【發(fā)明者】高新聞, 管奔博, 俞黎卿 申請人:上海大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
定州市| 财经| 泸溪县| 大新县| 邹城市| 石棉县| 容城县| 镇平县| 巴青县| 呼和浩特市| 隆子县| 敦化市| 望奎县| 霞浦县| 忻城县| 泰宁县| 孟州市| 新野县| 融水| 忻城县| 无为县| 合江县| 庆安县| 韶关市| 崇信县| 石首市| 南康市| 隆回县| 萝北县| 蚌埠市| 华蓥市| 深水埗区| 桂东县| 庆云县| 桐乡市| 汉中市| 修水县| 陵水| 九龙城区| 滕州市| 鱼台县|