欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

微表情自動識別的建庫視頻自動切段方法與流程

文檔序號:12009173閱讀:574來源:國知局
微表情自動識別的建庫視頻自動切段方法與流程
本發(fā)明涉及微表情自動識別的建庫視頻自動切段方法,屬于圖像處理、模式識別、視頻檢索的技術(shù)領(lǐng)域。

背景技術(shù):
微表情是一種持續(xù)時間極短,自發(fā)的且不易被人察覺的表情,因為微表情是自發(fā)的,不受意識的控制,直接反映了人內(nèi)心真實的情感,且不易偽造,所以使得微表情的識別在心理醫(yī)學(xué)工程領(lǐng)域、臨床領(lǐng)域、司法領(lǐng)域等有著十分廣闊的應(yīng)用前景。目前針對微表情的科學(xué)研究主要集中在微表情數(shù)據(jù)庫的建立、微表情的快速檢測以及識別等方面,微表情數(shù)據(jù)庫的建立對于微表情自動識別的科學(xué)研究有至關(guān)重要的意義,因為目前限制微表情自動識別研究發(fā)展的一個很重要的因素是缺少測試資源,缺少一個具有一定數(shù)量和質(zhì)量的微表情數(shù)據(jù)庫。在建庫時,錄制的視頻往往比較長,研究人員一般都是手動切開微表情視頻序列形成子段。

技術(shù)實現(xiàn)要素:
針對現(xiàn)有技術(shù)的不足,本發(fā)明提供一種微表情自動識別的建庫視頻自動切段方法。該方法利用基于內(nèi)容的切段方法對建庫視頻進行非微表情剔除和微表情視頻的自動切段,具體說是將建庫視頻轉(zhuǎn)化為反映視覺內(nèi)容特征的單幀圖像,并與相鄰幀圖像之間的反映視覺內(nèi)容的特征進行度量,獲取幀與幀之間的視覺相似性信息,從而實現(xiàn)對建庫視頻中非微表情的剔除和微表情視頻的自動切段。本發(fā)明能夠快速有效地實現(xiàn)微表情視頻的自動切段。本發(fā)明采用如下技術(shù)方案:微表情自動識別的建庫視頻自動切段方法,包括如下步驟:步驟一:把建庫視頻分解為連續(xù)的單幀圖像;步驟二:對每幀圖像的人臉位置進行標(biāo)定;步驟三:對每幀圖像中人臉上的眼睛和鼻子的位置進行標(biāo)定;步驟四:根據(jù)步驟三中獲取的眼睛和鼻子的位置對圖像進行裁剪,只保留每幀圖像的臉部區(qū)域;以減少復(fù)雜背景的干擾;步驟五:選取一張同一個人的無表情的圖像作為模板,逐幀與模板進行比較,剔除非微表情的圖像;步驟六:對步驟五中剩余的微表情圖像,采用基于內(nèi)容的切段方法對視頻進行切段。根據(jù)本發(fā)明優(yōu)選的,所述步驟二中對人臉位置的標(biāo)定方法,是采用現(xiàn)有Adaboost算法訓(xùn)練好的人臉分類器,確定人臉在每幀圖像中的位置。根據(jù)本發(fā)明優(yōu)選的,所述步驟三中眼睛和鼻子的位置標(biāo)定方法,包括步驟如下:1)采用現(xiàn)有Adaboost算法訓(xùn)練好的眼睛分類器和鼻子分類器在步驟二中得到的圖像的臉部區(qū)域搜索;2)把得到的眼睛區(qū)域提取出來,得到瞳孔的坐標(biāo)位置和瞳孔區(qū)域的大?。灰驗樵谘劬^(qū)域中,瞳孔的灰度值普遍很低,利用這一特點,對眼睛區(qū)域利用水平和垂直方向的積分投影的方法,即可得到瞳孔的坐標(biāo)位置和瞳孔區(qū)域的大小。根據(jù)本發(fā)明優(yōu)選的,所述步驟四中裁剪的方法是:根據(jù)前述步驟三中獲取的鼻子和眼睛瞳孔的位置坐標(biāo)以及比例關(guān)系,以鼻子為中心,以兩眼之間的距離的2倍為寬,以鼻子到兩眼之間連線的垂直距離的5倍為高,畫出一個矩形區(qū)域,按照此矩形區(qū)域?qū)υ瓐D像進行裁剪。根據(jù)本發(fā)明優(yōu)選的,所述步驟五中剔除非微表情圖像的方法:選取一張無表情的圖像作為模板,對上述步驟四中裁剪出來的圖像逐個比較其與模板圖像的灰度直方圖的差異,如果幀間的灰度直方圖差異小于根據(jù)圖像內(nèi)容自動選取的閾值時,則把該幀圖像認為是非微表情圖像,并剔除掉;如果幀間差異大于根據(jù)圖像內(nèi)容自動選取的閾值,則把該幀圖像認為是微表情圖像;上述根據(jù)圖像內(nèi)容自動選取閾值的方法為:假設(shè)Di為第i幀圖像與無表情模板圖像的灰度直方圖的差值,α為自適應(yīng)系數(shù),其中0≤α≤1,設(shè)置常數(shù)c是為了防止幀間差值幾乎為零時而無法自動選取閾值,當(dāng)滿足下式時,則把該幀圖像認為是非微表情圖像其中,Dq為第q幀圖像與無表情模板圖像的灰度直方圖的差值;當(dāng)時,則把該幀圖像認為是微表情圖像。根據(jù)本發(fā)明優(yōu)選的,所述步驟六中基于內(nèi)容的切段方法為:是通過對圖像紋理特征的描述和比較,對相鄰幀圖像的相關(guān)性進行度量,取得一個描述幀間差距的量,尋找?guī)g差距的局部最大值點所對應(yīng)的幀圖像,即為切段點;幀圖像紋理特征的提取,采用二維Haar小波變換方法,是對幀圖像進行2層小波變換,以小波變換的7個小波系數(shù)組成一個特征向量,作為幀圖像的紋理特征表述方式;根據(jù)幀圖像描述紋理特征的特征向量計算出相鄰幀之間特征向量的歐氏距離,作為度量幀間差值的量,找出幀間差值取局部最大值點,以對應(yīng)幀作為切段點,即從中提取出微表情視頻的獨立子段,實現(xiàn)建庫視頻的自動切段,具體步驟如下:(1)采用二維Haar小波變換方法對幀圖像進行2層小波變換,假設(shè)j為采用小波變換對圖像分解的級數(shù),則第j級二維圖像小波系數(shù)由第j-1級的小波系數(shù)的加權(quán)和表示,其中h()為低通分解濾波器,g()為高通分解濾波器,第j級圖像的像素點的行和列用m,n來表示,第j-1級圖像像素點的行和列用k,l來表示;低頻子圖像的小波系數(shù)水平高頻子圖像的小波系數(shù)垂直高頻子圖像的小波系數(shù)對角高頻子圖像的小波系數(shù)對圖像進行2層Haar小波變換有7個小波系數(shù),把這7個小波系數(shù)組合成一個特征向量其中,上角標(biāo)j和j+1分別表示第j級和第j+1級,D表示對角高頻標(biāo)識,h表示水平高頻標(biāo)識,v表示垂直高頻標(biāo)識;(2)計算幀間特征向量的歐氏距離Ci,其中,分別表示第i幀和第i-1幀的由Haar小波系數(shù)組成的特征向量;(3)對幀間特征向量的歐氏距離取大于平均值的局部最大值,而且局部最大值要求大于前后3幀的距離值,以上述局部最大值對應(yīng)的幀作為切段點,即從中提取出微表情的獨立子段,從而實現(xiàn)對建庫視頻的自動切段。本發(fā)明的有益效果:本發(fā)明將建庫視頻轉(zhuǎn)化為反映視覺內(nèi)容特征的單幀圖像,并與相鄰幀之間的反映視覺內(nèi)容的特征進行比較,獲取幀與幀之間的視覺相似性信息,從而實現(xiàn)對建庫視頻中非微表情的剔除和微表情視頻的自動切段。本發(fā)明在微表情自動識別的建庫視頻切段中表現(xiàn)出色,快速可靠。所以在建立微表情數(shù)據(jù)庫時需要使用高速攝像機把人在一段時間內(nèi)的臉部表情變化信息保存下來,再采用信息處理技術(shù)從中自動提取出微表情獨立子段,即建庫視頻自動切段,以便日后對微表情進行訓(xùn)練和分類測試使用。附圖說明圖1為本發(fā)明的流程圖;圖2為建庫視頻分解后的連續(xù)的幀圖像;圖3為單幀圖像的瞳孔和鼻子定位的結(jié)果;圖4為裁剪后的幀圖像;圖5為非微表情幀圖像;圖6為微表情幀圖像;圖7為二維離散小波變換示意圖(其中h為低通分解濾波器,g為高通分解濾波器);圖8為微表情幀圖像的2層小波變換結(jié)果;圖9為圖8對應(yīng)的小波系數(shù)表示;圖10為幀間特征向量的歐氏距離,圖中畫小圓圈的尖峰點代表切段點,中間橫線表示幀間特征向量歐氏距離的平均值;圖11為自動切段之后的幀圖像(圖中畫矩形框的圖像表示視頻切段的切段點)。具體實施方式下面結(jié)合說明書附圖和實施例對本發(fā)明進一步說明,但不限于此。實施例、如圖1-11所示。微表情自動識別的建庫視頻自動切段方法,包括如下步驟:步驟一:把建庫視頻分解為連續(xù)的單幀圖像;如圖2所示;步驟二:對每幀圖像的人臉位置進行標(biāo)定;步驟三:對每幀圖像中人臉上的眼睛和鼻子的位置進行標(biāo)定;步驟四:根據(jù)步驟三中獲取的眼睛和鼻子的位置對圖像進行裁剪,只保留每幀圖像的臉部區(qū)域;步驟五:選取一張同一個人的無表情的圖像作為模板,逐幀與模板進行比較,剔除非微表情的圖像;步驟六:對步驟五中剩余的微表情圖像,采用基于內(nèi)容的切段方法對視頻進行切段。所述步驟二中對人臉位置的標(biāo)定方法,是采用現(xiàn)有Adaboost算法訓(xùn)練好的人臉分類器,確定人臉在每幀圖像中的位置。所述步驟三中眼睛和鼻子的位置標(biāo)定方法,包括步驟如下:1)采用現(xiàn)有Adaboost算法訓(xùn)練好的眼睛分類器和鼻子分類器在步驟二中得到的圖像的臉部區(qū)域搜索;2)把得到的眼睛區(qū)域提取出來,得到瞳孔的坐標(biāo)位置和瞳孔區(qū)域的大小;因為在眼睛區(qū)域中,瞳孔的灰度值普遍很低,利用這一特點,對眼睛區(qū)域利用水平和垂直方向的積分投影的方法,即可得到瞳孔的坐標(biāo)位置和瞳孔區(qū)域的大小。如圖3所示。所述步驟四中裁剪的方法是:根據(jù)前述步驟三中獲取的鼻子和眼睛瞳孔的位置坐標(biāo)以及比例關(guān)系,以鼻子為中心,以兩眼之間的距離的2倍為寬,以鼻子到兩眼之間連線的垂直距離的5倍為高,畫出一個矩形區(qū)域,按照此矩形區(qū)域?qū)υ瓐D像進行裁剪。如圖4所示。所述步驟五中剔除非微表情圖像的方法:選取一張無表情的圖像作為模板,對上述步驟四中裁剪出來的圖像逐個比較其與模板圖像的灰度直方圖的差異,如果幀間的灰度直方圖差異小于根據(jù)圖像內(nèi)容自動選取的閾值時,則把該幀圖像認為是非微表情圖像,并剔除掉;如果幀間差異大于根據(jù)圖像內(nèi)容自動選取的閾值,則把該幀圖像認為是微表情圖像;上述根據(jù)圖像內(nèi)容自動選取閾值的方法為:假設(shè)Di為第i幀圖像與無表情模板圖像的灰度直方圖的差值,α為自適應(yīng)系數(shù),其中0≤α≤1,設(shè)置常數(shù)c是為了防止幀間差值幾乎為零時而無法自動選取閾值,當(dāng)滿足下式時,則把該幀圖像認為是非微表情圖像其中,Dq為第q幀圖像與無表情模板圖像的灰度直方圖的差值;當(dāng)時,則把該幀圖像認為是微表情圖像。如圖5所示為分離出來的非微表情的圖像,如圖6所示為分離出來的微表情的圖像。所述步驟六中基于內(nèi)容的切段方法為:是通過對圖像紋理特征的描述和比較,對相鄰幀圖像的相關(guān)性進行度量,取得一個描述幀間差距的量,尋找?guī)g差距的局部最大值點所對應(yīng)的幀圖像,即為切段點;幀圖像紋理特征的提取,采用二維Haar小波變換方法,是對幀圖像進行2層小波變換,以小波變換的7個小波系數(shù)組成一個特征向量,作為幀圖像的紋理特征表述方式;根據(jù)幀圖像描述紋理特征的特征向量計算出相鄰幀之間特征向量的歐氏距離,作為度量幀間差值的量,找出幀間差值取局部最大值點,以對應(yīng)幀作為切段點,即從中提取出微表情視頻的獨立子段,實現(xiàn)建庫視頻的自動切段,具體步驟如下:(1)采用二維Haar小波變換方法對幀圖像進行2層小波變換,假設(shè)j為采用小波變換對圖像分解的級數(shù),則第j級二維圖像小波系數(shù)由第j-1級的小波系數(shù)的加權(quán)和表示,其中h()為低通分解濾波器,g()為高通分解濾波器,第j級圖像的像素點的行和列用m,n來表示,第j-1級圖像像素點的行和列用k,l來表示;低頻子圖像的小波系數(shù)水平高頻子圖像的小波系數(shù)垂直高頻子圖像的小波系數(shù)對角高頻子圖像的小波系數(shù)如圖7所示為二維離散小波變換示意圖,圖8為選取了一張微表情的2層Haar小波變換結(jié)果,圖9為圖8對應(yīng)的小波系數(shù)表示。對圖像進行2層Haar小波變換有7個小波系數(shù),把這7個小波系數(shù)組合成一個特征向量其中,上角標(biāo)j和j+1分別表示第j級和第j+1級,D表示對角高頻標(biāo)識,h表示水平高頻標(biāo)識,v表示垂直高頻標(biāo)識;(2)計算幀間特征向量的歐氏距離Ci,幀間特征向量的歐氏距離如圖10所示:其中,和分別表示第i幀和第i-1幀的由Haar小波系數(shù)組成的特征向量;(3)對幀間特征向量的歐氏距離取大于平均值的局部最大值,而且局部最大值要求大于前后3幀的距離值,如圖10中所示,畫小圓圈的尖峰點表示歐氏距離取得局部最大值的點,得到切段點幀圖像的序號為:5,12,16,20,27,31,35,39,45,53,59,63,71,77,82,86。以這些幀作為切段點,即可從中提取出微表情的獨立子段,從而實現(xiàn)對建庫視頻的自動切段。如圖11所示,畫方框的幀圖像表示微表情獨立子段的切段點。
當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
拉孜县| 慈溪市| 遵化市| 聊城市| 象山县| 南岸区| 华坪县| 农安县| 密云县| 兴业县| 龙泉市| 连山| 重庆市| 沁源县| 澄江县| 江陵县| 灵丘县| 五河县| 平罗县| 彰化市| 平湖市| 安溪县| 郑州市| 安多县| 鄂托克旗| 华坪县| 江永县| 资中县| 永丰县| 天峻县| 阳新县| 兴和县| 楚雄市| 新田县| 德江县| 海原县| 获嘉县| 贺州市| 江城| 龙门县| 宽城|