一種基于視頻的機(jī)車司機(jī)駕駛狀態(tài)檢測方法
【技術(shù)領(lǐng)域】
[0001] 本發(fā)明涉及一種基于視頻的機(jī)車司機(jī)駕駛狀態(tài)檢測方法,屬于圖像處理技術(shù)領(lǐng) 域。
【背景技術(shù)】
[0002] 隨著中國鐵路運輸事業(yè)的蓬勃發(fā)展,機(jī)車駕駛速度的不斷提高,機(jī)車運行的安全 問題更加突出,影響機(jī)車安全運行的因素很多,但是機(jī)車司機(jī)的駕駛行為在機(jī)車安全運行 方面占據(jù)不可忽略的地位。因此,研宄和開發(fā)機(jī)車司機(jī)疲勞駕駛檢測技術(shù),能有效預(yù)防和減 少機(jī)車司機(jī)駕駛行為不當(dāng)帶來的安全隱患。
[0003] 實時監(jiān)測機(jī)車司機(jī)疲勞駕駛狀態(tài)并及時給出報警信息,可以較大程度地減少疲勞 駕駛的情況發(fā)生。在實際情況中,機(jī)車司機(jī)需要在機(jī)車行駛過程不間斷的站立瞭望,以確 保機(jī)車的安全運行。目前國內(nèi)、外沒有針對機(jī)車司機(jī)站立瞭望和駕駛位駕駛兩種情況下的 駕駛狀態(tài)同時監(jiān)測的技術(shù),會將機(jī)車司機(jī)站立瞭望誤判為機(jī)車司機(jī)脫崗?,F(xiàn)有的檢測方 法通過PERCLOS檢測、頭部位置、嘴部狀態(tài)參數(shù)等來判斷機(jī)車司機(jī)疲勞狀態(tài),如申請?zhí)枮?201410848027的專利申請文件,該文件公開了一種基于Kinect及人臉識別的疲勞駕駛監(jiān) 測方法,該方法就是通過提取人臉中的眼部圖像和嘴部圖像,通過檢測眨眼頻率的變化率、 閉眼時間和嘴部打哈欠的特征來判斷駕駛員是否處于疲勞狀態(tài),而當(dāng)機(jī)車司機(jī)睜著眼睛睡 著的時候,通過上述方式檢測不到司機(jī)疲勞駕駛,出現(xiàn)漏報現(xiàn)象等,且頭部位置會根據(jù)司機(jī) 的身高變化,單純根據(jù)以上幾個參數(shù)判斷會出現(xiàn)漏判、誤判。
【發(fā)明內(nèi)容】
[0004] 本發(fā)明的目的是提供一種基于視頻的機(jī)車司機(jī)駕駛狀態(tài)檢測方法,以解決現(xiàn)有司 機(jī)駕駛狀態(tài)檢測過程出現(xiàn)的漏判和誤判的問題。
[0005] 本發(fā)明為解決上述技術(shù)問題而提供一種基于視頻的機(jī)車司機(jī)駕駛狀態(tài)檢測方法, 該駕駛狀態(tài)檢測方法包括以下步驟:
[0006] 1)采集機(jī)車司機(jī)站立工作位和駕駛工作位的視頻圖像,判斷上述圖像是否有人, 若均沒有人,則判斷機(jī)車司機(jī)處于離崗狀態(tài);
[0007] 2)當(dāng)站立工作位的視頻圖像中有人時,對司機(jī)的人臉區(qū)域進(jìn)行跟蹤檢測,人臉區(qū) 域在設(shè)定時間內(nèi)發(fā)生變化的次數(shù)小于設(shè)定值,說明司機(jī)處于疲勞狀態(tài),否則,說明司機(jī)在進(jìn) 行正常瞭望,返回步驟1)采集下一幀圖像;
[0008] 3)當(dāng)駕駛工作位的視頻圖像有人時,檢測司機(jī)的操作頻率參數(shù)、眼睛狀態(tài)參數(shù)和 嘴巴狀態(tài)參數(shù),當(dāng)任一參數(shù)出現(xiàn)異常時判斷司機(jī)處于疲勞狀態(tài),否則,返回步驟1)采集下 一幀圖像。
[0009] 該方法還包括對駕駛員姿態(tài)的檢測,該檢測通過支持向量回歸算法計算人臉旋轉(zhuǎn) 角度,若人臉旋轉(zhuǎn)角度在設(shè)定范圍內(nèi),說明駕駛姿態(tài)正常,否則說明需要端正駕駛姿態(tài)。
[0010] 所述步驟1)中是利用分類器檢測司機(jī)所有姿態(tài)的人臉圖像來判斷圖像中是否有 人,該分類檢測器中設(shè)置有訓(xùn)練正樣本和負(fù)樣本,所述訓(xùn)練正樣本中存儲有包含司機(jī)臉部 垂直旋轉(zhuǎn)角度和繞垂直軸旋轉(zhuǎn)角度在設(shè)定角度范圍內(nèi)的圖像。
[0011] 所述的步驟2)中采用Context Tracking跟蹤算法對人臉區(qū)域進(jìn)行跟蹤。
[0012] 所述步驟3)中的眼睛狀態(tài)參數(shù)包括PERCL0S、眨眼頻率和眨眼持續(xù)時間,所述 PERCL0S指在單位時間內(nèi)眼睛閉合程度,眨眼頻率用于表示眼睛狀態(tài)變化的快慢,眨眼持續(xù) 時間指眼睛從睜開到閉合再到睜開這一過程所用的時間。
[0013] 所述嘴巴狀態(tài)參數(shù)指的是嘴巴區(qū)域的寬度和高度的比值。
[0014] 所述步驟3)中眼睛狀態(tài)參數(shù)和嘴巴狀態(tài)參數(shù)的檢測是利用基于學(xué)習(xí)的多尺度眼 睛檢測器和嘴巴檢測器進(jìn)行定位實現(xiàn)。
[0015] 所述步驟3)中眼睛和嘴巴疲勞狀態(tài)的判斷過程如下:
[0016] a).判斷眼睛參數(shù)PERCL0S是否大于設(shè)定值,若是,則判斷司機(jī)處于疲勞狀態(tài),結(jié) 束處理,否則進(jìn)入步驟b);
[0017] b).判斷眨眼頻率是否低于設(shè)定值,若是,則判斷司機(jī)處于疲勞狀態(tài),結(jié)束處理,否 則進(jìn)入步驟c);
[0018] c).判斷眨眼持續(xù)時間否大于設(shè)定值,若大于,則判斷司機(jī)處于疲勞狀態(tài),結(jié)束處 理,否則進(jìn)入步驟d);
[0019] d).判斷嘴巴張開程度是否大于設(shè)定閾值,若大于,則判斷司機(jī)處于疲勞狀態(tài),結(jié) 束處理,否則進(jìn)入步驟1)采集下一幀視頻圖像。
[0020] 所述操作頻率參數(shù)可通過調(diào)用機(jī)車的運行記錄文件得到,包括司機(jī)對手柄的操 作、速度的調(diào)整、顯示器按鍵的操作和機(jī)車管壓的調(diào)整。
[0021] 當(dāng)離崗次數(shù)大于設(shè)定值時、駕駛員處于疲勞狀態(tài)以及駕駛員姿態(tài)不正常時均可通 過報警進(jìn)行提醒。
[0022] 本發(fā)明的有益效果是:本發(fā)明通過兩個攝像頭分別采集機(jī)車司機(jī)站立工作位和 駕駛位工作位的視頻圖像,根據(jù)上述圖像上是否有人判斷機(jī)車司機(jī)是否處于離崗狀態(tài),避 免了當(dāng)司機(jī)在站立瞭望時被誤判為離崗狀態(tài);當(dāng)站立工作位的視頻圖像中有人時,對司機(jī) 的人臉區(qū)域進(jìn)行跟蹤檢測,如果人臉區(qū)域在一段時間內(nèi)不發(fā)生變化或者很少發(fā)生變化,說 明司機(jī)處于疲勞狀態(tài),如果人臉區(qū)域在不斷變化中,說明司機(jī)在進(jìn)行正常瞭望;當(dāng)駕駛位工 作位的視頻圖像有人時,通過檢測司機(jī)的操作頻率參數(shù)、眼睛狀態(tài)參數(shù)和嘴巴狀態(tài)參數(shù)來 判斷司機(jī)是否處于疲勞狀態(tài),避免了當(dāng)機(jī)車司機(jī)睜著眼睛睡著時漏判的現(xiàn)象。本發(fā)明解決 了檢測不到機(jī)車司機(jī)站立瞭望以及對司機(jī)疲勞駕駛狀態(tài)判斷不準(zhǔn)確的問題,實現(xiàn)了對機(jī)車 司機(jī)駕駛狀態(tài)的全面檢測。
【附圖說明】
[0023] 圖1是本發(fā)明實施例中兩個攝像頭的安裝位置示意圖;
[0024] 圖2是本發(fā)明實施例中的機(jī)車司機(jī)駕駛檢測方法的流程圖。
【具體實施方式】
[0025] 下面結(jié)合附圖對本發(fā)明的【具體實施方式】作進(jìn)一步的說明。
[0026] 如圖1所示,本發(fā)明首先采用兩個攝像頭分別采集機(jī)車司機(jī)站立工作位和駕駛工 作位的視頻圖像,判斷上述圖像是否有人,若均沒有人,則判斷機(jī)車司機(jī)處于離崗狀態(tài);當(dāng) 站立工作位的視頻圖像中有人時,對司機(jī)的人臉區(qū)域進(jìn)行跟蹤檢測,如果人臉姿態(tài)在一段 時間內(nèi)不發(fā)生變化或者很少發(fā)生變化,說明司機(jī)處于疲勞狀態(tài),如果人臉區(qū)域在不斷變化 中,說明司機(jī)在進(jìn)行正常瞭望;當(dāng)駕駛工作位的視頻圖像有人時,檢測司機(jī)的操作頻率參 數(shù)、眼睛狀態(tài)參數(shù)和嘴巴狀態(tài)參數(shù),當(dāng)任一參數(shù)出現(xiàn)異常時則判斷司機(jī)處于疲勞狀態(tài),從而 實現(xiàn)對機(jī)車司機(jī)駕駛狀態(tài)的實時檢測。
[0027] 該方法的具體流程如圖2所示,下面對該方法的具體實施過程進(jìn)行描述。
[0028] 1.采集機(jī)車司機(jī)站立工作位和駕駛工作位的視頻圖像。
[0029] 如圖1所示,本發(fā)明采用兩個攝像頭實現(xiàn),攝像頭1設(shè)置在機(jī)車司機(jī)駕駛工作位附 近,以采集司機(jī)坐在座位上時的上半身正面圖像,攝像頭2設(shè)置在機(jī)車司機(jī)站立工作位附 近,以采集司機(jī)站立時的上半身正面圖像。
[0030] 2.對采集到圖像進(jìn)行人臉檢測定位,判斷視頻圖像中是否有人。
[0031] 具體做法:利用Adaboost算法,提取Haar特征訓(xùn)練得到人臉檢測器,對人臉進(jìn)行 跟蹤檢測,以實時地在復(fù)雜背景情況下檢測并定位到人臉區(qū)域,檢測攝像頭1采集的