本發(fā)明涉及交通監(jiān)控技術(shù)領(lǐng)域,特別涉及一種交通事故監(jiān)控方法及系統(tǒng)。
背景技術(shù):
目前,隨著經(jīng)濟的快速發(fā)展,城市的汽車保有量不斷增加,導(dǎo)致現(xiàn)在許多城市的日常交通變得越來越擁堵,并且交通事故不斷頻發(fā),給人們的生命財產(chǎn)安全造成了極度惡劣的影響。
為了盡可能地減少交通事故數(shù)量以及降低交通事故所引發(fā)的生命財產(chǎn)損失,有必要對道路上可能出現(xiàn)的交通事故進行實時監(jiān)控。而如何實現(xiàn)對交通事故的有效監(jiān)控是目前還有待解決的問題。
技術(shù)實現(xiàn)要素:
有鑒于此,本發(fā)明的目的在于提供一種交通事故監(jiān)控方法及系統(tǒng),實現(xiàn)了對交通事故的有效監(jiān)控。其具體方案如下:
一種交通事故監(jiān)控方法,包括:
獲取路況視頻;
提取所述路況視頻的特征信息;其中,所述路況視頻的特征信息包括所述路況視頻的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征;
將根據(jù)所述路況視頻的特征信息生成的特征向量輸入預(yù)先創(chuàng)建的交通事故預(yù)估模型,得到由所述交通事故預(yù)估模型輸出的交通事故發(fā)生概率;其中,所述交通事故預(yù)估模型為基于機器學(xué)習(xí)算法得到的模型;
若所述交通事故發(fā)生概率大于預(yù)設(shè)概率閾值,則觸發(fā)相應(yīng)的事故響應(yīng)機制。
優(yōu)選的,提取所述路況視頻的視覺詞典的過程,包括:
利用預(yù)設(shè)的圖像特征點提取算法,提取所述路況視頻中車輛所在區(qū)域上的特征點,得到相應(yīng)的車輛視覺詞匯集合;
將所述車輛視覺詞匯集合中的每一個詞匯分別映射至預(yù)先創(chuàng)建的視覺詞典模型中相對應(yīng)的聚類中心,得到所述路況視頻的視覺詞典。
優(yōu)選的,所述視覺詞典模型的創(chuàng)建過程,包括:
獲取視頻圖像樣本集;其中,所述視頻圖像樣本集包括分別在不同的拍攝參數(shù)和不同的拍攝環(huán)境下,對不同類型的車輛進行視頻圖像采集后得到的視頻圖像;拍攝參數(shù)包括拍攝視角和拍攝時間段,拍攝環(huán)境包括霧天環(huán)境、雨雪環(huán)境、晴天環(huán)境和沙塵環(huán)境;
利用所述圖像特征點提取算法,對所述視頻圖像樣本集中的每一視頻圖像樣本進行特征點提取處理,相應(yīng)地得到每一視頻圖像樣本所對應(yīng)的車輛視覺詞匯集合;
利用K-means聚類算法,依次對每一視頻圖像樣本所對應(yīng)的車輛視覺詞匯集合進行聚類處理,得到所述視覺詞典模型。
優(yōu)選的,所述路況視頻的車流特征包括車流量、車流速度、車流占有率、換道頻率、加速度變化率和最大角速度;
所述路況視頻的司機狀態(tài)特征包括司機疲勞度;
所述路況視頻的道路特征包括交通燈設(shè)置狀況、道路坡度、道路彎曲度和道路摩擦因子;
所述路況視頻的環(huán)境特征包括路面異物狀況和天氣狀況;
所述路況視頻的時間特征包括視頻拍攝日期和視頻拍攝時刻。
優(yōu)選的,所述觸發(fā)相應(yīng)的事故響應(yīng)機制的過程,包括:
產(chǎn)生第一控制指令;
將所述第一控制指令以及事故路段的位置信息發(fā)送至預(yù)先綁定的無人機,以利用所述第一控制指令,控制所述無人機開啟自身攜帶的畫面采集裝置以及飛行至所述事故路段的上空區(qū)域;
獲取所述無人機發(fā)送的由所述畫面采集裝置采集到的事故路段實時畫面。
優(yōu)選的,所述觸發(fā)相應(yīng)的事故響應(yīng)機制的過程,包括:
產(chǎn)生第二控制指令;
將所述第二控制指令發(fā)送至預(yù)先在事故路段上設(shè)置的報警裝置,以利用所述第二控制指令,控制所述報警裝置發(fā)出相應(yīng)的警報信息。
優(yōu)選的,所述交通事故預(yù)估模型的創(chuàng)建過程,包括:
獲取訓(xùn)練集;其中,所述訓(xùn)練集包括正樣本訓(xùn)練集和負樣本訓(xùn)練集;所述正樣本訓(xùn)練集包括N個正樣本視頻,所述負樣本訓(xùn)練集包括M個負樣本視頻,N和M均為正整數(shù);正樣本視頻為包含交通事故畫面的視頻,負樣本視頻為不包含交通事故畫面的視頻;
分別提取所述訓(xùn)練集中每一個視頻的特征信息,并分別根據(jù)每一個視頻的特征信息生成相應(yīng)的特征向量,得到相應(yīng)的特征向量集;
利用所述機器學(xué)習(xí)算法,對所述特征向量集中的每個特征向量進行學(xué)習(xí)訓(xùn)練,得到所述交通事故預(yù)估模型。
本發(fā)明還公開了一種交通事故監(jiān)控系統(tǒng),包括:
視頻獲取裝置,用于獲取路況視頻;
特征信息提取模塊,用于提取所述路況視頻的特征信息;其中,所述路況視頻的特征信息包括所述路況視頻的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征;
特征向量生成模塊,用于根據(jù)所述路況視頻的特征信息,生成相應(yīng)的特征向量;
模型創(chuàng)建模塊,用于預(yù)先基于機器學(xué)習(xí)算法創(chuàng)建交通事故預(yù)估模型;
事故預(yù)估模塊,用于將所述特征向量生成模塊生成的特征向量輸入所述交通事故預(yù)估模型,得到由所述交通事故預(yù)估模型輸出的交通事故發(fā)生概率;其中,所述交通事故預(yù)估模型為基于機器學(xué)習(xí)算法得到的模型;
事故響應(yīng)模塊,用于當(dāng)所述交通事故發(fā)生概率大于預(yù)設(shè)概率閾值,則觸發(fā)相應(yīng)的事故響應(yīng)機制。
優(yōu)選的,所述事故響應(yīng)模塊,包括:
第一指令生成單元,用于產(chǎn)生第一控制指令;
控制信息發(fā)送單元,用于將所述第一控制指令以及事故路段的位置信息發(fā)送至預(yù)先綁定的無人機,以利用所述第一控制指令,控制所述無人機開啟自身攜帶的畫面采集裝置以及飛行至所述事故路段的上空區(qū)域;
畫面信息獲取單元,用于獲取所述無人機發(fā)送的由所述畫面采集裝置采集到的事故路段實時畫面。
優(yōu)選的,所述模型創(chuàng)建模塊,包括:
訓(xùn)練集獲取子模塊,用于獲取訓(xùn)練集;其中,所述訓(xùn)練集包括正樣本訓(xùn)練集和負樣本訓(xùn)練集;所述正樣本訓(xùn)練集包括N個正樣本視頻,所述負樣本訓(xùn)練集包括M個負樣本視頻,N和M均為正整數(shù);正樣本視頻為包含交通事故畫面的視頻,負樣本視頻為不包含交通事故畫面的視頻;
視頻處理子模塊,用于分別提取所述訓(xùn)練集中每一個視頻的特征信息,并分別根據(jù)每一個視頻的特征信息生成相應(yīng)的特征向量,得到相應(yīng)的特征向量集;
訓(xùn)練子模塊,用于利用所述機器學(xué)習(xí)算法,對所述特征向量集中的每個特征向量進行學(xué)習(xí)訓(xùn)練,得到所述交通事故預(yù)估模型。
本發(fā)明中,交通事故監(jiān)控方法,包括:獲取路況視頻;提取路況視頻的特征信息;其中,路況視頻的特征信息包括路況視頻的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征;將根據(jù)路況視頻的特征信息生成的特征向量輸入預(yù)先創(chuàng)建的交通事故預(yù)估模型,得到由交通事故預(yù)估模型輸出的交通事故發(fā)生概率;其中,交通事故預(yù)估模型為基于機器學(xué)習(xí)算法得到的模型;若交通事故發(fā)生概率大于預(yù)設(shè)概率閾值,則觸發(fā)相應(yīng)的事故響應(yīng)機制。
可見,本發(fā)明預(yù)先基于機器學(xué)習(xí)算法創(chuàng)建了交通事故預(yù)估模型,在獲取到路況視頻后,將會對路況視頻中的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征,然后將根據(jù)這些特征信息生成的特征向量輸入至上述交通事故預(yù)估模型,從而得到相應(yīng)的交通事故發(fā)生概率,基于該交通事故發(fā)生概率,可確定出是否需要啟動相應(yīng)的事故響應(yīng)機制。由于路況視頻中的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征能夠客觀、全面地反映出當(dāng)前路況交通的狀況,可使得最終通過上述交通事故預(yù)估模型所得到的交通事故發(fā)生概率能夠比較準確地反映出當(dāng)前路況下發(fā)生交通事故的可能性。由此可見,本發(fā)明實現(xiàn)了對交通事故的有效監(jiān)控。
附圖說明
為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)提供的附圖獲得其他的附圖。
圖1為本發(fā)明實施例公開的一種交通事故監(jiān)控方法流程圖;
圖2為本發(fā)明實施例公開的視覺詞典模型創(chuàng)建方法流程圖;
圖3為本發(fā)明實施例公開的交通事故預(yù)估模型創(chuàng)建方法流程圖;
圖4為本發(fā)明實施例公開的一種交通事故監(jiān)控系統(tǒng)結(jié)構(gòu)示意圖。
具體實施方式
下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
本發(fā)明實施例公開了一種交通事故監(jiān)控方法,參見圖1所示,該方法包括:
步驟S11:獲取路況視頻。
具體的,本實施例可以利用安裝在道路旁的攝像機來對當(dāng)前道路上的路況進行實時的視頻畫面采集,得到上述路況視頻。
步驟S12:提取路況視頻的特征信息;其中,路況視頻的特征信息包括路況視頻的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征。
可以理解的是,在提取上述路況視頻的特征信息之前,還可以對上述路況視頻進行預(yù)處理,該預(yù)處理過程包括但不限于視頻畫面縮放處理、視頻畫面降噪處理和視頻畫質(zhì)增強處理。
另外,需要說明的是,本實施例中,上述視覺詞典中的視覺詞匯具體為路況視頻中車輛所在區(qū)域上的車輛特征點信息。
步驟S13:將根據(jù)路況視頻的特征信息生成的特征向量輸入預(yù)先創(chuàng)建的交通事故預(yù)估模型,得到由交通事故預(yù)估模型輸出的交通事故發(fā)生概率;其中,交通事故預(yù)估模型為基于機器學(xué)習(xí)算法得到的模型。
也即,本實施例需要利用上述步驟S12中提取到的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征,來生成相對應(yīng)的特征向量,然后將該特征向量輸入至預(yù)先基于機器學(xué)習(xí)算法得到的交通事故預(yù)估模型。
本實施例中,上述步驟S13中的機器學(xué)習(xí)算法優(yōu)先采用SVM算法(SVM,即Support Vector Machine)。
步驟S14:若交通事故發(fā)生概率大于預(yù)設(shè)概率閾值,則觸發(fā)相應(yīng)的事故響應(yīng)機制。
本實施例中,上述預(yù)設(shè)概率閾值具體可以為第一概率閾值,當(dāng)上述步驟S13中所得到的交通事故發(fā)生概率大于上述第一概率閾值,則意味著當(dāng)前道路上的交通狀況比較惡劣,如果不進行交通干預(yù),很可能會出現(xiàn)交通事故,此時可以觸發(fā)事故預(yù)警響應(yīng)機制。
當(dāng)然,上述預(yù)設(shè)概率閾值具體可以為第二概率閾值,當(dāng)上述步驟S13中所得到的交通事故發(fā)生概率大于上述第二概率閾值,則可以認定當(dāng)前道路上已經(jīng)出現(xiàn)了交通事故,此時可以觸發(fā)事故后處理響應(yīng)機制。
可以理解的是,上述第二概率閾值大于上述第一概率閾值,這兩個概率閾值具體可以根據(jù)實際情況需要來進行設(shè)定,在此不對其進行具體限定。
可見,本發(fā)明實施例預(yù)先基于機器學(xué)習(xí)算法創(chuàng)建了交通事故預(yù)估模型,在獲取到路況視頻后,將會對路況視頻中的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征,然后將根據(jù)這些特征信息生成的特征向量輸入至上述交通事故預(yù)估模型,從而得到相應(yīng)的交通事故發(fā)生概率,基于該交通事故發(fā)生概率,可確定出是否需要啟動相應(yīng)的事故響應(yīng)機制。由于路況視頻中的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征能夠客觀、全面地反映出當(dāng)前路況交通的狀況,可使得最終通過上述交通事故預(yù)估模型所得到的交通事故發(fā)生概率能夠比較準確地反映出當(dāng)前路況下發(fā)生交通事故的可能性。由此可見,本發(fā)明實施例實現(xiàn)了對交通事故的有效監(jiān)控。
本發(fā)明實施例公開了一種具體的交通事故監(jiān)控方法,相對于上一實施例,本實施例對技術(shù)方案作了進一步的說明和優(yōu)化。具體的:
上一實施例步驟S12中,需要對路況視頻中的特征信息進行提取。具體的,本實施例中,上述提取路況視頻的視覺詞典的過程,具體包括下面步驟S121和S122:
步驟S121:利用預(yù)設(shè)的圖像特征點提取算法,提取路況視頻中車輛所在區(qū)域上的特征點,得到相應(yīng)的車輛視覺詞匯集合。
可以理解的是,上述路況視頻中車輛所在區(qū)域上的特征點構(gòu)成了該路況視頻的視覺詞匯,該路況視頻中車輛所在區(qū)域上的所有特征點構(gòu)成了上述路況視頻對應(yīng)的車輛視覺詞匯集合。
步驟S122:將車輛視覺詞匯集合中的每一個詞匯分別映射至預(yù)先創(chuàng)建的視覺詞典模型中相對應(yīng)的聚類中心,得到路況視頻的視覺詞典。
也即,根據(jù)上述視覺詞典模型中相對應(yīng)的聚類中心,對上述車輛視覺詞匯集合中的每個詞匯進行分類處理,然后統(tǒng)計每類詞匯中的詞匯頻率,從而得到與上述路況視頻對應(yīng)的視覺詞典??梢岳斫獾氖?,上述視覺詞典反映了路況視頻中車輛的特征信息。
另外,參見圖2所示,上述視覺詞典模型的創(chuàng)建過程,具體包括:
步驟S21:獲取視頻圖像樣本集;其中,視頻圖像樣本集包括分別在不同的拍攝參數(shù)和不同的拍攝環(huán)境下,對不同類型的車輛進行視頻圖像采集后得到的視頻圖像;拍攝參數(shù)包括拍攝視角和拍攝時間段,拍攝環(huán)境包括霧天環(huán)境、雨雪環(huán)境、晴天環(huán)境和沙塵環(huán)境;
步驟S22:利用圖像特征點提取算法,對視頻圖像樣本集中的每一視頻圖像樣本進行特征點提取處理,相應(yīng)地得到每一視頻圖像樣本所對應(yīng)的車輛視覺詞匯集合;
步驟S23:利用K-means聚類算法,依次對每一視頻圖像樣本所對應(yīng)的車輛視覺詞匯集合進行聚類處理,得到視覺詞典模型。
本實施例中,上述圖像特征點提取算法具體可以為SIFT算法(SIFT,即Scale-Invariant Feature Transform,尺度不變特征變換)或SURF算法(SURF,即Speeded Up Robust Features,加速穩(wěn)健特征)。
上一實施例步驟S12中,所提取的路況視頻的特征信息包括路況視頻的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征。
具體的,上述路況視頻的車流特征包括車流量、車流速度、車流占有率、換道頻率、加速度變化率和最大角速度。
其中,上述車流量是指在某一特定時間段內(nèi)通過某個檢測斷面的行駛車輛數(shù);上述車流速度是指路況視頻中各輛車速度的算術(shù)平均值;上述加速度變化率是指在在某一特定時間段內(nèi)車輛加速度的方差值;上述最大角速度是指在某一特定時間段內(nèi)通過道路的最大角速度;上述車流占有率是指車輛占有長度總和與路面長度的比值,考慮到無法在路段上采用直接的方法來測量車輛長度的總和,本發(fā)明實施例具體可以利用時間量來間接計算上述車流占有率,具體的計算公式為:
式中,F(xiàn)occupy表示車流占有率,Toccupy表示道路被車輛占有的時間,Tall表示總觀測時間。
另外,上述換道頻率是指在某一特定時間段內(nèi)車輛的平均換道次數(shù),相應(yīng)的計算公式為:
式中,F(xiàn)channel表示換道頻率,nchannel表示換道總次數(shù),F(xiàn)num表示路況視頻中的車輛總數(shù)。
本實施例中,上述路況視頻的司機狀態(tài)特征包括司機疲勞度。具體的,可以采用司機的眨眼頻次作為衡量司機疲勞度的參數(shù)。
本實施例中,上述路況視頻的道路特征包括交通燈設(shè)置狀況、道路坡度、道路彎曲度和道路摩擦因子。具體的,本實施例可以通過判斷是否有交通燈來衡量道路的交通燈設(shè)置狀況;上述道路坡度可以通過利用道路的高度除以道路的水平距離來得到;上述道路彎曲度具體表示為在道路方向上每米長度所對應(yīng)的彎曲弦高;上述道路摩擦因子具體為輪胎與路面間的摩擦系數(shù)。
本實施例中,上述路況視頻的環(huán)境特征包括路面異物狀況和天氣狀況。其中,上述路面異物狀況具體可以表示為道路的垃圾占有長度與道路總長度的比值;上述天氣狀況包括霧天、雨雪天氣、晴天和沙塵天氣等。
本實施例中,上述路況視頻的時間特征包括視頻拍攝日期和視頻拍攝時刻。
上一實施例步驟S14中,在交通事故發(fā)生概率大于預(yù)設(shè)概率閾值的情況下,會觸發(fā)相應(yīng)的事故響應(yīng)機制。具體的,本實施例中,上述觸發(fā)相應(yīng)的事故響應(yīng)機制的過程,包括下面步驟S141至S143:
步驟S141:產(chǎn)生第一控制指令;
步驟S142:將第一控制指令以及事故路段的位置信息發(fā)送至預(yù)先綁定的無人機,以利用第一控制指令,控制無人機開啟自身攜帶的畫面采集裝置以及飛行至事故路段的上空區(qū)域;
步驟S143:獲取無人機發(fā)送的由畫面采集裝置采集到的事故路段實時畫面。
可以理解的是,上述步驟S141至S143中所對應(yīng)的事故響應(yīng)機制具體可以是判定道路已經(jīng)出現(xiàn)交通事故的情況之后展開的,當(dāng)然,也可以是在判定出將會出現(xiàn)交通事故之后展開。
需要進一步指出的是,在判定道路已經(jīng)出現(xiàn)交通事故的情況之后,可以利用上述人工識別方法或深度學(xué)習(xí)算法,對上述無人機發(fā)送的事故路段實時畫面進行分析,得到當(dāng)前道路上的交通事故等級。
本實施例中,交通事故等級可以劃分為:一般事故,意味著車輛有輕微的損傷;較大事故,意味著車輛變形較嚴重,車輛內(nèi)的人員均可以正常行動;重大事故,意味著車輛內(nèi)的人員負傷,并且出血嚴重;特別重大事故,意味著車輛內(nèi)的人員被困與車內(nèi)。
進一步的,上述觸發(fā)相應(yīng)的事故響應(yīng)機制的過程,還可以括:產(chǎn)生第二控制指令,然后將第二控制指令發(fā)送至預(yù)先在事故路段上設(shè)置的報警裝置,以利用第二控制指令,控制報警裝置發(fā)出相應(yīng)的警報信息。
需要說明的是,上述報警裝置可以預(yù)先設(shè)置于交通信號桿上,也可以設(shè)置在事故路段的兩旁,例如設(shè)置在道路兩旁路燈燈桿上。上述報警裝置的數(shù)量可以是一個,也可以是一個以上。上述報警裝置的類型具體可以是聲光報警器,當(dāng)然,也可以采用語音報警器。
上一實施例步驟S13中,需要利用預(yù)先創(chuàng)建的交通事故預(yù)估模型來確定當(dāng)前的交通事故發(fā)生概率。參見圖3所示,上述交通事故預(yù)估模型的創(chuàng)建過程,具體可以包括:
步驟S131:獲取訓(xùn)練集;其中,訓(xùn)練集包括正樣本訓(xùn)練集和負樣本訓(xùn)練集;正樣本訓(xùn)練集包括N個正樣本視頻,負樣本訓(xùn)練集包括M個負樣本視頻,N和M均為正整數(shù);正樣本視頻為包含交通事故畫面的視頻,負樣本視頻為不包含交通事故畫面的視頻。
需要說明的是,為了出現(xiàn)數(shù)據(jù)傾斜的現(xiàn)象,本實施例中可以盡量保證上述正樣本訓(xùn)練集和負樣本訓(xùn)練集中的樣本數(shù)量相同或大致相同,也即,盡量保證上述N值和M值相同或相近。
步驟S132:分別提取訓(xùn)練集中每一個視頻的特征信息,并分別根據(jù)每一個視頻的特征信息生成相應(yīng)的特征向量,得到相應(yīng)的特征向量集。
其中,上述步驟S132在提取訓(xùn)練集中每個視頻的特征信息的具體過程與上一實施例步驟S12中的提取路況視頻的特征信息的具體過程相似,在此不再進行贅述。
步驟S133:利用機器學(xué)習(xí)算法,對特征向量集中的每個特征向量進行學(xué)習(xí)訓(xùn)練,得到交通事故預(yù)估模型。
其中,上述機器學(xué)習(xí)算法具體可以為SVM算法。
相應(yīng)的,本發(fā)明實施例還公開了一種交通事故監(jiān)控系統(tǒng),參見圖4所示,該系統(tǒng)包括:
視頻獲取裝置11,用于獲取路況視頻;
特征信息提取模塊12,用于提取路況視頻的特征信息;其中,路況視頻的特征信息包括路況視頻的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征;
特征向量生成模塊13,用于根據(jù)路況視頻的特征信息,生成相應(yīng)的特征向量;
模型創(chuàng)建模塊14,用于預(yù)先基于機器學(xué)習(xí)算法創(chuàng)建交通事故預(yù)估模型;
事故預(yù)估模塊15,用于將特征向量生成模塊13生成的特征向量輸入交通事故預(yù)估模型,得到由交通事故預(yù)估模型輸出的交通事故發(fā)生概率;其中,交通事故預(yù)估模型為基于機器學(xué)習(xí)算法得到的模型;
事故響應(yīng)模塊16,用于當(dāng)交通事故發(fā)生概率大于預(yù)設(shè)概率閾值,則觸發(fā)相應(yīng)的事故響應(yīng)機制。
可見,本發(fā)明實施例預(yù)先基于機器學(xué)習(xí)算法創(chuàng)建了交通事故預(yù)估模型,在獲取到路況視頻后,將會對路況視頻中的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征,然后將根據(jù)這些特征信息生成的特征向量輸入至上述交通事故預(yù)估模型,從而得到相應(yīng)的交通事故發(fā)生概率,基于該交通事故發(fā)生概率,可確定出是否需要啟動相應(yīng)的事故響應(yīng)機制。由于路況視頻中的視覺詞典、車流特征、司機狀態(tài)特征、道路特征、環(huán)境特征和時間特征能夠客觀、全面地反映出當(dāng)前路況交通的狀況,可使得最終通過上述交通事故預(yù)估模型所得到的交通事故發(fā)生概率能夠比較準確地反映出當(dāng)前路況下發(fā)生交通事故的可能性。由此可見,本發(fā)明實施例實現(xiàn)了對交通事故的有效監(jiān)控。
本實施例中,上述特征信息提取模塊具體可以包括視覺詞匯提取子模塊、詞典模型創(chuàng)建子模塊和視覺詞典生成子模塊;其中,
視覺詞匯提取子模塊,用于利用預(yù)設(shè)的圖像特征點提取算法,提取路況視頻中車輛所在區(qū)域上的特征點,得到相應(yīng)的車輛視覺詞匯集合;
詞典模型創(chuàng)建子模塊,用于預(yù)先創(chuàng)建視覺詞典模型;
視覺詞典生成子模塊,用于將車輛視覺詞匯集合中的每一個詞匯分別映射至上述視覺詞典模型中相對應(yīng)的聚類中心,得到路況視頻的視覺詞典。
本實施例中,上述詞典模型創(chuàng)建子模塊具體包括樣本集獲取單元、特征點提取單元和詞匯聚類單元;其中,
樣本集獲取單元,用于獲取視頻圖像樣本集;其中,視頻圖像樣本集包括分別在不同的拍攝參數(shù)和不同的拍攝環(huán)境下,對不同類型的車輛進行視頻圖像采集后得到的視頻圖像;拍攝參數(shù)包括拍攝視角和拍攝時間段,拍攝環(huán)境包括霧天環(huán)境、雨雪環(huán)境、晴天環(huán)境和沙塵環(huán)境;
特征點提取單元,用于利用圖像特征點提取算法,對視頻圖像樣本集中的每一視頻圖像樣本進行特征點提取處理,相應(yīng)地得到每一視頻圖像樣本所對應(yīng)的車輛視覺詞匯集合;
詞匯聚類單元,用于利用K-means聚類算法,依次對每一視頻圖像樣本所對應(yīng)的車輛視覺詞匯集合進行聚類處理,得到視覺詞典模型。
本實施例中,上述圖像特征點提取算法具體可以為SIFT算法或SURF算法。
進一步的,上述事故響應(yīng)模塊具體可以包括第一指令生成單元、控制信息發(fā)送單元和畫面信息獲取單元;其中,
第一指令生成單元,用于產(chǎn)生第一控制指令;
控制信息發(fā)送單元,用于將第一控制指令以及事故路段的位置信息發(fā)送至預(yù)先綁定的無人機,以利用第一控制指令,控制無人機開啟自身攜帶的畫面采集裝置以及飛行至事故路段的上空區(qū)域;
畫面信息獲取單元,用于獲取無人機發(fā)送的由畫面采集裝置采集到的事故路段實時畫面。
可以理解的是,上述由第一指令生成單元、控制信息發(fā)送單元和畫面信息獲取單元所觸發(fā)的事故響應(yīng)機制具體可以是判定道路已經(jīng)出現(xiàn)交通事故的情況之后展開的,當(dāng)然,也可以是在判定出將會出現(xiàn)交通事故之后展開。
需要進一步指出的是,在判定道路已經(jīng)出現(xiàn)交通事故的情況之后,還可以包括事故等級獲取模塊,用于通過上述人工識別方法或深度學(xué)習(xí)算法,對上述無人機發(fā)送的事故路段實時畫面進行分析,得到當(dāng)前道路上的交通事故等級。
本實施例中,交通事故等級可以劃分為:一般事故,意味著車輛有輕微的損傷;較大事故,意味著車輛變形較嚴重,車輛內(nèi)的人員均可以正常行動;重大事故,意味著車輛內(nèi)的人員負傷,并且出血嚴重;特別重大事故,意味著車輛內(nèi)的人員被困與車內(nèi)。
當(dāng)然,上述事故響應(yīng)模塊具體也可以包括第二指令生成單元,用于產(chǎn)生第二控制指令,然后將第二控制指令發(fā)送至預(yù)先在事故路段上設(shè)置的報警裝置,以利用第二控制指令,控制報警裝置發(fā)出相應(yīng)的警報信息。
需要說明的是,上述報警裝置可以預(yù)先設(shè)置于交通信號桿上,也可以設(shè)置在事故路段的兩旁,例如設(shè)置在道路兩旁路燈燈桿上。上述報警裝置的數(shù)量可以是一個,也可以是一個以上。上述報警裝置的類型具體可以是聲光報警器,當(dāng)然,也可以采用語音報警器。
另外,本實施例中,上述模型創(chuàng)建模塊,具體包括訓(xùn)練集獲取子模塊、視頻處理子模塊和訓(xùn)練子模塊;其中,
訓(xùn)練集獲取子模塊,用于獲取訓(xùn)練集;其中,訓(xùn)練集包括正樣本訓(xùn)練集和負樣本訓(xùn)練集;正樣本訓(xùn)練集包括N個正樣本視頻,負樣本訓(xùn)練集包括M個負樣本視頻,N和M均為正整數(shù);正樣本視頻為包含交通事故畫面的視頻,負樣本視頻為不包含交通事故畫面的視頻;
視頻處理子模塊,用于分別提取訓(xùn)練集中每一個視頻的特征信息,并分別根據(jù)每一個視頻的特征信息生成相應(yīng)的特征向量,得到相應(yīng)的特征向量集;
訓(xùn)練子模塊,用于利用機器學(xué)習(xí)算法,對特征向量集中的每個特征向量進行學(xué)習(xí)訓(xùn)練,得到交通事故預(yù)估模型。
需要說明的是,為了出現(xiàn)數(shù)據(jù)傾斜的現(xiàn)象,本實施例中可以盡量保證上述正樣本訓(xùn)練集和負樣本訓(xùn)練集中的樣本數(shù)量相同或大致相同,也即,盡量保證上述N值和M值相同或相近。
其中,上述機器學(xué)習(xí)算法具體可以為SVM算法。
最后,還需要說明的是,在本文中,諸如第一和第二等之類的關(guān)系術(shù)語僅僅用來將一個實體或者操作與另一個實體或操作區(qū)分開來,而不一定要求或者暗示這些實體或操作之間存在任何這種實際的關(guān)系或者順序。而且,術(shù)語“包括”、“包含”或者其任何其他變體意在涵蓋非排他性的包含,從而使得包括一系列要素的過程、方法、物品或者設(shè)備不僅包括那些要素,而且還包括沒有明確列出的其他要素,或者是還包括為這種過程、方法、物品或者設(shè)備所固有的要素。在沒有更多限制的情況下,由語句“包括一個……”限定的要素,并不排除在包括所述要素的過程、方法、物品或者設(shè)備中還存在另外的相同要素。
以上對本發(fā)明所提供的一種交通事故監(jiān)控方法及系統(tǒng)進行了詳細介紹,本文中應(yīng)用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想;同時,對于本領(lǐng)域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在具體實施方式及應(yīng)用范圍上均會有改變之處,綜上所述,本說明書內(nèi)容不應(yīng)理解為對本發(fā)明的限制。