個(gè)性化視頻內(nèi)容推薦方法和系統(tǒng)的制作方法
【專利摘要】本發(fā)明公開了一種個(gè)性化視頻內(nèi)容推薦方法和系統(tǒng),涉及視頻處理【技術(shù)領(lǐng)域】。該方法包括:獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù);將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段;在所述視頻流與所述候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行所述感興趣演員的人臉識(shí)別;根據(jù)所述人臉識(shí)別結(jié)果確定用戶的與所述感興趣演員相關(guān)的視頻片段。通過提取語音的聲紋特征,和感興趣演員的聲紋進(jìn)行匹配,啟發(fā)性地引導(dǎo)到感興趣的視頻片段,從而加速定位到可能出現(xiàn)感興趣演員的人臉的視頻鏡頭。聲紋的提取運(yùn)算量較小,可以大大減小視頻人臉檢測(cè)需要的運(yùn)算,速度快,更容易提供用戶感興趣的內(nèi)容。
【專利說明】個(gè)性化視頻內(nèi)容推薦方法和系統(tǒng)
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及視頻處理【技術(shù)領(lǐng)域】,特別涉及一種個(gè)性化視頻內(nèi)容推薦方法和系統(tǒng)?!颈尘凹夹g(shù)】
[0002]隨著互聯(lián)網(wǎng)的迅速發(fā)展,如今網(wǎng)絡(luò)視頻已成為人們現(xiàn)在獲取信息和娛樂的主要來源之一,各類多媒體應(yīng)用不斷涌現(xiàn),互聯(lián)網(wǎng)和電視節(jié)目日趨豐富,視頻數(shù)量快速增長(zhǎng)。這些視頻中包含了大量有用的信息。然而,由于這些視頻是無序地分布在世界各地,視頻中包含的信息無法被有效地訪問和利用。用戶沒有時(shí)間也不可能瀏覽這海量的視頻內(nèi)容,如何使得用戶迅速訪問到感興趣的視頻越來越重要,也越來越難。
[0003]這就要求有一種能夠快速而且準(zhǔn)確地查找訪問這些視頻的技術(shù),視頻分類技術(shù)就能很好的解決這一難題。
[0004]現(xiàn)有的視頻的分類方法,存在以下缺陷:在對(duì)視頻的分類方法中僅僅采用語音識(shí)別或者簡(jiǎn)單的視頻特征匹配,對(duì)于視頻內(nèi)容的檢測(cè)和分類準(zhǔn)確率較低,且計(jì)算量過大。
【發(fā)明內(nèi)容】
[0005]本發(fā)明的一個(gè)目的是提供一種用于個(gè)性化視頻內(nèi)容推薦的技術(shù)方案。
[0006]根據(jù)本發(fā)明的第一方面,提供了一種個(gè)性化視頻內(nèi)容推薦方法,包括:
[0007]對(duì)視頻進(jìn)行解析獲得視頻流和音頻流;
[0008]獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù);
[0009]將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段;
[0010]在所述視頻流與所述候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行所述感興趣演員的人臉識(shí)別;
[0011]根據(jù)所述人臉識(shí)別結(jié)果確定用戶的與所述感興趣演員相關(guān)的視頻片段。
[0012]可選地,獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù)包括:
[0013]將所述視頻幀分割為各個(gè)鏡頭;
[0014]獲得與各個(gè)鏡頭對(duì)應(yīng)的音頻片段;
[0015]對(duì)所述音頻片段進(jìn)行分割獲得各個(gè)語音片段;
[0016]對(duì)各個(gè)語音片段提取說話人聲紋特征參數(shù)。
[0017]可選地,該方法還包括:通過字幕信息初步篩選感興趣演員的視頻。
[0018]可選地,感興趣演員的人臉識(shí)別采用HAAR-AdaBoost算法。
[0019]可選地,將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段包括:
[0020]通過所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型和通用背景模型的似然比確定是否屬于所述感興趣演員的聲音;
[0021]如果是,則確定所述語音片段為候選語音片段。[0022]根據(jù)本發(fā)明的另一方面,提供一種個(gè)性化視頻內(nèi)容推薦系統(tǒng),包括:
[0023]視頻解析單元,用于對(duì)視頻進(jìn)行解析獲得視頻流和音頻流;
[0024]聲紋特征提取單元,用于獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù);
[0025]候選語音片段確定單元,用于將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段;
[0026]人臉識(shí)別單元,用于在所述視頻流與所述候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行所述感興趣演員的人臉識(shí)別;
[0027]感興趣視頻片段確定單元,用于根據(jù)所述人臉識(shí)別結(jié)果確定用戶的與所述感興趣演員相關(guān)的視頻片段。
[0028]可選地,聲紋特征提取單元將所述視頻幀分割為各個(gè)鏡頭;獲得與各個(gè)鏡頭對(duì)應(yīng)的音頻片段;對(duì)所述音頻片段進(jìn)行分割獲得各個(gè)語音片段;對(duì)各個(gè)語音片段提取說話人聲紋特征參數(shù)。
[0029]可選地,該系統(tǒng)還包括:字幕初篩單元,用于通過字幕信息初步篩選感興趣演員的視頻。
[0030]可選地,人臉識(shí)別單元對(duì)感興趣演員的人臉識(shí)別采用HAAR-AdaBoost算法。
[0031]本發(fā)明的一個(gè)優(yōu)點(diǎn)在于,通過提取語音的聲紋特征和感興趣演員的聲紋進(jìn)行匹配,啟發(fā)性地引導(dǎo)到感興趣的視頻片段,從而加速定位到可能出現(xiàn)感興趣演員的人臉的視頻鏡頭。
[0032]通過以下參照附圖對(duì)本發(fā)明的示例性實(shí)施例的詳細(xì)描述,本發(fā)明的其它特征及其優(yōu)點(diǎn)將會(huì)變得清楚。
【專利附圖】
【附圖說明】
[0033]構(gòu)成說明書的一部分的附圖描述了本發(fā)明的實(shí)施例,并且連同說明書一起用于解釋本發(fā)明的原理。
[0034]參照附圖,根據(jù)下面的詳細(xì)描述,可以更加清楚地理解本發(fā)明,其中:
[0035]圖1示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦方法的一個(gè)實(shí)施例的流程圖。
[0036]圖2示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦方法的另一個(gè)實(shí)施例的流程圖。
[0037]圖3示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦系統(tǒng)的一個(gè)實(shí)施例的結(jié)構(gòu)圖。
[0038]圖4示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦系統(tǒng)的另一個(gè)實(shí)施例的結(jié)構(gòu)圖。
【具體實(shí)施方式】
[0039]現(xiàn)在將參照附圖來詳細(xì)描述本發(fā)明的各種示例性實(shí)施例。應(yīng)注意到:除非另外具體說明,否則在這些實(shí)施例中闡述的部件和步驟的相對(duì)布置、數(shù)字表達(dá)式和數(shù)值不限制本發(fā)明的范圍。
[0040]同時(shí),應(yīng)當(dāng)明白,為了便于描述,附圖中所示出的各個(gè)部分的尺寸并不是按照實(shí)際的比例關(guān)系繪制的。
[0041]以下對(duì)至少一個(gè)示例性實(shí)施例的描述實(shí)際上僅僅是說明性的,決不作為對(duì)本發(fā)明及其應(yīng)用或使用的任何限制。[0042]對(duì)于相關(guān)領(lǐng)域普通技術(shù)人員已知的技術(shù)、方法和設(shè)備可能不作詳細(xì)討論,但在適當(dāng)情況下,所述技術(shù)、方法和設(shè)備應(yīng)當(dāng)被視為授權(quán)說明書的一部分。
[0043]在這里示出和討論的所有示例中,任何具體值應(yīng)被解釋為僅僅是示例性的,而不是作為限制。因此,示例性實(shí)施例的其它示例可以具有不同的值。
[0044]應(yīng)注意到:相似的標(biāo)號(hào)和字母在下面的附圖中表示類似項(xiàng),因此,一旦某一項(xiàng)在一個(gè)附圖中被定義,則在隨后的附圖中不需要對(duì)其進(jìn)行進(jìn)一步討論。
[0045]現(xiàn)有的通用視頻推薦系統(tǒng)效果并不理想,限定領(lǐng)域的視頻推薦系統(tǒng),如新聞、體育節(jié)目的視頻推薦系統(tǒng),也很難做到個(gè)性化處理,從而真正滿足用戶的興趣。本發(fā)明人發(fā)現(xiàn),演員是一個(gè)非常好的個(gè)性化主題,很多用戶都有自己喜歡的演員,也希望能及時(shí)了解自己喜愛的演員的視頻相關(guān)情況,真正做到個(gè)性化視頻推薦。
[0046]圖1示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦方法的一個(gè)實(shí)施例的流程圖。
[0047]如圖1所示,步驟102,對(duì)視頻進(jìn)行解析獲得視頻流和音頻流。
[0048]步驟104,獲得音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù)。
[0049]步驟106,將說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段。
[0050]例如,預(yù)先采集用戶感興趣演員的語音,建立感興趣演員的語音庫(kù),通過提取該演員的聲紋特征參數(shù)訓(xùn)練該演員的聲紋特征模型,例如采用混合高斯模型(GaussianMixture Model, GMM)模擬各個(gè)演員的聲紋特征模型,并訓(xùn)練單獨(dú)的通用背景模型(UniversalBackground Model, UBM),通過比較演員的聲紋特征模型及背景模型相對(duì)于輸入語音信號(hào)的聲紋特征的似然比確定是否屬于該演員的聲音。具體地,根據(jù)感興趣演員的聲紋特征模型及背景模型的似然比和預(yù)置閾值的大小判斷是否為目標(biāo)感興趣演員。
[0051]步驟108,在視頻流與候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行感興趣演員的人臉識(shí)別。
[0052]例如,預(yù)先獲取感興趣演員的人臉數(shù)據(jù),建立演員人臉庫(kù)。從演員人臉庫(kù)中提取感興趣演員人臉的特征向量,建立人臉模型。例如,采用HAAR-AdaBoost算法進(jìn)行人臉識(shí)別。稍后具體介紹HARR-AdaBoost算法。
[0053]步驟110,根據(jù)人臉識(shí)別結(jié)果確定與感興趣演員相關(guān)的視頻片段。
[0054]通常的視頻推薦系統(tǒng)容易采用人臉識(shí)別等方式來定位感興趣的鏡頭或者進(jìn)行視頻瀏覽,語音通常經(jīng)過識(shí)別來獲得文本信息。上述實(shí)施例中,不是對(duì)語音進(jìn)行文本識(shí)別,而是只提取語音的聲紋特征,和感興趣演員的聲紋進(jìn)行匹配,啟發(fā)性地引導(dǎo)到感興趣的視頻片段,從而加速定位到可能出現(xiàn)感興趣演員的人臉的視頻鏡頭。聲紋的提取運(yùn)算量較小,可以大大減小視頻人臉檢測(cè)需要的運(yùn)算,速度快,更容易提供用戶感興趣的內(nèi)容。
[0055]HARR-AdaBoost人臉檢測(cè)訓(xùn)練算法的兩重要方面是特征選取和特征計(jì)算;選取的特征為矩特征為Haar特征,計(jì)算的方法為積分圖。
[0056](I) Haar 特征:
[0057]Haar特征分為三類:邊緣特征、線性特征、中心特征和對(duì)角線特征,組合成特征模板。特征模板內(nèi)有白色和黑色兩種矩形,并定義該模板的特征值為白色矩形像素和減去黑色矩形像素和。在確定了特征形式后Harr-1ike特征的數(shù)量就取決于訓(xùn)練樣本圖像矩陣的大小,特征模板在子窗口內(nèi)任意放置,一種形態(tài)稱為一種特征,找出所有子窗口的特征是進(jìn)行弱分類訓(xùn)練的基礎(chǔ)。[0058](2)積分圖:
[0059]積分圖(Integral Image)主要的思想是將圖像從起點(diǎn)開始到各個(gè)點(diǎn)所形成的矩形區(qū)域像素之和作為一個(gè)數(shù)組的元素保存在內(nèi)存中,當(dāng)要計(jì)算某個(gè)區(qū)域的像素和時(shí)可以直接索引數(shù)組的元素,不用重新計(jì)算這個(gè)區(qū)域的像素和,從而加快了計(jì)算?!胺e分圖〃能夠在多種尺度下,使用相同的時(shí)間來計(jì)算不同的特征,因此大大提高了檢測(cè)速度。
[0060]目標(biāo)檢測(cè)方法。首先,利用感興趣演員樣本的harr特征進(jìn)行分類器訓(xùn)練,得到一個(gè)級(jí)聯(lián)的boosted分類器。訓(xùn)練樣本分為正例樣本和反例樣本,其中正例樣本是指感興趣演員人臉樣本,反例樣本指其它任意圖片,所有的樣本圖片都被歸一化為同樣的尺寸大小。
[0061]分類器訓(xùn)練完以后,就可以應(yīng)用于輸入圖像中的感興趣區(qū)域(與訓(xùn)練樣本相同的尺寸)的檢測(cè)。檢測(cè)到目標(biāo)區(qū)域,分類器輸出為1,否則輸出為O。為了檢測(cè)整副圖像,可以在圖像中移動(dòng)搜索窗口,檢測(cè)每一個(gè)位置來確定可能的目標(biāo)。為了搜索不同大小的目標(biāo)物體,分類器被設(shè)計(jì)為可以進(jìn)行尺寸改變,這樣比改變待檢圖像的尺寸大小更為有效。所以,為了在圖像中檢測(cè)未知大小的目標(biāo)物體,掃描程序通常需要用不同比例大小的搜索窗口對(duì)圖片進(jìn)行幾次掃描。
[0062]分類器中的“級(jí)聯(lián)”是指最終的分類器是由幾個(gè)簡(jiǎn)單分類器級(jí)聯(lián)組成。在圖像檢測(cè)中,被檢窗口依次通過每一級(jí)分類器,這樣在前面幾層的檢測(cè)中大部分的候選區(qū)域就被排除了,全部通過每一級(jí)分類器檢測(cè)的區(qū)域即為目標(biāo)區(qū)域。目前支持這種分類器的boosting技術(shù)包括 Discrete Adaboost, Real Adaboost, Gentle Adaboost and Logitboost。"boosted"即指級(jí)聯(lián)分類器的每一層都可以從中選取一個(gè)boosting算法(權(quán)重投票),并利用基礎(chǔ)分類器的自我訓(xùn)練得到?;A(chǔ)分類器是至少有兩個(gè)葉結(jié)點(diǎn)的決策樹分類器。Haar特征是基礎(chǔ)分類器的輸入,主要描述如下。目前的算法主要利用下面的Harr特征。
[0063]圖2示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦方法的另一個(gè)實(shí)施例的流程圖。
[0064]如圖2所示,步驟102,提取視頻中的字幕信息,通過字幕信息中的演員表對(duì)感興趣演員的視頻進(jìn)行初篩。如果演員表中包括感興趣演員,則進(jìn)行感興趣視頻片段的定位。
[0065]步驟204,對(duì)視頻進(jìn)行解析獲得視頻流和音頻流,獲得音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù)。例如,將視頻幀分割為各個(gè)鏡頭;獲得與各個(gè)鏡頭對(duì)應(yīng)的音頻片段;對(duì)音頻片段進(jìn)行分割獲得各個(gè)語音片段;對(duì)各個(gè)語音片段提取說話人聲紋特征參數(shù)。
[0066]步驟206,將說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段。
[0067]步驟208,在視頻流與候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行感興趣演員的人臉識(shí)別。
[0068]步驟210,根據(jù)人臉識(shí)別結(jié)果確定與感興趣演員相關(guān)的視頻片段。
[0069]上述實(shí)施例中,通過提取字幕信息對(duì)演員表進(jìn)行初篩,可以更快地定位與感興趣演員相關(guān)的視頻,避免了無關(guān)視頻的相關(guān)計(jì)算工作,提高了處理效率。
[0070]圖3示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦系統(tǒng)的一個(gè)實(shí)施例的結(jié)構(gòu)圖。如圖3所示,該系統(tǒng)包括:視頻解析單元31,用于對(duì)視頻進(jìn)行解析獲得視頻流和音頻流;
[0071]聲紋特征提取單元32,用于獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù);
[0072]候選語音片段確定單元33,用于將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段;[0073]人臉識(shí)別單元34,用于在所述視頻流與所述候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行所述感興趣演員的人臉識(shí)別;
[0074]感興趣視頻片段確定單元35,用于根據(jù)所述人臉識(shí)別結(jié)果確定用戶的與所述感興趣演員相關(guān)的視頻片段。
[0075]在一個(gè)實(shí)施例中,聲紋特征提取單元將所述視頻幀分割為各個(gè)鏡頭;獲得與各個(gè)鏡頭對(duì)應(yīng)的音頻片段;對(duì)所述音頻片段進(jìn)行分割獲得各個(gè)語音片段;對(duì)各個(gè)語音片段提取說話人聲紋特征參數(shù)。人臉識(shí)別單元對(duì)感興趣演員的人臉識(shí)別采用HAAR-AdaBoost算法。
[0076]圖4示出根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦系統(tǒng)的另一個(gè)實(shí)施例的結(jié)構(gòu)圖。在該實(shí)施例中,還包括:字幕初篩單元46,用于通過字幕信息初步篩選感興趣演員的視頻。
[0077]至此,已經(jīng)詳細(xì)描述了根據(jù)本發(fā)明的個(gè)性化視頻內(nèi)容推薦方法和系統(tǒng)。為了避免遮蔽本發(fā)明的構(gòu)思,沒有描述本領(lǐng)域所公知的一些細(xì)節(jié)。本領(lǐng)域技術(shù)人員根據(jù)上面的描述,完全可以明白如何實(shí)施這里公開的技術(shù)方案。
[0078]可能以許多方式來實(shí)現(xiàn)本發(fā)明的方法和系統(tǒng)。例如,可通過軟件、硬件、固件或者軟件、硬件、固件的任何組合來實(shí)現(xiàn)本發(fā)明的方法和系統(tǒng)。用于所述方法的步驟的上述順序僅是為了進(jìn)行說明,本發(fā)明的方法的步驟不限于以上具體描述的順序,除非以其它方式特別說明。此外,在一些實(shí)施例中,還可將本發(fā)明實(shí)施為記錄在記錄介質(zhì)中的程序,這些程序包括用于實(shí)現(xiàn)根據(jù)本發(fā)明的方法的機(jī)器可讀指令。因而,本發(fā)明還覆蓋存儲(chǔ)用于執(zhí)行根據(jù)本發(fā)明的方法的程序的記錄介質(zhì)。
[0079]雖然已經(jīng)通過示例對(duì)本發(fā)明的一些特定實(shí)施例進(jìn)行了詳細(xì)說明,但是本領(lǐng)域的技術(shù)人員應(yīng)該理解,以上示例僅是為了進(jìn)行說明,而不是為了限制本發(fā)明的范圍。本領(lǐng)域的技術(shù)人員應(yīng)該理解,可在不脫離本發(fā)明的范圍和精神的情況下,對(duì)以上實(shí)施例進(jìn)行修改。本發(fā)明的范圍由所附權(quán)利要求來限定。
【權(quán)利要求】
1.一種個(gè)性化視頻內(nèi)容推薦方法,其特征在于,包括: 對(duì)視頻進(jìn)行解析獲得視頻流和首頻流; 獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù); 將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段; 在所述視頻流與所述候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行所述感興趣演員的人臉識(shí)別; 根據(jù)所述人臉識(shí)別結(jié)果確定用戶的與所述感興趣演員相關(guān)的視頻片段。
2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù)包括: 將所述視頻幀分割為各個(gè)鏡頭; 獲得與各個(gè)鏡頭對(duì)應(yīng)的音頻片段; 對(duì)所述音頻片段進(jìn)行分割獲得各個(gè)語音片段; 對(duì)各個(gè)語音片段提取說話人聲紋特征參數(shù)。
3.根據(jù)權(quán)利要求1所述的方法,其特征在于,還包括: 通過字幕信息初步篩選感興趣演員的視頻。
4.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述感興趣演員的人臉識(shí)別采用HAAR-AdaBoost 算法。
5.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段 通過所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型和通用背景模型的似然比確定是否屬于所述感興趣演員的聲音; 如果是,則確定所述語音片段為候選語音片段。
6.一種個(gè)性化視頻內(nèi)容推薦系統(tǒng),其特征在于,包括: 視頻解析單元,用于對(duì)視頻進(jìn)行解析獲得視頻流和音頻流; 聲紋特征提取單元,用于獲得所述音頻流中各個(gè)語音片段的說話人聲紋特征參數(shù); 候選語音片段確定單元,用于將所述說話人聲紋特征參數(shù)與感興趣演員的聲紋特征模型進(jìn)行聲紋匹配獲得候選語音片段; 人臉識(shí)別單元,用于在所述視頻流與所述候選語音片段對(duì)應(yīng)的鏡頭中進(jìn)行所述感興趣演員的人臉識(shí)別; 感興趣視頻片段確定單元,用于根據(jù)所述人臉識(shí)別結(jié)果確定用戶的與所述感興趣演員相關(guān)的視頻片段。
7.根據(jù)權(quán)利要求6所述的系統(tǒng),其特征在于,所述聲紋特征提取單元將所述視頻幀分割為各個(gè)鏡頭;獲得與各個(gè)鏡頭對(duì)應(yīng)的音頻片段;對(duì)所述音頻片段進(jìn)行分割獲得各個(gè)語音片段;對(duì)各個(gè)語音片段提取說話人聲紋特征參數(shù)。
8.根據(jù)權(quán)利要求6所述的系統(tǒng),其特征在于,還包括: 字幕初篩單元,用于通過字幕信息初步篩選感興趣演員的視頻。
9.根據(jù)權(quán)利要求6所述的系統(tǒng),其特征在于,所述人臉識(shí)別單元對(duì)感興趣演員的人臉識(shí)別米用HAAR-AdaBoost算法。
【文檔編號(hào)】G06K9/00GK103488764SQ201310446815
【公開日】2014年1月1日 申請(qǐng)日期:2013年9月26日 優(yōu)先權(quán)日:2013年9月26日
【發(fā)明者】劉趙杰 申請(qǐng)人:天脈聚源(北京)傳媒科技有限公司