欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

視頻會(huì)議數(shù)據(jù)處理方法和平臺(tái)與流程

文檔序號(hào):12890293閱讀:253來(lái)源:國(guó)知局
視頻會(huì)議數(shù)據(jù)處理方法和平臺(tái)與流程

本發(fā)明涉及視頻會(huì)議技術(shù)領(lǐng)域,特別是一種視頻會(huì)議數(shù)據(jù)處理方法和平臺(tái)。



背景技術(shù):

目前視頻會(huì)議中一般通過(guò)麥克風(fēng)激勵(lì)的方式識(shí)別不同參會(huì)人員,根據(jù)哪一路聲音源發(fā)聲識(shí)別是誰(shuí)在發(fā)言。

但是,往往很多情況下,尤其在大型會(huì)議中,有很多人共用一個(gè)麥克風(fēng),或者會(huì)有很多參會(huì)人使用同一路聲音源,因而單從聲音源判別的方式無(wú)法識(shí)別發(fā)言者,對(duì)會(huì)議效果產(chǎn)生很大的影響,參會(huì)人員無(wú)法將發(fā)言的內(nèi)容與發(fā)言人對(duì)應(yīng)起來(lái),這使得視頻會(huì)議的效果與現(xiàn)場(chǎng)會(huì)議產(chǎn)生了較大的差距,大大的降低了視頻會(huì)議的用戶友好程度。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的一個(gè)目的在于提出一種方便視頻會(huì)議用戶識(shí)別發(fā)言人的方案。

根據(jù)本發(fā)明的一個(gè)方面,提出一種視頻會(huì)議數(shù)據(jù)處理方法,其特征在于,包括:獲取發(fā)言者的聲紋信息;識(shí)別聲紋信息,確定發(fā)言者的身份信息;將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成,以顯示視頻合成后的視頻畫面。

可選地,視頻畫面為虛擬現(xiàn)實(shí)視頻畫面,視頻終端為虛擬現(xiàn)實(shí)視頻展示終端。

可選地,識(shí)別聲紋信息,確定發(fā)言者的身份信息包括:根據(jù)聲紋信息進(jìn)行特征匹配,識(shí)別與聲紋信息相匹配的聲紋特征;查找相匹配的聲紋特征對(duì)應(yīng)的發(fā)言者的身份信息。

可選地,將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成并顯示包括:將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成;將視頻合成后的視頻畫面發(fā)送到視頻終端以顯示。

可選地,還包括:基于錄入的參會(huì)人員的聲音提取參會(huì)人員的聲音的聲紋特征,生成聲紋庫(kù);將參會(huì)人員的聲音的聲紋特征與參會(huì)人員的身份信息相關(guān)聯(lián)。

可選地,還包括:根據(jù)聲紋特征與面部特征的關(guān)聯(lián)關(guān)系獲取發(fā)言者的面部特征;根據(jù)發(fā)言者的面部特征在視頻畫面中定位發(fā)言者;將發(fā)言者的定位標(biāo)識(shí)與視頻畫面進(jìn)行視頻合成。

可選地,還包括:提取參會(huì)人員的面部特征;將參會(huì)人員的面部特征與聲紋特征相關(guān)聯(lián)。

通過(guò)這樣的方法,能夠根據(jù)參會(huì)人員的聲音識(shí)別發(fā)言者的身份,并通過(guò)視頻畫面展示給參會(huì)人員,方便參會(huì)人員識(shí)別發(fā)言者的身份,提高視頻會(huì)議的用戶體驗(yàn)。

根據(jù)本發(fā)明的另一個(gè)方面,提出一種視頻會(huì)議平臺(tái),包括:聲紋信息提取模塊,用于獲取發(fā)言者的聲紋信息;身份信息確定模塊,用于識(shí)別聲紋信息,確定發(fā)言者的身份信息;視頻合成模塊,用于將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成,以顯示視頻合成后的視頻畫面。

可選地,視頻畫面為虛擬現(xiàn)實(shí)視頻畫面,視頻終端為虛擬現(xiàn)實(shí)視頻展示終端。

可選地,身份信息確定模塊包括:聲紋匹配單元,用于根據(jù)聲紋信息進(jìn)行特征匹配,識(shí)別相匹配的聲紋特征;身份信息獲取單元,用于獲取相匹配的聲紋特征對(duì)應(yīng)的發(fā)言者的身份信息。

可選地,視頻合成模塊包括:視頻合成單元,用于將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成;視頻發(fā)送單元,用于將視頻合成后的視頻畫面發(fā)送到視頻終端以顯示。

可選地,還包括:聲紋特征提取模塊,用于基于錄入的參會(huì)人員的聲音提取參會(huì)人員的聲音的聲紋特征,生成聲紋庫(kù);身份信息關(guān)聯(lián) 模塊,用于將參會(huì)人員的聲音的聲紋特征與參會(huì)人員的身份信息相關(guān)聯(lián)。

可選地,還包括:面部特征獲取模塊,用于根據(jù)聲紋特征與面部特征的關(guān)聯(lián)關(guān)系獲取發(fā)言者的面部特征;面部特征定位模塊,用于根據(jù)發(fā)言者的面部特征在視頻畫面中定位發(fā)言者;視頻合成模塊還用于將發(fā)言者的定位標(biāo)識(shí)與視頻畫面進(jìn)行視頻合成。

可選地,還包括:面部特征提取模塊,用于提取參會(huì)人員的面部特征;面部特征關(guān)聯(lián)模塊,用于將參會(huì)人員的面部特征與聲紋特征相關(guān)聯(lián)。

這樣的平臺(tái)能夠根據(jù)參會(huì)人員的聲音識(shí)別發(fā)言者的身份,并通過(guò)視頻畫面展示給參會(huì)人員,方便參會(huì)人員識(shí)別發(fā)言者的身份,提高視頻會(huì)議的用戶體驗(yàn)。

附圖說(shuō)明

此處所說(shuō)明的附圖用來(lái)提供對(duì)本發(fā)明的進(jìn)一步理解,構(gòu)成本申請(qǐng)的一部分,本發(fā)明的示意性實(shí)施例及其說(shuō)明用于解釋本發(fā)明,并不構(gòu)成對(duì)本發(fā)明的不當(dāng)限定。在附圖中:

圖1為本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的一個(gè)實(shí)施例的流程圖。

圖2為本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的另一個(gè)實(shí)施例的流程圖。

圖3為本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的又一個(gè)實(shí)施例的流程圖。

圖4為本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的再一個(gè)實(shí)施例的流程圖。

圖5為本發(fā)明的視頻會(huì)議平臺(tái)的一個(gè)實(shí)施例的示意圖。

圖6為本發(fā)明的視頻會(huì)議平臺(tái)的另一個(gè)實(shí)施例的示意圖。

圖7為本發(fā)明的視頻會(huì)議平臺(tái)的又一個(gè)實(shí)施例的示意圖。

圖8為本發(fā)明的視頻會(huì)議平臺(tái)的再一個(gè)實(shí)施例的示意圖。

具體實(shí)施方式

下面通過(guò)附圖和實(shí)施例,對(duì)本發(fā)明的技術(shù)方案做進(jìn)一步的詳細(xì)描述。

本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的一個(gè)實(shí)施例的流程圖如圖1所示。

在步驟101中,獲取發(fā)言者的聲紋信息。在一個(gè)實(shí)施例中,可以將從麥克風(fēng)收集到的聲音進(jìn)行音頻數(shù)據(jù)處理,得到發(fā)言者的聲紋信息。

在步驟102中,識(shí)別聲紋信息,確定發(fā)言者的身份信息。在一個(gè)實(shí)施例中,可以根據(jù)參會(huì)人員的聲紋特征將發(fā)言者的聲紋信息進(jìn)行特征匹配,確定匹配的聲紋特征,從而確定發(fā)言者的聲紋信息。

在步驟103中,將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成。合成后的視頻畫面具有發(fā)言者的身份信息。可以將合成處理后的視頻畫面發(fā)送到該會(huì)議的各個(gè)終端,以便參會(huì)人員在觀看視頻畫面的同時(shí)能夠獲知發(fā)言者的身份信息。

通過(guò)這樣的方法,能夠根據(jù)參會(huì)人員的聲音識(shí)別發(fā)言者的身份并通過(guò)視頻畫面展示給參會(huì)人員,方便參會(huì)人員識(shí)別發(fā)言者的身份,提高視頻會(huì)議的用戶體驗(yàn)。

在一個(gè)實(shí)施例中,視頻畫面可以為虛擬現(xiàn)實(shí)視頻畫面,可以通過(guò)虛擬現(xiàn)實(shí)視頻展示終端在相關(guān)會(huì)場(chǎng)營(yíng)造虛擬現(xiàn)實(shí)場(chǎng)景,或者為參會(huì)人員佩戴虛擬現(xiàn)實(shí)視頻展示眼鏡的方式營(yíng)造現(xiàn)場(chǎng)會(huì)議的氛圍,提高會(huì)議體驗(yàn)。通過(guò)這樣的方法,能夠進(jìn)一步優(yōu)化視頻會(huì)議的效果。

本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的另一個(gè)實(shí)施例的流程圖如圖2所示。

在步驟201中,獲取發(fā)言者的聲紋信息。在一個(gè)實(shí)施例中,可以將從麥克風(fēng)收集到的聲音進(jìn)行音頻數(shù)據(jù)處理,得到發(fā)言者的聲紋信息。

在步驟202中,根據(jù)聲紋信息進(jìn)行特征匹配,識(shí)別與聲紋信息相匹配的聲紋特征。

在步驟203中,獲取相匹配的聲紋特征對(duì)應(yīng)的身份信息。發(fā)言者的身份信息可以包括發(fā)言者的姓名、身份、所屬機(jī)構(gòu)和與會(huì)議的關(guān)聯(lián) 信息等。根據(jù)這些信息可以比較直觀的定位發(fā)言者的身份、立場(chǎng)。發(fā)言者的身份信息還可以包括發(fā)言者的電話號(hào)碼等聯(lián)系方式,方便參會(huì)人員在會(huì)后直接交流。

在步驟204中,將獲取的身份信息與視頻畫面進(jìn)行視頻合成。在一個(gè)實(shí)施例中,可以在虛擬現(xiàn)實(shí)視頻畫面的預(yù)定位置顯示發(fā)言者的身份信息。

在步驟205中,將視頻合成后的畫面發(fā)送到視頻終端進(jìn)行顯示。

由于每一個(gè)參會(huì)人無(wú)法認(rèn)識(shí)全部的參會(huì)人員,特別是大型會(huì)議中,知道聲音源也無(wú)法確切知道該名發(fā)言者的姓名、職務(wù)以及與會(huì)議相關(guān)的信息等。通過(guò)這樣的方法,能夠根據(jù)參會(huì)人員的聲音識(shí)別發(fā)言者,并查詢到發(fā)言者的相關(guān)身份信息,將身份信息通過(guò)視頻畫面展示給參會(huì)人員,方便參會(huì)人員更好的了解發(fā)言者的身份和其背景信息,提高視頻會(huì)議的用戶體驗(yàn)。

在一個(gè)實(shí)施例中,需要先建立包括參會(huì)人員聲紋特征的聲紋庫(kù),基于該聲紋庫(kù)進(jìn)行聲紋信息的識(shí)別。本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的又一個(gè)實(shí)施例的流程圖如圖3所示。

在步驟301中,基于錄入的參會(huì)人員的聲音提取參會(huì)人員的聲音的聲紋特征,生成聲紋庫(kù)。在一個(gè)實(shí)施例中,可以在會(huì)議開(kāi)始前要求每個(gè)參會(huì)人員錄入聲音。在另一個(gè)實(shí)施例中,可以只錄入未提取過(guò)聲紋特征的參會(huì)人員的聲音。

在步驟302中,將參會(huì)人員的聲紋特征與參會(huì)人員的身份信息相關(guān)聯(lián)。在一個(gè)實(shí)施例中,可以事先錄入每一個(gè)參會(huì)人員的身份信息,并在聲音錄入或聲紋特征提取過(guò)程中關(guān)聯(lián)聲紋特征與身份信息。在一個(gè)實(shí)施例中,身份信息可以包括參會(huì)人員的姓名、職務(wù)、與本會(huì)議的關(guān)系或聯(lián)系方式等。

在步驟303中,在會(huì)議過(guò)程中,收集發(fā)言者的聲音,提取聲紋信息。

在步驟304中,將發(fā)言者的聲紋信息與聲紋庫(kù)中的聲紋特征相匹配,確定匹配的聲紋特征,再獲取與該聲紋特征相關(guān)聯(lián)的身份信息。

在步驟305中,將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成。合成后的視頻畫面具有發(fā)言者的身份信息。可以將合成處理后的視頻畫面發(fā)送到該會(huì)議的各個(gè)終端,以便參會(huì)人員在觀看視頻畫面的同時(shí)能夠獲知發(fā)言者的身份信息。

通過(guò)這樣的方法,能夠生成包括參會(huì)人員聲紋特征的聲紋庫(kù),并基于該聲紋庫(kù)進(jìn)行聲紋信息的識(shí)別,能夠快速有效的識(shí)別發(fā)言者的聲紋信息,并根據(jù)聲紋特征與身份信息的關(guān)聯(lián)關(guān)系確定發(fā)言人的身份信息,提高了運(yùn)行效率,便于推廣應(yīng)用。

在一個(gè)實(shí)施例中,在根據(jù)參會(huì)人員的聲音提取聲紋特征生成聲紋庫(kù)時(shí),可以根據(jù)參會(huì)人員的會(huì)場(chǎng)安排將錄入的聲紋特征分組存儲(chǔ),從而在識(shí)別發(fā)言者的聲紋信息時(shí),可以先根據(jù)聲音源判斷發(fā)言者所處的會(huì)場(chǎng),再根據(jù)該會(huì)場(chǎng)分組內(nèi)的聲紋特征識(shí)別發(fā)言者的聲紋信息。這樣的方法大大減少了聲紋信息識(shí)別的運(yùn)算量,提高了運(yùn)算效率。

在一個(gè)實(shí)施例中,還可以根據(jù)視頻畫面對(duì)發(fā)言者進(jìn)行定位標(biāo)注,這樣能夠方便參會(huì)人員更加直觀的看到發(fā)言者,進(jìn)一步提高用戶體驗(yàn)。

本發(fā)明的視頻會(huì)議數(shù)據(jù)處理方法的再一個(gè)實(shí)施例的流程圖如圖4所示。

在步驟401中,基于錄入的參會(huì)人員的聲音提取參會(huì)人員的聲音的聲紋特征,生成聲紋庫(kù)。在一個(gè)實(shí)施例中,可以在會(huì)議開(kāi)始前要求每個(gè)參會(huì)人員錄入聲音。在另一個(gè)實(shí)施例中,可以只錄入未提取過(guò)聲紋特征的參會(huì)人員的聲音。

在步驟402中,將參會(huì)人員的聲紋特征與參會(huì)人員的身份信息相關(guān)聯(lián)。在一個(gè)實(shí)施例中,可以事先錄入每一個(gè)參會(huì)人員的身份信息,并在聲音錄入或聲紋特征提取過(guò)程中將關(guān)聯(lián)聲紋特征與身份信息。在一個(gè)實(shí)施例中,身份信息可以包括參會(huì)人員的姓名、職務(wù)、與本會(huì)議的關(guān)系或聯(lián)系方式等。

在步驟403中,提取參會(huì)人員的面部特征,并將參會(huì)人員的面部特征與聲紋特征相關(guān)聯(lián)??梢酝ㄟ^(guò)參會(huì)人員上傳的照片采集參會(huì)人員的面部特征,或在錄入?yún)?huì)人員聲音的同時(shí)采集參會(huì)人員的面部特征。

在步驟404中,在會(huì)議過(guò)程中,收集發(fā)言者的聲音,提取聲紋信息。

在步驟405中,將發(fā)言者的聲紋信息與聲紋庫(kù)中的聲紋特征相匹配,確定匹配的聲紋特征。

在步驟406中,獲取與該聲紋特征相關(guān)聯(lián)的身份信息和面部特征。

在步驟407中,在視頻畫面中定位發(fā)言者并添加定位標(biāo)識(shí),將定位標(biāo)識(shí)和發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成,以便將合成后的視頻畫面?zhèn)魉偷礁鱾€(gè)終端。

通過(guò)這樣的方法,能夠采集參會(huì)人員的面部特征,并以聲紋特征為標(biāo)識(shí)確定發(fā)言者,并在視頻畫面中定位標(biāo)注發(fā)言者,使參會(huì)人員在知曉發(fā)言者的身份信息的同時(shí),對(duì)發(fā)言者能有更直觀的認(rèn)識(shí),使視頻會(huì)議更加人性化,進(jìn)一步提高用戶體驗(yàn)。特別是在虛擬現(xiàn)實(shí)視頻會(huì)議場(chǎng)景下,能夠快速定位發(fā)言者,達(dá)到面對(duì)面交流的效果。

本發(fā)明的視頻會(huì)議平臺(tái)的一個(gè)實(shí)施例的示意圖如圖5所示。其中,聲紋信息提取模塊501能夠獲取發(fā)言者的聲紋信息。在一個(gè)實(shí)施例中,聲紋信息提取模塊501可以將從麥克風(fēng)收集到的聲音進(jìn)行音頻數(shù)據(jù)處理,得到發(fā)言者的聲紋信息。身份信息確定模塊502能夠識(shí)別聲紋信息,確定發(fā)言者的身份信息。在一個(gè)實(shí)施例中,身份信息確定模塊502可以根據(jù)參會(huì)人員的聲紋特征將發(fā)言者的聲紋信息進(jìn)行特征匹配,確定匹配的聲紋特征,從而確定發(fā)言者的聲紋信息。視頻合成模塊503用于將發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成,合成后的視頻畫面具有發(fā)言者的身份信息??梢詫⒑铣商幚砗蟮囊曨l畫面發(fā)送到該會(huì)議的各個(gè)終端,以便參會(huì)人員在觀看視頻畫面的同時(shí)能夠獲知發(fā)言者的身份信息。

這樣的視頻會(huì)議平臺(tái)能夠根據(jù)參會(huì)人員的聲音識(shí)別發(fā)言者的身份并通過(guò)視頻畫面展示給參會(huì)人員,方便參會(huì)人員識(shí)別發(fā)言者的身份,提高視頻會(huì)議的用戶體驗(yàn)。

在一個(gè)實(shí)施例中,視頻畫面可以為虛擬現(xiàn)實(shí)視頻畫面,可以通過(guò)虛擬現(xiàn)實(shí)視頻展示終端在相關(guān)會(huì)場(chǎng)營(yíng)造虛擬現(xiàn)實(shí)場(chǎng)景,或者為參會(huì)人 員佩戴虛擬現(xiàn)實(shí)視頻展示眼鏡的方式營(yíng)造現(xiàn)場(chǎng)會(huì)議的氛圍,提高會(huì)議體驗(yàn)。

本發(fā)明的視頻會(huì)議平臺(tái)的另一個(gè)實(shí)施例的示意圖如圖6所示。其中,聲紋信息提取模塊61用于獲取發(fā)言者的聲紋信息。身份信息確定模塊62包括聲紋匹配單元621和身份信息獲取單元622,聲紋匹配單元621能夠根據(jù)聲紋信息進(jìn)行特征匹配,識(shí)別與聲紋信息相匹配的聲紋特征;身份信息獲取單元622能夠獲取相匹配的聲紋特征對(duì)應(yīng)的身份信息。發(fā)言者的身份信息可以包括發(fā)言者的姓名、身份和與會(huì)議的關(guān)聯(lián)信息。根據(jù)這些信息可以比較直觀的定位發(fā)言者的身份、立場(chǎng)。發(fā)言者的身份信息還可以包括發(fā)言者的電話號(hào)碼等聯(lián)系方式,方便參會(huì)人員在會(huì)后直接交流。視頻合成模塊63包括視頻合成單元631和視頻發(fā)送單元632,視頻合成單元631能夠?qū)@取的身份信息與視頻畫面進(jìn)行視頻合成,視頻發(fā)送單元632能夠?qū)⒑铣珊蟮囊曨l畫面發(fā)送到視頻終端以展示給參會(huì)人員。

這樣的平臺(tái)能夠根據(jù)參會(huì)人員的聲音識(shí)別發(fā)言者,并查詢到發(fā)言者的相關(guān)身份信息,將身份信息通過(guò)視頻畫面展示給參會(huì)人員,方便參會(huì)人員更好的了解發(fā)言者的身份和其背景信息,提高視頻會(huì)議的用戶體驗(yàn)。

本發(fā)明的視頻會(huì)議平臺(tái)的又一個(gè)實(shí)施例的示意圖如圖7所示。其中,聲紋信息提取模塊701、身份信息確定模塊702和視頻合成模塊703的結(jié)構(gòu)和功能與圖5的實(shí)施例中相似。視頻會(huì)議平臺(tái)還包括聲紋特征提取模塊704和身份信息關(guān)聯(lián)模塊705。其中,聲紋特征提取模塊704能夠基于錄入的參會(huì)人員的聲音獲取參會(huì)人員的聲音的聲紋特征,生成聲紋庫(kù);身份信息關(guān)聯(lián)模塊705將參會(huì)人員的聲紋特征與參會(huì)人員的身份信息相關(guān)聯(lián)。在一個(gè)實(shí)施例中,可以實(shí)現(xiàn)錄入每一個(gè)參會(huì)人員的身份信息,并在聲音錄入或聲紋特征提取過(guò)程中關(guān)聯(lián)聲紋特征與身份信息。在一個(gè)實(shí)施例中,身份信息可以包括參會(huì)人員的姓名、職務(wù)、與本會(huì)議的關(guān)系或聯(lián)系方式等。

這樣的平臺(tái)能夠生成包括參會(huì)人員聲紋特征的聲紋庫(kù),并基于該 聲紋庫(kù)進(jìn)行聲紋信息的識(shí)別,能夠快速有效的識(shí)別發(fā)言者的聲紋信息,并根據(jù)聲紋特征與身份信息的關(guān)聯(lián)關(guān)系確定發(fā)言人的身份信息,提高了運(yùn)行效率,便于推廣應(yīng)用。

在一個(gè)實(shí)施例中,聲紋特征提取模塊704在根據(jù)參會(huì)人員的聲音提取聲紋特征生成聲紋庫(kù)時(shí),可以根據(jù)參會(huì)人員的會(huì)場(chǎng)安排將錄入的聲紋特征分組存儲(chǔ),從而在識(shí)別發(fā)言者的聲紋信息時(shí),可以先根據(jù)聲音源判斷發(fā)言者所處的會(huì)場(chǎng),再在該會(huì)場(chǎng)分組內(nèi)的聲紋特征識(shí)別發(fā)言者的聲紋信息。這樣的平臺(tái)大大減少了聲紋信息識(shí)別的運(yùn)算量,提高了運(yùn)算效率。

在一個(gè)實(shí)施例中,視頻會(huì)議平臺(tái)還可以根據(jù)視頻畫面對(duì)發(fā)言者進(jìn)行定位標(biāo)注,這樣能夠方便參會(huì)人員更加直觀的看到發(fā)言者,進(jìn)一步提高用戶體驗(yàn)。

本發(fā)明的視頻會(huì)議平臺(tái)的再一個(gè)實(shí)施例的示意圖如圖8所示。其中,聲紋特征提取模塊804用于基于錄入的參會(huì)人員的聲音提取參會(huì)人員的聲音的聲紋特征,生成聲紋庫(kù)。身份信息關(guān)聯(lián)模塊805用于將參會(huì)人員的聲紋特征與參會(huì)人員的身份信息相關(guān)聯(lián)。面部特征提取模塊806能夠提取參會(huì)人員的面部特征,可以通過(guò)參會(huì)人員上傳的照片提取參會(huì)人員的面部特征,或在錄入?yún)?huì)人員聲音的同時(shí)提取參會(huì)人員的面部特征。面部特征關(guān)聯(lián)模塊807用于將參會(huì)人員的面部特征與聲紋特征相關(guān)聯(lián)。

聲紋信息提取模塊801用于在會(huì)議過(guò)程中根據(jù)收集到的發(fā)言者的聲音提取聲紋信息。身份信息確定模塊802用于將發(fā)言者的聲紋信息與聲紋庫(kù)中的聲紋特征相匹配,確定匹配的聲紋特征,并獲取與該聲紋特征相關(guān)聯(lián)的聲紋信息。面部特征獲取模塊808用于獲取與該聲紋特征相關(guān)聯(lián)的面部特征信息。面部特征定位模塊809用于根據(jù)獲取的發(fā)言者的面部特征信息在視頻畫面中進(jìn)行定位操作。視頻合成模塊803用于將發(fā)言者的定位標(biāo)識(shí)和發(fā)言者的身份信息與視頻畫面進(jìn)行視頻合成,以便將合成后的視頻畫面?zhèn)魉偷礁鱾€(gè)終端。

這樣的平臺(tái)能夠分析參會(huì)人員的面部特征,并以聲紋特征為標(biāo)識(shí) 確定發(fā)言者,并在視頻畫面中定位標(biāo)注發(fā)言者,使參會(huì)人員在知曉發(fā)言者的身份信息的同時(shí),對(duì)發(fā)言者能有更直觀的認(rèn)識(shí),使視頻會(huì)議更加人性化,進(jìn)一步提高用戶體驗(yàn)。特別是在虛擬現(xiàn)實(shí)視頻會(huì)議場(chǎng)景下,能夠快速定位發(fā)言者,達(dá)到面對(duì)面交流的效果。

最后應(yīng)當(dāng)說(shuō)明的是:以上實(shí)施例僅用以說(shuō)明本發(fā)明的技術(shù)方案而非對(duì)其限制;盡管參照較佳實(shí)施例對(duì)本發(fā)明進(jìn)行了詳細(xì)的說(shuō)明,所屬領(lǐng)域的普通技術(shù)人員應(yīng)當(dāng)理解:依然可以對(duì)本發(fā)明的具體實(shí)施方式進(jìn)行修改或者對(duì)部分技術(shù)特征進(jìn)行等同替換;而不脫離本發(fā)明技術(shù)方案的精神,其均應(yīng)涵蓋在本發(fā)明請(qǐng)求保護(hù)的技術(shù)方案范圍當(dāng)中。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
逊克县| 裕民县| 岱山县| 湟源县| 仁布县| 西贡区| 宁波市| 金山区| 通许县| 霞浦县| 交城县| 左云县| 益阳市| 涞源县| 溧水县| 浑源县| 永康市| 莱州市| 梁河县| 赤水市| 凯里市| 民和| 蓬莱市| 阿坝县| 区。| 罗山县| 尚志市| 新宾| 康乐县| 阳江市| 宁夏| 克东县| 原阳县| 白银市| 广河县| 榆林市| 西吉县| 光泽县| 屏东市| 龙陵县| 洪洞县|