欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法與流程

文檔序號:12035839閱讀:799來源:國知局
一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法與流程

本發(fā)明涉及人臉重建領(lǐng)域,尤其是涉及了一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法。



背景技術(shù):

人臉是人類最重要的生物特征之一,反映了很多重要的生物信息,如身份、性別、種族、年齡、表情等。三維人臉重建技術(shù)有著廣泛的用途和前景,一直以來都是計算機視覺和計算機圖形學(xué)研究的熱點和難點。人臉建模在人臉識別系統(tǒng)、醫(yī)學(xué)、電影電視劇、廣告、計算機動畫、游戲、視頻會議以及可視電話、人機交互等許多領(lǐng)域都具有廣泛的應(yīng)用前景。特別是在人臉識別方面,其可以應(yīng)用在公共安全防范、逃犯追捕、網(wǎng)絡(luò)安全、金融安全商場安全等諸多領(lǐng)域。但是,人臉建模技術(shù)存在計算成本較高的問題,面部圖像中的姿態(tài)、表情和照明變化也會給識別和重建帶來影響。

本發(fā)明提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法,采用3d面部形狀子空間模型,并將3d面部作為一組形狀和混合形狀基線的線性組合,基于vgg網(wǎng)絡(luò)的臉部模型添加了子卷積神經(jīng)網(wǎng)絡(luò)(融合cnn)用于回歸表達參數(shù),以及用于身份參數(shù)預(yù)測和表達參數(shù)預(yù)測的多任務(wù)學(xué)習(xí)損失函數(shù),端到端訓(xùn)練中深度神經(jīng)網(wǎng)絡(luò)的輸入是一個二維圖像,輸出由身份參數(shù)向量和表達式參數(shù)向量組成。本發(fā)明解決面部圖像中的姿態(tài)、表情和照明變化帶來的影響,避免了圖像采集過程中深度信息的損失;同時簡化了框架,降低計算成本,提高了重建精度和識別的魯棒性。



技術(shù)實現(xiàn)要素:

針對面部圖像中的姿態(tài)、表情和照明變化也會給識別和重建帶來影響的問題,本發(fā)明的目的在于提供一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法,采用3d面部形狀子空間模型,并將3d面部作為一組形狀和混合形狀基線的線性組合,基于vgg網(wǎng)絡(luò)的臉部模型添加了子卷積神經(jīng)網(wǎng)絡(luò)(融合cnn)用于回歸表達參數(shù),以及用于身份參數(shù)預(yù)測和表達參數(shù)預(yù)測的多任務(wù)學(xué)習(xí)損失函數(shù),端到端訓(xùn)練中深度神經(jīng)網(wǎng)絡(luò)的輸入是一個二維圖像,輸出由身份參數(shù)向量和表達式參數(shù)向量組成。

為解決上述問題,本發(fā)明提供一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法,其主要內(nèi)容包括:

(一)3d面部形狀子空間模型;

(二)深度神經(jīng)網(wǎng)絡(luò)(dnn)架構(gòu);

(三)端到端訓(xùn)練。

其中,所述的3d臉部重建,可分為兩個子任務(wù),即重建3d面部形狀和重建面部表情,并結(jié)合多任務(wù)學(xué)習(xí)損失函數(shù)訓(xùn)練不同的層次,分別預(yù)測身份和表達參數(shù)。

其中,所述的3d面部形狀子空間模型,采用3d面部形狀子空間模型,并將3d面部作為一組形狀和混合形狀基線的線性組合:

其中,s是目標(biāo)3d面部,是平均面部形狀,ud是在3d面部掃描中訓(xùn)練的主要成分,αd是身份參數(shù)向量,ue是偏移訓(xùn)練的主要組成部分,αe是表達式參數(shù)向量;給定2d面部圖像,目標(biāo)是預(yù)測最佳身份和表達參數(shù),最小化重建的3d面部和標(biāo)定的真實數(shù)據(jù)之間的差異。

其中,所述的深度神經(jīng)網(wǎng)絡(luò)(dnn)架構(gòu),基于vgg網(wǎng)絡(luò)的臉部模型由13個卷積層和5個池層組成,并且添加了兩個關(guān)鍵組件:子卷積神經(jīng)網(wǎng)絡(luò)(融合cnn),融合了基于vgg網(wǎng)絡(luò)的臉部模型中間層的特征,用于回歸表達參數(shù),以及用于身份參數(shù)預(yù)測和表達參數(shù)預(yù)測的多任務(wù)學(xué)習(xí)損失函數(shù)。

進一步地,所述的兩個關(guān)鍵組件,通過多任務(wù)損失函數(shù),3d臉部重建被分為中性3d面部形狀重建和表達3d面部形狀重建;使用融合cnn,融合和變換不同中間層的特征,以預(yù)測3d面部形狀。

進一步地,所述的訓(xùn)練神經(jīng)層,通過這兩個組件,可以在單個dnn架構(gòu)中訓(xùn)練三種類型的神經(jīng)層;第一種類型的神經(jīng)層包括第四池層以下的部分,其學(xué)習(xí)對應(yīng)于低級面部結(jié)構(gòu)(例如邊緣和角落)的通用特征;這些層由兩個任務(wù)共享;第二類神經(jīng)層包括融合cnn中的三個卷積層和以下完全連接的層;這些層將學(xué)習(xí)表達特征;第三類型的神經(jīng)層包括在第四池層以上的部分,其學(xué)習(xí)更適合于預(yù)測身份參數(shù)的類別特征。

進一步地,所述的卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)的輸入是裁剪的rgb圖像并縮放到180×180像素;為了融合第4層和第5層的中間特征,將conv6和conv7層的內(nèi)核大小和步長分別設(shè)置為{5×5,2}和{1×1,1};在連接conv6和conv7的特征后,添加另外1×1個內(nèi)核卷積層conv8以減少特征維度。

其中,所述的端到端訓(xùn)練,深度神經(jīng)網(wǎng)絡(luò)的輸入是一個二維圖像,面部感興趣區(qū)域(roi)由面部檢測器定位;首先將檢測到的面部包圍盒放大到原始尺寸的0.25倍,然后將較短的邊緣延伸,以裁剪面部roi的平方圖像,其尺寸為180×180;深度神經(jīng)網(wǎng)絡(luò)的輸出由身份參數(shù)向量和表達式參數(shù)向量組成;它們用于使用公式(1)重建與輸入的2d圖像相對應(yīng)的3d面部形狀。

進一步地,所述的訓(xùn)練數(shù)據(jù),使用真實2d圖像和合成2d圖像來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò);真實2d圖像用于初始化深度神經(jīng)網(wǎng)絡(luò),合成2d圖像用于微調(diào);對于每個3d面部,合成25張具有不同面部姿勢、照明和面部表情的圖像。

進一步地,所述的成本函數(shù),選擇訓(xùn)練成本作為預(yù)測的3d面和標(biāo)定的真實數(shù)據(jù)的差異;為了測量這個差異,使用所有3d頂點的平方誤差之和:

其中,c∈{e,d},表示預(yù)測參數(shù)向量,αc表示標(biāo)定的真實數(shù)據(jù);

總損失函數(shù)計算為兩個損失函數(shù)的加權(quán)和:

e=λded+λeed(3)

其中,λd和λe是兩個單獨損失函數(shù)的權(quán)重。

附圖說明

圖1是本發(fā)明一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法的系統(tǒng)框架圖。

圖2是本發(fā)明一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法的3d面部重建實例。

圖3是本發(fā)明一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法的深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

具體實施方式

需要說明的是,在不沖突的情況下,本申請中的實施例及實施例中的特征可以相互結(jié)合,下面結(jié)合附圖和具體實施例對本發(fā)明作進一步詳細說明。

圖1是本發(fā)明一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法的系統(tǒng)框架圖。主要包括3d面部形狀子空間模型,深度神經(jīng)網(wǎng)絡(luò)(dnn)架構(gòu),端到端訓(xùn)練。

3d面部形狀子空間模型,采用3d面部形狀子空間模型,并將3d面部作為一組形狀和混合形狀基線的線性組合:

其中,s是目標(biāo)3d面部,是平均面部形狀,ud是在3d面部掃描中訓(xùn)練的主要成分,αd是身份參數(shù)向量,ue是偏移訓(xùn)練的主要組成部分,αe是表達式參數(shù)向量;給定2d面部圖像,目標(biāo)是預(yù)測最佳身份和表達參數(shù),最小化重建的3d面部和標(biāo)定的真實數(shù)據(jù)之間的差異。

端到端訓(xùn)練,深度神經(jīng)網(wǎng)絡(luò)的輸入是一個二維圖像,面部感興趣區(qū)域(roi)由面部檢測器定位;首先將檢測到的面部包圍盒放大到原始尺寸的0.25倍,然后將較短的邊緣延伸,以裁剪面部roi的平方圖像,其尺寸為180×180;深度神經(jīng)網(wǎng)絡(luò)的輸出由身份參數(shù)向量和表達式參數(shù)向量組成;它們用于使用公式(1)重建與輸入的2d圖像相對應(yīng)的3d面部形狀。

訓(xùn)練數(shù)據(jù),使用真實2d圖像和合成2d圖像來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò);真實2d圖像用于初始化深度神經(jīng)網(wǎng)絡(luò),合成2d圖像用于微調(diào);對于每個3d面部,合成25張具有不同面部姿勢、照明和面部表情的圖像。

成本函數(shù),選擇訓(xùn)練成本作為預(yù)測的3d面和標(biāo)定的真實數(shù)據(jù)的差異;為了測量這個差異,使用所有3d頂點的平方誤差之和:

其中,c∈{e,d},表示預(yù)測參數(shù)向量,αc表示標(biāo)定的真實數(shù)據(jù);

總損失函數(shù)計算為兩個損失函數(shù)的加權(quán)和:

e=λded+λeee(3)

其中,λd和λe是兩個單獨損失函數(shù)的權(quán)重。

圖2是本發(fā)明一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法的3d面部重建實例。3d臉部重建可分為兩個子任務(wù),即重建3d面部形狀和重建面部表情,并結(jié)合多任務(wù)學(xué)習(xí)損失函數(shù)訓(xùn)練不同的層次,分別預(yù)測身份和表達參數(shù)。

圖3是本發(fā)明一種基于深度神經(jīng)網(wǎng)絡(luò)的端到端三維人臉重建方法的深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)?;趘gg網(wǎng)絡(luò)的臉部模型由13個卷積層和5個池層組成,并且添加了兩個關(guān)鍵組件:子卷積神經(jīng)網(wǎng)絡(luò)(融合cnn),融合了基于vgg網(wǎng)絡(luò)的臉部模型中間層的特征,用于回歸表達參數(shù),以及用于身份參數(shù)預(yù)測和表達參數(shù)預(yù)測的多任務(wù)學(xué)習(xí)損失函數(shù)。

通過多任務(wù)損失函數(shù),3d臉部重建被分為中性3d面部形狀重建和表達3d面部形狀重建;使用融合cnn,融合和變換不同中間層的特征,以預(yù)測3d面部形狀。

通過這兩個組件,可以在單個dnn架構(gòu)中訓(xùn)練三種類型的神經(jīng)層;第一種類型的神經(jīng)層包括第四池層以下的部分,其學(xué)習(xí)對應(yīng)于低級面部結(jié)構(gòu)(例如邊緣和角落)的通用特征;這些層由兩個任務(wù)共享;第二類神經(jīng)層包括融合cnn中的三個卷積層和以下完全連接的層;這些層將學(xué)習(xí)表達特征;第三類型的神經(jīng)層包括在第四池層以上的部分,其學(xué)習(xí)更適合于預(yù)測身份參數(shù)的類別特征。

卷積神經(jīng)網(wǎng)絡(luò)的輸入是裁剪的rgb圖像并縮放到180×180像素;為了融合第4層和第5層的中間特征,將conv6和conv7層的內(nèi)核大小和步長分別設(shè)置為{5×5,2}和{1×1,1};在連接conv6和conv7的特征后,添加另外1×1個內(nèi)核卷積層conv8以減少特征維度。

對于本領(lǐng)域技術(shù)人員,本發(fā)明不限制于上述實施例的細節(jié),在不背離本發(fā)明的精神和范圍的情況下,能夠以其他具體形式實現(xiàn)本發(fā)明。此外,本領(lǐng)域的技術(shù)人員可以對本發(fā)明進行各種改動和變型而不脫離本發(fā)明的精神和范圍,這些改進和變型也應(yīng)視為本發(fā)明的保護范圍。因此,所附權(quán)利要求意欲解釋為包括優(yōu)選實施例以及落入本發(fā)明范圍的所有變更和修改。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
泸定县| 罗江县| 木里| 青铜峡市| 福泉市| 扎兰屯市| 乳源| 榕江县| 乌拉特后旗| 怀柔区| 瓮安县| 灵川县| 新宁县| 日土县| 余姚市| 丽江市| 阿拉善左旗| 盐城市| 乐至县| 香河县| 唐海县| 汝阳县| 郎溪县| 玉田县| 惠安县| 临海市| 崇左市| 曲水县| 山阴县| 固镇县| 洛阳市| 长泰县| 宁国市| 贵州省| 河源市| 冀州市| 七台河市| 吴堡县| 广东省| 巧家县| 湘潭县|