一種編輯動畫人物口型的方法及裝置的制造方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及計算機動畫技術(shù)領(lǐng)域,尤其涉及一種編輯動畫人物口型的方法及裝置。
【背景技術(shù)】
[0002]隨著圖像與圖形處理技術(shù)的不斷發(fā)展,電子游戲用戶對游戲人物的生動表現(xiàn)程度的要求也越來越高。而現(xiàn)有的電子游戲中,大多非玩家控制角色(Non-Player Characte,NPC)和玩家角色在特寫鏡頭時,基本都是表情僵硬無變化。導致人物角色在游戲中表現(xiàn)不佳,不能生動地展現(xiàn)其性格與情緒。尤其是在角色之間出現(xiàn)對話場景時,各角色人物面部基本沒有任何表情,這就極大的影響了游戲動畫的效果,從而也就影響了電子游戲用戶的體驗。
【發(fā)明內(nèi)容】
[0003]有鑒于此,本發(fā)明實施例提出一種編輯動畫人物口型的方法及裝置,以實現(xiàn)在游戲動畫中編輯動畫人物口型的目的。
[0004]一方面,本發(fā)明實施例提供了一種編輯動畫人物口型的方法,所述方法包括:
[0005]加載預(yù)定義的面部模型文件;
[0006]獲取輸入的文本信息;
[0007]根據(jù)所輸入的文本信息確定對應(yīng)的口型。
[0008]另一方面,本發(fā)明實施例提供了一種編輯動畫人物口型的裝置,所述裝置包括:
[0009]面部模型加載單元,用于加載預(yù)定義的面部模型;
[0010]對話文本獲取單元,用于獲取輸入的文本信息;
[0011 ] 口型編輯單元,根據(jù)所輸入的文本信息確定對應(yīng)的口型。
[0012]本發(fā)明實施例提供的輯動畫人物口型的方法及裝置,通過獲取對話文本內(nèi)容,根據(jù)所采集的對話文本內(nèi)容編輯口型??梢允褂脩舴奖愕鼐庉媱赢嬋宋锟谛筒⒄故荆嵘擞螒蛑腥宋锏谋憩F(xiàn)效果。
【附圖說明】
[0013]通過閱讀參照以下附圖所作的對非限制性實施例所作的詳細描述,本發(fā)明的其它特征、目的和優(yōu)點將會變得更明顯:
[0014]圖1是本發(fā)明第一實施例提供的編輯動畫人物口型的方法的流程圖;
[0015]圖2是本發(fā)明第二實施例提供的編輯動畫人物口型的方法的流程圖;
[0016]圖3是本發(fā)明第三實施例提供的編輯動畫人物口型的方法的流程圖;
[0017]圖4是本發(fā)明第四實施例提供的編輯動畫人物口型的方法的流程圖;
[0018]圖5是本發(fā)明第五實施例提供的編輯動畫人物口型的方法的流程圖;
[0019]圖6是本發(fā)明第六實施例提供的編輯動畫人物口型的方法的流程圖;
[0020]圖7是本發(fā)明第七實施例提供的編輯動畫人物口型的裝置的結(jié)構(gòu)圖。
【具體實施方式】
[0021]下面結(jié)合附圖和實施例對本發(fā)明作進一步的詳細說明??梢岳斫獾氖牵颂幩枋龅木唧w實施例僅用于解釋本發(fā)明,而非對本發(fā)明的限定。另外還需要說明的是,為了便于描述,附圖中僅示出了與本發(fā)明相關(guān)的部分而非全部內(nèi)容。
[0022]圖1示出了本發(fā)明的第一實施例。
[0023]圖1是本發(fā)明第一實施例提供的編輯動畫人物口型的方法的流程圖。所述編輯動畫人物口型的方法包括:
[0024]步驟SlOl,加載預(yù)定義的面部模型文件。
[0025]在游戲動畫中,進行人物對話的角色包括NPC和其它角色人物。編輯人物口型時,應(yīng)先確定該對話內(nèi)容是由哪位角色人物所發(fā)出的。本實例中,將游戲動畫中所有角色人物的面部信息都預(yù)先生成相應(yīng)的模型。該模型可展示角色人物的面部及各器官特征。之后,將這些生成的面部模型保存至面部模型庫文件中。在用戶進行編輯動畫人物口型前,可以從面部模型庫中加載發(fā)出對話角色人物的面部模型。
[0026]步驟S102,獲取輸入的文本信息。
[0027]在游戲動畫中,人物之間對話的口型與對話內(nèi)容有著密不可分的聯(lián)系。對話的發(fā)音直接決定著人物口型的變化。如果需要編輯口型,必然需要獲取游戲中人物對話的內(nèi)容。可以向需要編輯人物口型的用戶通過提供一個對話框,供用戶在此對話框內(nèi)輸入相應(yīng)的對話文本,接收并獲取用戶輸入的對話內(nèi)容信息。
[0028]步驟S103,根據(jù)所輸入的文本信息確定對應(yīng)的口型。
[0029]口型是可以根據(jù)文字的發(fā)音來確定的。由此,可以預(yù)先設(shè)立一個口型庫,使得所輸入的文本信息能夠匹配到對應(yīng)的口型,從而進行輸出展示??梢詫⒊S玫臐h字與發(fā)音的口型建立對應(yīng)關(guān)系,并保存生成口型庫。在確定步驟SlOl所采集的文本內(nèi)容后,按照其中的漢字與口型的關(guān)系在口型庫中進行查找。確定文本內(nèi)容所對應(yīng)的口型后,并將其保存成相應(yīng)的文件,供后期展示時調(diào)用。
[0030]本發(fā)明實施例通過加載預(yù)定義的面部模型文件,獲取輸入的文本信息,根據(jù)所輸入的文本信息確定對應(yīng)的口型。這樣可以使用戶只輸入對話的文本內(nèi)容即可編輯相應(yīng)的動畫人物口型并進行展示。簡化了用戶操作的同時,也提升了游戲中人物的表現(xiàn)效果。
[0031]圖2示出了本發(fā)明的第二實施例。
[0032]圖2是本發(fā)明第二實施例提供的編輯動畫人物口型的方法的流程圖。所述編輯動畫人物口型的方法以本發(fā)明第一實施例為基礎(chǔ),進一步的,在所述根據(jù)所獲取的文本信息內(nèi)容編輯口型之后增加如下步驟:根據(jù)所獲取的文本信息內(nèi)容加載指定的配音文件;根據(jù)指定的配音文件調(diào)整口型。
[0033]參見圖2,所述的編輯動畫人物口型的方法,包括:
[0034]步驟S201,加載預(yù)定義的面部模型文件。
[0035]步驟S202,獲取輸入的文本信息。
[0036]步驟S203,根據(jù)所輸入的文本信息確定對應(yīng)的口型。
[0037]步驟S204,為獲取到的文本信息內(nèi)容加載預(yù)定義的配音音頻文件。
[0038]在步驟S203中,所編輯后獲取的口型是根據(jù)文本中的每一個字的發(fā)音來確定的,雖然相對準確,但由于日常人類交流的語音還存在著語氣的變化。單純依靠文字的發(fā)音并不能準確的表達相應(yīng)的口型。為了更好的模擬對話時角色人物的口型,可以預(yù)先為輸入的文本內(nèi)容配音,并將配音文件保存。用戶可以加載指定所保存的配音文件。
[0039]步驟S205,根據(jù)所加載的配音音頻文件信息調(diào)整口型。
[0040]根據(jù)步驟S204所指定的配音文件,識別語氣等使得口型產(chǎn)生的不同。并根據(jù)這些不同,對步驟S203所編輯的口型進行調(diào)整。
[0041]本發(fā)明實施例通過在所述根據(jù)所獲取的文本信息內(nèi)容編輯口型之后增加如下步驟:為獲取到的文本信息內(nèi)容加載預(yù)定義的配音音頻文件;根據(jù)所加載的配音音頻文件信息調(diào)整口型。通過根據(jù)配音文件進一步對口型進行調(diào)整,能夠使調(diào)整口型與對話配合得更加貼切,從而使動畫人物形象更加生動。
[0042]圖3示出了本發(fā)明的第三實施例。
[0043]圖3是本發(fā)明第三實施例提供的編輯動畫人物口型的方法的流程圖。所述編輯動畫人物口型的方法以本發(fā)明第二實施例為基礎(chǔ),進一步的,將所述的根據(jù)所加載的配音音頻文件調(diào)整口型具體優(yōu)化為:根據(jù)所加載的配音音頻文件中單個文字發(fā)音的時長調(diào)整口型。根據(jù)選擇的配音音頻文件的語音參數(shù)調(diào)整口型,所述的語音參數(shù)包括聲母最大強度、聲母峰值位置、韻母最大強度和韻母峰值位置。
[0044]參見圖3,所述的編輯動畫人物口型的方法,包括:
[0045]步驟S301,加載預(yù)定義的面部模型文件。
[0046]步驟S302,獲取輸入的文本信息。
[0047]步驟S303,根據(jù)所輸入的文本信息確定對應(yīng)的口型。
[0048]步驟S304,為獲取到的文本信息內(nèi)容加載預(yù)定義的配音音頻文件。
[0049]步驟S305,根據(jù)所加載配音音頻文件中的單個文字發(fā)音的時長調(diào)整口型。
[0050]用戶可以先對配音文件中每一個文字發(fā)音時間的長短進行設(shè)置。即讀取配音文件,并為配音文件設(shè)置時間軸。所述的設(shè)置時間軸是以配音文件所播放的時長為依據(jù)。用戶可以在時間軸上進行拖放操作,來實現(xiàn)對配音文件中每一個文字發(fā)音時間長短的控制。
[0051]在調(diào)整好配音文件中每一個文字發(fā)音的時長后,用戶可以根據(jù)單個文字發(fā)音的時長調(diào)整每個文字所對應(yīng)口型的持續(xù)時間。這樣可以使得動畫人物的口型與其所發(fā)出的對話更加貼合。
[0052]本發(fā)明實施例通過將所述的根據(jù)所加載的配音音頻文件調(diào)整口型具體優(yōu)化為:根據(jù)所加載配音音頻文件中的單個文字發(fā)音的時長調(diào)整口型。根據(jù)實際對話的單個文字發(fā)聲時間長短調(diào)整口型,使得游戲動畫中角色人物在對話中口型更加貼合實際,人物表現(xiàn)更加真實生動。
[0053]圖4是本發(fā)明第四實施例提供的編輯動畫人物口型的方法的流程圖。所述編輯動畫人物口型的方法以本發(fā)明第二實施例為基礎(chǔ),進一步的,將所述的根據(jù)所加載的配音音頻文件調(diào)整口型具體優(yōu)化為:根據(jù)所加載的配音音頻文件的語音參數(shù)調(diào)整口型,所述的語音參數(shù)包括聲母最大強度、聲母峰值位置、韻母最大強度和韻母峰值位置。
[0054]參見圖4,所述的編輯動畫人物口型的方法,包括:
[0055]步驟S401,加載預(yù)定義的面部模型文件。
[0056]步驟S402,獲取輸入的文本信息。
[0057]步驟S403,根據(jù)所輸入的文本信息確定對應(yīng)的口型。
[0058]步驟S404,為獲取到的文本信息內(nèi)容加載預(yù)定義的配音音頻文件。
[0059]步驟S405,根據(jù)所加載的配音音頻文件的語音參數(shù)調(diào)整口型,所述的語音參數(shù)包括聲母最大強度、聲母峰值位置、韻母最大強度和韻母峰值位置。
[0060]在人們進行實際對話時,會對句子中的某些詞匯加以強調(diào)。這些強調(diào)的字或詞是通過加強發(fā)音的聲母強度與峰值及韻母的強度與峰值來實現(xiàn)的。由此,在本實例中,將聲母和韻母的強度及峰值作為參數(shù)來對口型進行調(diào)整。
[0061]用戶可以根據(jù)語音參數(shù)中不同聲母和韻母的最大強度與峰值,來預(yù)先建立對應(yīng)的口型參數(shù)。通過用戶對聲母最大強度、聲母峰值位置、韻母最大強度及韻母峰值位置設(shè)置的參數(shù)值,按照其與口型參數(shù)值的對應(yīng)關(guān)系來調(diào)整口型。
[0062]用戶對聲母最大強度、聲母峰值位置、韻母最大強度及韻母峰值位置參數(shù)值的調(diào)整為盡可能地貼近實際,所調(diào)整的數(shù)值量可能是非常小的變化,而預(yù)先設(shè)定的所對應(yīng)的口型參數(shù)值可能并不能完全與之對應(yīng)。對于這種情況,還可以采用插值計算方法來實現(xiàn)。插值算法可以采用線性或者正弦的計算方法。
[0063]例如預(yù)先設(shè)定聲母最大強度值為0.6時,所對應(yīng)的口型參數(shù)值為0.23 ;聲母最大強度值0.7時,所對應(yīng)的口型參數(shù)值為0.245。而當用戶需要調(diào)整聲母最大強度值為0.632時,可以采用將對應(yīng)的口型參數(shù)生成線性圖表或者正弦圖表的插值計算方法來實現(xiàn)。即將0.632值插入到所述的線性圖表或者正弦圖表中,進而通過圖表