基于文字輸入的說唱音樂自動生成方法
【專利摘要】本發(fā)明公開了一種基于文字輸入的說唱音樂自動生成方法,包括以下步驟:S1.用戶輸入文本信息;S2.對文本信息進(jìn)行分詞,得到多個詞組;S3.根據(jù)步驟S2中得到的詞組從素材庫中篩選出備選Riff;S4.將分詞后的文本轉(zhuǎn)換為分段語音;S5.向分段語音和備選Riff加入效果器;S6.輸出說唱音樂。本發(fā)明通過機(jī)器學(xué)習(xí)等技術(shù)的幫助,使得普通大眾能夠參與到音樂制作、交互這種專業(yè)活動中創(chuàng)造屬于自己的音樂,在此過程中用戶只需輸入文本信息,即可自動生成相應(yīng)的說唱音樂。
【專利說明】
基于文字輸入的說唱音樂自動生成方法
技術(shù)領(lǐng)域
[0001]本發(fā)明涉及音樂制作技術(shù)領(lǐng)域,特別是涉及一種基于文字輸入的說唱音樂自動生成方法。
【背景技術(shù)】
[0002]回顧音樂的發(fā)展史,音樂的創(chuàng)作和交互方式從未發(fā)生過大的變化。在人類文明高度發(fā)展的今天,傳統(tǒng)上音樂首先被專業(yè)人士創(chuàng)作出來,進(jìn)而以磁帶、CD、電臺或互聯(lián)網(wǎng)音頻流等形式進(jìn)入大眾耳朵。現(xiàn)場演出會可能發(fā)生的部分即興改編,或類似于“音樂背后的創(chuàng)作故事”等對話交流,音樂從被創(chuàng)作出來,直至在大眾中傳播之整個過程幾乎不存在任何變化。同時,音樂本身和聽眾之間的交互也僅停留于“你寫我聽”的層面。由于聽眾類型、情緒、喜好等外在因素和音樂本身之間缺少感應(yīng)傳輸媒介,音樂也無法隨外界輸入變化而變化。
[0003]近年來,在機(jī)器學(xué)習(xí)技術(shù)以及音頻算法等前沿科技的驅(qū)動下,出現(xiàn)了PC端的音樂工作站及各類插件(如Cubase,Protool,Ablton Live等)aAblton Live的最新版本已支持音頻文件的變速不變調(diào)以及分片操作。由于音頻工作站專注于錄音,縮混及后期制作,其使用局限于錄音師、編曲、作曲等專業(yè)人士,其距離普通大眾還很遙遠(yuǎn)。另外,音頻工作站只負(fù)責(zé)提供“使用工具”,而無法勝任“創(chuàng)作工具”的角色。作為一種傳遞“人的想法”的媒介,音頻工作站在人的指揮下,把人的想法落實(shí)到音樂上,把已經(jīng)存在的demo加工成高品質(zhì)歌曲(前提是編曲人員需要有完整的編曲思路,而音頻工作站本身無法提供這種思路)。層出不窮的高質(zhì)量插件(提供混響均衡等特殊音頻處理)在效果上已經(jīng)接近于硬件,這使得音頻工作站的能力如虎添翼,然而迄今為止所有的音頻工作站都無法實(shí)現(xiàn)“音樂自動生成”或交“互式音樂生成”。
【發(fā)明內(nèi)容】
[0004]本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種基于文字輸入的說唱音樂自動生成方法,能夠根據(jù)用戶輸入的文本信息,自動生成說唱音樂。
[0005]本發(fā)明的目的是通過以下技術(shù)方案來實(shí)現(xiàn)的:基于文字輸入的說唱音樂自動生成方法,包括以下步驟:
51.用戶輸入文本信息;
52.對文本信息進(jìn)行分詞,得到多個詞組;
53.根據(jù)步驟S2中得到的詞組從素材庫中篩選出備選Riff;
54.將分詞后的文本轉(zhuǎn)換為分段語音;
55.向分段語音和備選Riff加入效果器;
56.輸出說唱音樂。
[0006]所述步驟S3中,以步驟S2中得到的詞組和配樂Riff之間、以及Riff和Riff之間在整體上協(xié)調(diào)性最大為目標(biāo),篩選素材庫得到備選Riff。
[0007]所述協(xié)調(diào)性包括節(jié)奏型的和諧、速度的匹配和重音的吻合。
[0008]所述步驟S3和步驟S4之間還包括局部細(xì)調(diào)步驟S2中得到的各詞組之間的相對位置的步驟。
[0009]所述步驟S4和S5之間還包括根據(jù)步驟S2中得到的各詞組之間的相對位置對分段語音進(jìn)行變速不變調(diào)操作。
[0010]所述步驟S3之前還包括建立素材庫,并標(biāo)注素材庫中Riff的屬性的步驟。
[0011]所述步驟S5中效果器包括混響效果器、鑲邊效果器、延遲效果器和回聲效果器。
[0012]所述步驟S6之后還包括將說唱音樂分享到社交媒體的步驟。
[0013]本發(fā)明的有益效果是:本發(fā)明中,通過機(jī)器學(xué)習(xí)等技術(shù)的幫助,使得普通大眾能夠參與到音樂制作、交互這種專業(yè)活動中創(chuàng)造屬于自己的音樂,在此過程中用戶只需輸入文本信息,即可自動生成相應(yīng)的說唱音樂。
【附圖說明】
[0014]圖1為本發(fā)明基于文字輸入的說唱音樂自動生成方法的流程圖。
【具體實(shí)施方式】
[0015]下面結(jié)合附圖進(jìn)一步詳細(xì)描述本發(fā)明的技術(shù)方案,但本發(fā)明的保護(hù)范圍不局限于以下所述。
[0016]如圖1所示,基于文字輸入的說唱音樂自動生成方法,包括以下步驟:
S1.用戶輸入文本信息。
[0017]S2.對文本信息進(jìn)行分詞,得到多個詞組。
[0018]S3.根據(jù)步驟S2中得到的詞組從素材庫中篩選出備選Riff(即粗篩)。
[0019]所述步驟S3中,以步驟S2中得到的詞組和配樂Riff之間、以及Riff和Riff之間在整體上協(xié)調(diào)性最大為目標(biāo),篩選素材庫得到備選Riff。本發(fā)明采用最優(yōu)匹配算法實(shí)現(xiàn)分詞后的文本和配樂Riff之間、以及Riff和Riff之間在整體上的協(xié)調(diào)性;本實(shí)施例中最優(yōu)匹配算法米用基因配對算法,比如Blast算法。
[0020]所述協(xié)調(diào)性包括節(jié)奏型的和諧、速度的匹配和重音的吻合。
[0021]所述步驟S3之前還包括建立素材庫,并標(biāo)注素材庫中Riff的屬性的步驟。對RifT的屬性進(jìn)行標(biāo)注的方式包括半監(jiān)督學(xué)習(xí)方式和人工標(biāo)注方式,本實(shí)施例中以半監(jiān)督學(xué)習(xí)方式為主,結(jié)合人工標(biāo)注,為素材庫中存儲的所有Riff添加標(biāo)簽,即進(jìn)行標(biāo)注(如鼓、吉他、貝司等Rif f的速度、長度、根音、節(jié)奏型,以及情緒類型等)。
[0022]Riff包括Loop(如鼓、吉他、貝斯、弦樂、特殊音效等音頻片段)和VST(包括midi文件和虛擬樂器采樣),多個不同的Riff按音樂發(fā)揮在那的時間先后順序排列構(gòu)成一軌的Riff集,若干軌的Riff集(比如常見的鼓軌Riff集,吉他軌Riff集,貝斯軌Riff集,弦樂軌Riff集,特殊音效軌Riff集等)構(gòu)成一首完整歌曲的音樂部分。
[0023]所述Riff的屬性包括該Riff屬于何種樂器、是什么拍子、速度、時長、最大時間拉伸/壓縮比,以及Riff的風(fēng)格(搖滾、民謠)、情緒(舒緩的、急躁的),或最適合出現(xiàn)于哪個樂段(引子部分、高潮部分、副歌部分)。
[0024]所述步驟S3和步驟S4之間還包括局部細(xì)調(diào)步驟S2中得到的各詞組之間的相對位置的步驟。最大化文本和Riff在局部上的協(xié)調(diào)性(這里可加多種正則項至優(yōu)化目標(biāo),以達(dá)到某些特殊目的)。
[0025]S4.根據(jù)分詞后得到的各詞組之間的相對位置信息,將分詞后的文本轉(zhuǎn)換為帶節(jié)奏的分段語音。
[0026]所述步驟S4和S5之間還包括根據(jù)步驟S2中得到的各詞組之間的相對位置對分段語音進(jìn)行相應(yīng)的變速不變調(diào)操作。本實(shí)施例中采用SOLA算法實(shí)現(xiàn)對分段語音的變速不變調(diào)操作,SOLA算法可以使一段語音在語調(diào)不發(fā)生變化的前提下,加快、減慢語音速度,被廣泛用于復(fù)讀機(jī)、語音掃描等領(lǐng)域,商用音高修正等軟件中的核心組成部分是在保持語音速度不變的前提下,SOLA算法可用于提高、降低語音之音調(diào)。
[0027]S5.對分段語音和備選Riff,在一定的約束下,分別隨機(jī)加入適度的效果器(效果器以插件形式存在,單獨(dú)制作),以實(shí)現(xiàn)說唱在整體上的悅耳性和多樣性。
[0028]所述步驟S5之前還包括創(chuàng)建效果器的步驟。
[0029]所述步驟S5中效果器包括混響效果器、鑲邊效果器、延遲效果器和回聲效果器。
[0030]S6.輸出說唱音樂。將分段語音和備選Riff進(jìn)行排序組合,生成說唱音樂并輸出。[0031 ]所述步驟S6之后還包括將說唱音樂分享到社交媒體的步驟。
[0032]以上所述僅是本發(fā)明的優(yōu)選實(shí)施方式,應(yīng)當(dāng)理解本發(fā)明并非局限于本文所披露的形式,不應(yīng)看作是對其他實(shí)施例的排除,而可用于各種其他組合、修改和環(huán)境,并能夠在本文所述構(gòu)想范圍內(nèi),通過上述教導(dǎo)或相關(guān)領(lǐng)域的技術(shù)或知識進(jìn)行改動。而本領(lǐng)域人員所進(jìn)行的改動和變化不脫離本發(fā)明的精神和范圍,則都應(yīng)在本發(fā)明所附權(quán)利要求的保護(hù)范圍內(nèi)。
【主權(quán)項】
1.基于文字輸入的說唱音樂自動生成方法,其特征在于:包括以下步驟: 51.用戶輸入文本信息; 52.對文本信息進(jìn)行分詞,得到多個詞組; 53.根據(jù)步驟S2中得到的詞組從素材庫中篩選出備選Riff; 54.將分詞后的文本轉(zhuǎn)換為分段語音; 55.向分段語音和備選RifT加入效果器; 56.輸出說唱音樂。2.根據(jù)權(quán)利要求1所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述步驟S3中,以步驟S2中得到的詞組和配樂Riff之間、以及Riff和Riff之間在整體上協(xié)調(diào)性最大為目標(biāo),篩選素材庫得到備選Riff。3.根據(jù)權(quán)利要求2所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述協(xié)調(diào)性包括節(jié)奏型的和諧、速度的匹配和重音的吻合。4.根據(jù)權(quán)利要求1所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述步驟S3和步驟S4之間還包括局部細(xì)調(diào)步驟S2中得到的各詞組之間的相對位置的步驟。5.根據(jù)權(quán)利要求4所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述步驟S4和S5之間還包括根據(jù)步驟S2中得到的各詞組之間的相對位置對分段語音進(jìn)行變速不變調(diào)操作。6.根據(jù)權(quán)利要求1所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述步驟S3之前還包括建立素材庫,并標(biāo)注素材庫中Ri f f的屬性的步驟。7.根據(jù)權(quán)利要求1所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述步驟S5中效果器包括混響效果器、鑲邊效果器、延遲效果器和回聲效果器。8.根據(jù)權(quán)利要求1所述的基于文字輸入的說唱音樂自動生成方法,其特征在于:所述步驟S6之后還包括將說唱音樂分享到社交媒體的步驟。
【文檔編號】G10H1/00GK105931625SQ201610253695
【公開日】2016年9月7日
【申請日】2016年4月22日
【發(fā)明人】湯影, 楊林
【申請人】成都涂鴉科技有限公司