1.一種基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,包括如下步驟:
2.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟獲取原始語音數(shù)據(jù)對(duì)應(yīng)的fft特征之前,還包括:
3.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟基于卷積神經(jīng)網(wǎng)絡(luò)對(duì)fft特征進(jìn)行特征提取,獲取卷積特征信息的方法,包括如下步驟:
4.根據(jù)權(quán)利要求3所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟基于循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)卷積特征信息進(jìn)行處理,獲取處理后的卷積特征信息的方法,包括以下步驟:
5.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟基于不同層次特征融合結(jié)構(gòu)結(jié)合卷積神經(jīng)網(wǎng)絡(luò)獲取編碼特征及解碼特征的權(quán)重系數(shù),將編碼特征、解碼特征分別與對(duì)應(yīng)權(quán)重系數(shù)相乘后再相加獲取特征融合信息的方法,具體操作包括:
6.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟基于卷積神經(jīng)網(wǎng)絡(luò)對(duì)特征融合信息及處理后的卷積特征信息進(jìn)行特征提取,獲取反卷積特征信息的方法,具體操作包括:
7.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟基于反卷積特征信息求出多幀掩碼特征,結(jié)合多幀輸入特征求得當(dāng)前幀的輸出結(jié)果的方法,具體操作包括,
8.根據(jù)權(quán)利要求7所述的基于深度學(xué)習(xí)的語音增強(qiáng)方法,其特征在于,所述步驟將當(dāng)前幀的輸入特征x與輸出的掩碼特征m點(diǎn)乘求和,得到當(dāng)前幀的輸出結(jié)果的方法,具體操作包括,
9.一種基于深度學(xué)習(xí)的語音增強(qiáng)系統(tǒng),其特征在于,包括
10.根據(jù)權(quán)利要求9所述的基于深度學(xué)習(xí)的語音增強(qiáng)系統(tǒng),其特征在于,還包括構(gòu)建模塊,用于構(gòu)建語音增強(qiáng)模型。