技術(shù)總結(jié)
本發(fā)明提供一種基于深度遞歸神經(jīng)網(wǎng)絡(luò)的視頻去噪方法,所述方法采用端到端的深度神經(jīng)網(wǎng)絡(luò)模型,所述深度神經(jīng)網(wǎng)絡(luò)模型包含兩層遞歸神經(jīng)網(wǎng)絡(luò),將有噪視頻作為輸入,第一層遞歸神經(jīng)網(wǎng)絡(luò)通過遞歸和非線性運(yùn)算獲得視頻的初級(jí)特征,并將其作為輸出傳遞到下一層遞歸神經(jīng)網(wǎng)絡(luò),視頻在第二層遞歸網(wǎng)絡(luò)中獲得高級(jí)特征,輸出層利用兩層遞歸神經(jīng)網(wǎng)絡(luò)獲得的特征解碼重構(gòu)最終輸出去噪后的視頻;本發(fā)明利用時(shí)間域的遞歸結(jié)構(gòu)端到端地進(jìn)行視頻去噪,無(wú)須通過其他復(fù)雜算法獲取視頻的運(yùn)動(dòng)信息;利用深度網(wǎng)絡(luò)結(jié)構(gòu)強(qiáng)大的表達(dá)能力實(shí)現(xiàn)有噪視頻與去噪視頻之間的映射;能夠延展并應(yīng)用在各種不同類型的噪聲中,如高斯噪聲、泊松?高斯混合噪聲等。
技術(shù)研發(fā)人員:宋利;陳欣苑;楊小康
受保護(hù)的技術(shù)使用者:上海交通大學(xué)
文檔號(hào)碼:201610729038
技術(shù)研發(fā)日:2016.08.25
技術(shù)公布日:2017.01.11