欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于人工神經(jīng)網(wǎng)絡(luò)的視頻質(zhì)量評(píng)價(jià)方法

文檔序號(hào):7694016閱讀:270來(lái)源:國(guó)知局
專利名稱:一種基于人工神經(jīng)網(wǎng)絡(luò)的視頻質(zhì)量評(píng)價(jià)方法
技術(shù)領(lǐng)域
本發(fā)明涉及計(jì)算機(jī)數(shù)字視頻處理領(lǐng)域,設(shè)計(jì)了一種基于人工神經(jīng)網(wǎng)絡(luò)的無(wú)參考數(shù)字視 頻質(zhì)量評(píng)價(jià)方法。
技術(shù)背景視頻圖像是可視化視覺(jué)信息的主要表現(xiàn)形式,視頻圖像處理是目前重要的研究領(lǐng)域之 一。在視頻圖像應(yīng)用領(lǐng)域的各個(gè)環(huán)節(jié),如采集、壓縮、傳輸、處理、存儲(chǔ)等,都不可避免 地會(huì)影響到圖像質(zhì)量。由于圖像最終是供用戶觀看的,因此對(duì)于圖像質(zhì)量的正確評(píng)價(jià)是圖 像信息工程中的關(guān)鍵技術(shù)之一。視頻圖像質(zhì)量的評(píng)價(jià)方法可分為兩大類主觀評(píng)價(jià)和客觀評(píng)價(jià)。主觀評(píng)價(jià)是直接利用 觀察者對(duì)被測(cè)圖像的視覺(jué)感知來(lái)確定圖像質(zhì)量的一種測(cè)試,其測(cè)量結(jié)果可靠,且符合圖像 的實(shí)際觀察質(zhì)量,因此,在圖像質(zhì)量測(cè)量領(lǐng)域占據(jù)重要地位,目前已有相應(yīng)的國(guó)際標(biāo)準(zhǔn)(如ITU-RBT.500, ITU-RBT.710)。但主觀評(píng)價(jià)的測(cè)試環(huán)境要求極為嚴(yán)格,實(shí)現(xiàn)過(guò)程復(fù)雜,且 不具有可重復(fù)性。隨著視頻圖像應(yīng)用領(lǐng)域的不斷擴(kuò)展,在某些應(yīng)用環(huán)境下,無(wú)法進(jìn)行有效 的主觀評(píng)價(jià)。而客觀評(píng)價(jià)算法則通過(guò)分析視頻處理算法和人類視覺(jué)特性來(lái)建立數(shù)學(xué)模型, 以實(shí)現(xiàn)對(duì)圖像質(zhì)量的自動(dòng)測(cè)量。此類算法可嵌入到視頻處理的各個(gè)環(huán)節(jié),對(duì)視頻流質(zhì)量進(jìn) 行定量分析并可進(jìn)一步分析和調(diào)整系統(tǒng)參數(shù)以改善最終的圖像顯示效果。因此,圖像質(zhì)量 客觀評(píng)價(jià)算法是目前的一個(gè)研究熱點(diǎn)。傳統(tǒng)的客觀質(zhì)量評(píng)價(jià)算法以MSE (均方誤差)和PSNR (峰值信噪比)為代表。此類 評(píng)價(jià)算法理論直觀、計(jì)算簡(jiǎn)單,在一般情況下可獲得較好的測(cè)量結(jié)果。但這種基于信號(hào)的 客觀評(píng)價(jià)算法并沒(méi)有考慮人眼在觀看圖像時(shí)的感知特性,因此在某些情況下,所獲得的測(cè) 量結(jié)果與主觀感覺(jué)并不一致。近幾年來(lái),在充分分析視頻處理算法和視覺(jué)感知特性基礎(chǔ)上, 各研究機(jī)構(gòu)提出了很多改進(jìn)算法,根據(jù)算法對(duì)未失真圖像的依賴程度,我們可將算法分為 三種1. 基于全參考幀(FR-Full Reference)的視頻質(zhì)量評(píng)價(jià)無(wú)失真原始視頻圖像可完全用于圖像質(zhì)量的客觀評(píng)價(jià)算法中,因此,測(cè)量結(jié)果相對(duì)準(zhǔn) 確。但存在以下問(wèn)題(1)考慮了原始視頻的評(píng)價(jià)算法數(shù)據(jù)量龐大,運(yùn)算復(fù)雜度高;(2) 在很多應(yīng)用場(chǎng)合,無(wú)失真圖像在接收端不可獲取;2. 基于縮減參考幀(RR-Reduced Reference)的視頻質(zhì)量評(píng)價(jià)無(wú)失真原始視頻圖像的特征參數(shù)可用于圖像質(zhì)量的客觀評(píng)價(jià)算法中。該算法首先定義 并提取原始視頻圖像的各項(xiàng)特征參數(shù),然后通過(guò)一個(gè)帶寬較窄的輔助信道將這些參數(shù)傳輸 到接收端。在接收端提取待測(cè)的受損圖像的同樣特征參數(shù),通過(guò)對(duì)這兩組特征參數(shù)的統(tǒng)計(jì) 分析,獲取受損圖像質(zhì)量的客觀評(píng)價(jià)結(jié)果。相比較FR算法,該算法所需原始圖像信息大 量減少,實(shí)現(xiàn)復(fù)雜度降低;同時(shí),由于考慮了原始圖像,該算法仍然具有較高的可信度。 但是存在以下問(wèn)題(1)從理論上分析,很可能一些受損視頻圖像的統(tǒng)計(jì)數(shù)據(jù)和對(duì)應(yīng)無(wú)失 真圖像完全相同,但在主觀視覺(jué)上卻大不相同;(2)由于圖像的統(tǒng)計(jì)數(shù)據(jù)易于隨觀看距離、 亮度范圍等因素的改變而改變,甚至得到完全不同的統(tǒng)計(jì)數(shù)據(jù),而此類算法無(wú)法完全考慮 這種情況;(3)在某些應(yīng)用環(huán)境中,無(wú)法增加輔助信道來(lái)傳輸無(wú)失真圖像的特征參數(shù)。3.基于無(wú)參考幀(NR-No Reference)的視頻質(zhì)量評(píng)價(jià)無(wú)需任何原始圖像的信息,通過(guò)提取受損圖像的各項(xiàng)特征參數(shù),尋找諸如MPEG塊邊 緣,點(diǎn)狀噪聲或圖像模糊等圖像缺陷,來(lái)獲取圖像質(zhì)量的評(píng)價(jià)結(jié)果。此類方法不需要任何 來(lái)自原始視頻圖像的數(shù)據(jù),僅在接收端即可實(shí)現(xiàn)對(duì)受損視頻圖像的質(zhì)量測(cè)量,并要求與主 觀評(píng)價(jià)結(jié)果具有較好的一致性,因此,此類算法的研究難度較大。由于不需要原始圖像信 息,無(wú)參考客觀評(píng)價(jià)算法可以放入視頻應(yīng)用系統(tǒng)中的多個(gè)環(huán)節(jié)上進(jìn)行在線測(cè)試。本系統(tǒng)也 正是在此基礎(chǔ)上提出了一套無(wú)參考的數(shù)字視頻圖像質(zhì)量客觀評(píng)價(jià)系統(tǒng)。無(wú)參考算法的國(guó)內(nèi)外研究現(xiàn)狀1. 國(guó)內(nèi)研究現(xiàn)狀王新仿等人于2004年提出了一種無(wú)參考視頻質(zhì)量評(píng)價(jià)算法,可較好應(yīng)用于無(wú)線和IP 等視頻業(yè)務(wù)的質(zhì)量評(píng)價(jià)。該方法通過(guò)提取事先嵌入到壓縮視頻中的水印,并與接收端存儲(chǔ) 的原始水印拷貝進(jìn)行比較,從而實(shí)現(xiàn)對(duì)視頻質(zhì)量的評(píng)價(jià)。由于該系統(tǒng)需要在原始信號(hào)中添 加水印信息,會(huì)在一定程度上破壞圖像的質(zhì)量,此外,在收端也需要有原始的水印信息作 為對(duì)比,因此具有一定的應(yīng)用限制性。殷曉麗等人于2006年提出了一種基于半脆弱性數(shù)字水印算法的無(wú)參考圖像質(zhì)量評(píng)價(jià) 方法。該系統(tǒng)評(píng)價(jià)結(jié)果較好,但具有如上述同樣問(wèn)題,此外該算法是基于靜止圖像的,無(wú) 法對(duì)視頻進(jìn)行處理。王正友等人于2006年從噪聲檢測(cè)的角度提出了一種基于掩蓋效應(yīng)的無(wú)參考圖像質(zhì)量 評(píng)價(jià)方法。首先對(duì)Hosaka分塊進(jìn)行了改進(jìn),取消了該方法對(duì)圖像尺寸的限制。通過(guò)分塊, 將圖像以不同的頻率成分區(qū)分開(kāi)來(lái),然后計(jì)算各個(gè)子塊的噪聲。根據(jù)圖像的污染程度,提 出了基于掩蓋效應(yīng)的無(wú)參考圖像峰值信噪比NPSNR。實(shí)驗(yàn)結(jié)果表明,該方法具有無(wú)參考、運(yùn)算復(fù)雜度低、主客觀較一致等特點(diǎn)。這種方法只是基于噪聲來(lái)分析圖像質(zhì)量,但是噪聲 主要是模擬電視系統(tǒng)中的主要損傷,因此它不適用于數(shù)字視頻。楊付正等人于2006年提出了一種適用于基于塊編碼視頻的無(wú)參考質(zhì)量評(píng)價(jià)方法。首先結(jié)合人類視覺(jué)的亮度掩蓋和對(duì)比度掩蓋特性提出了一個(gè)符合主觀視覺(jué)感知的方塊效應(yīng) 測(cè)度,然后根據(jù)濾波對(duì)方塊效應(yīng)的影響,給出了一種適合于使用不同壓縮和處理算法的基 于塊編碼重構(gòu)視頻的質(zhì)量評(píng)價(jià)方法。實(shí)驗(yàn)表明該質(zhì)量評(píng)價(jià)測(cè)度與主觀質(zhì)量評(píng)價(jià)有較好的一 致性。但是該算法只對(duì)圖像中的塊效應(yīng)進(jìn)行了分析,而一個(gè)參數(shù)顯然是不足以反映圖像的 整體質(zhì)量的。而且該算法是基于人眼掩蓋特性的,而要正確地將掩蓋特性公式化也是非常 困難的。2. 國(guó)外研究現(xiàn)狀Pina Marziliano等人于2002年提出了 一種基于模糊程度分析的視頻圖像的無(wú)參考評(píng)價(jià) 方法,這種方法是對(duì)圖像邊緣的擴(kuò)展區(qū)域進(jìn)行分析,根據(jù)主觀感受來(lái)設(shè)定感知閾值。這種 方法計(jì)算復(fù)雜度低,速度接近實(shí)時(shí)播放速度。由于該方法的評(píng)價(jià)性能要依賴于邊緣檢測(cè)的 效果,因此算法的應(yīng)用將受到一定限制。Hanghang Tong等人于2004年提出了一種應(yīng)用于JPEG2000的無(wú)參考圖像質(zhì)量評(píng)價(jià)方 法,通過(guò)將圖像中所有的邊緣點(diǎn)歸為受損的或者沒(méi)有受損的,然后使用主成分分析法對(duì)給 定的邊緣像素點(diǎn)提取局部特征,以判斷其是否模糊或者有振鈴效應(yīng)。同時(shí)還使用邊緣像素 點(diǎn)是否受損來(lái)判斷局部圖像的受損程度,可以應(yīng)用于各類局部特征。這種方法的效果在很 大程度上也依賴于邊緣檢測(cè)的效果,但是目前還沒(méi)有非常完善的邊緣檢測(cè)算法,因此該算 法的效果也將受到限制。而且這種算法也只能夠針對(duì)靜止圖像進(jìn)行分析,而不能處理視頻。RemcoMuijs等人于2005年提出了一種基于特征分析的無(wú)參考圖像質(zhì)量評(píng)價(jià)方法。主 要對(duì)圖像中的塊效應(yīng)進(jìn)行分析,因?yàn)樗怯绊懟诜謮K壓縮圖像質(zhì)量的一個(gè)重要因素。通 過(guò)檢測(cè)塊的位置以及可觀測(cè)性來(lái)判斷塊效應(yīng)的程度。該算法是根據(jù)塊邊緣的位置來(lái)進(jìn)行損 傷分析的,但是圖像的空間偏移將造成塊邊緣的偏移,而使得計(jì)算結(jié)果不準(zhǔn)確。而且該方 法僅僅只分析了圖像中的一種損傷,即塊效應(yīng),顯然它是不足以反映圖像的總體質(zhì)量的。國(guó)外的其他相關(guān)研究還包括通過(guò)回歸算法計(jì)算主客觀擬合參數(shù)和通過(guò)訓(xùn)練人工神經(jīng) 網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)無(wú)參考客觀評(píng)價(jià)算法。但是均缺乏對(duì)視頻圖像特征參數(shù)的全面分析。目前算法 多存在著一定局限性,無(wú)法給出圖像或視頻的整體質(zhì)量,而且在應(yīng)用中也會(huì)受到各種各樣 的限制。發(fā)明內(nèi)容為了克服目前評(píng)價(jià)方法的不足,本發(fā)明設(shè)計(jì)了一種基于人工神經(jīng)網(wǎng)絡(luò)的無(wú)參考視頻質(zhì) 量評(píng)價(jià)方法。這種評(píng)價(jià)方法綜合考慮視頻圖像的各項(xiàng)特征參數(shù),并結(jié)合人眼的視覺(jué)特性定 義并抽取指定參數(shù)作為客觀評(píng)價(jià)系統(tǒng)的輸入集合,定義對(duì)應(yīng)的主觀評(píng)價(jià)結(jié)果作為評(píng)價(jià)系統(tǒng) 的輸出集合。通過(guò)選擇測(cè)試樣本,并獲取測(cè)試樣本的主觀評(píng)價(jià)結(jié)果來(lái)實(shí)現(xiàn)對(duì)神經(jīng)網(wǎng)絡(luò)的訓(xùn) 練。實(shí)驗(yàn)表明,訓(xùn)練后的人工神經(jīng)網(wǎng)絡(luò)可獲取與主觀評(píng)價(jià)結(jié)果高度一致的客觀評(píng)價(jià)結(jié)果。本發(fā)明的技術(shù)思路特征在于1、 提出了一種無(wú)參考視頻質(zhì)量評(píng)價(jià)方法。該方法可通過(guò)分析視頻圖像的空間和時(shí)間 統(tǒng)計(jì)特性來(lái)計(jì)算圖像受損程度。這些特性包括空間特征(模糊、。熵、塊效應(yīng)、頻域能量 分析、飽和度)和時(shí)間特性(幀間差)。2、 考慮了色度空間的損傷。目前亮度信息在無(wú)參考評(píng)價(jià)算法設(shè)計(jì)中占主導(dǎo)地位,而 色度空間幾乎被忽略。本系統(tǒng)所分析的色度損傷,可有效改善評(píng)價(jià)結(jié)果。3、 分析視頻圖像的各項(xiàng)特性并進(jìn)行組合,作為基于人工神經(jīng)網(wǎng)絡(luò)的評(píng)價(jià)系統(tǒng)的輸入 參數(shù)。本發(fā)明的系統(tǒng)框架參見(jiàn)圖1。由于該系統(tǒng)是基于人工神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)的,因此包含訓(xùn)練 和測(cè)試兩個(gè)主要部分。參與訓(xùn)練的視頻圖像我們稱之為"訓(xùn)練樣本",用于檢測(cè)系統(tǒng)性能 的視頻圖像命名為"測(cè)試樣本"。該方法依次包括下述步驟1) 、對(duì)于訓(xùn)練樣本,我們首先提取視頻圖像的特征參數(shù)(提取過(guò)程如圖2所示),作為人工神經(jīng)網(wǎng)絡(luò)的輸入?yún)?shù);同時(shí),通過(guò)主觀評(píng)價(jià)獲取訓(xùn)練樣本的主觀評(píng)價(jià)結(jié)果,作為 人工神經(jīng)網(wǎng)絡(luò)的期望輸出結(jié)果;2) 、將上述獲取參數(shù)存入?yún)?shù)數(shù)據(jù)庫(kù),用于訓(xùn)練人工神經(jīng)網(wǎng)絡(luò);3) 、執(zhí)行人工神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程(神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程如圖3所示)對(duì)于每個(gè) 輸入樣本,我們將其對(duì)應(yīng)的六個(gè)特征參數(shù)作為系統(tǒng)的輸入,分別對(duì)應(yīng)于人工神經(jīng)網(wǎng)絡(luò)的六 個(gè)輸入節(jié)點(diǎn),而該輸入樣本對(duì)應(yīng)的期望輸出(主觀測(cè)試結(jié)果)作為系統(tǒng)的期望輸出。根據(jù) 期望輸出與實(shí)際輸出的差異值,即誤差,來(lái)調(diào)整人工神經(jīng)網(wǎng)絡(luò)中各節(jié)點(diǎn)間的連接權(quán)值。4) 、當(dāng)滿足結(jié)束條件時(shí)(本系統(tǒng)以每次訓(xùn)練所有樣本的累積誤差作為控制條件,當(dāng) 某次訓(xùn)練中的累積誤差小于指定的閾值,則訓(xùn)練過(guò)程結(jié)束),基于人工神經(jīng)網(wǎng)絡(luò)的無(wú)參考 評(píng)價(jià)模型即建立完成。之后,可通過(guò)測(cè)驗(yàn)樣本來(lái)檢測(cè)該模型的系統(tǒng)性能;閾值的指定一般 在10—4,但是具體的數(shù)值取決于參加訓(xùn)練的樣本數(shù)目和特性,在不同的應(yīng)用領(lǐng)域,訓(xùn)練停 止條件需要根據(jù)實(shí)際情況調(diào)整。5)、對(duì)于輸入的測(cè)試樣本,提取同樣的特征參數(shù)(如圖2所示),然后輸入到已訓(xùn) 練好的模型中,即可獲取對(duì)測(cè)試樣本的質(zhì)量評(píng)價(jià)結(jié)果(測(cè)試過(guò)程如圖5所示)。 對(duì)于圖1及上述步驟中各模塊的說(shuō)明則按照?qǐng)D編號(hào)的順序進(jìn)行。特征提取模塊如圖2所示,對(duì)于輸入的視頻圖像,首先提取九個(gè)特征參數(shù),分別為圖像活性、平均梯度、邊緣能量統(tǒng)計(jì)、過(guò)零率統(tǒng)計(jì)、熵、塊效應(yīng)、頻域能量分布特性、飽和度八個(gè)空間特性參數(shù)和幀間差一個(gè)時(shí)間特性參數(shù)。其中,除了飽和度是統(tǒng)計(jì)色度空間的特征參數(shù)外,其他參數(shù)均來(lái)自視頻圖像的亮度空間。此外,我們將前四個(gè)空間特性進(jìn)行平均加權(quán),定義為圖像的模糊參數(shù)。圖像活性」"/W0^^:是主要反映圖像細(xì)節(jié)紋理的特征量,為圖像在水平和垂直方向的圖像亮度一階差分統(tǒng)計(jì)。先對(duì)圖像的每一行作前向差分,并計(jì)算其平方和,作為該行的 統(tǒng)計(jì)結(jié)果,然后再將所有行的統(tǒng)計(jì)結(jié)果累加,得到該場(chǎng)的水平方向圖像活性,如下式所示-<formula>formula see original document page 10</formula> (i)<formula>formula see original document page 10</formula>(2)其中,y是圖像的亮度空間,y(/,力是圖像第/行、y'列像素所對(duì)應(yīng)的亮度值。M、 iV 分別為水平和垂直方向的像素?cái)?shù)目(以下公式中,變量y(/,力、M、 W的定義均與此相同)。 "(/)為第/行的統(tǒng)計(jì)結(jié)果,//,為水平方向的圖像活性,用同樣的方法可以得到垂直方向的 圖像活性K,將兩者相加即可得到整幅圖像的圖像活性(^"^'0^^=//,+^)。平均梯度Jve — Gm&e加是反映圖像細(xì)節(jié)紋理的特征量,通過(guò)求解像素二階差分獲取。 具體計(jì)算如下,先求每個(gè)像素在水平和垂直方向上的二階差分,然后求平方和,除以2, 再計(jì)算平方根,最后對(duì)所有像素的梯度值進(jìn)行累加,并除以總的像素?cái)?shù),得到整幅圖像的 平均梯度值。公式如下<formula>formula see original document page 10</formula> (3)<formula>formula see original document page 10</formula>其中,V/(/,力和VJ(/,力分別為圖像像素在(zW)位置的水平和垂直方向的梯度,如下計(jì)算<formula>formula see original document page 10</formula> (5)<formula>formula see original document page 10</formula> (6)<formula>formula see original document page 11</formula>(7)(8)邊緣能量統(tǒng)計(jì)^^e一五wergy:圖像中一個(gè)很重要的特征就是圖像的邊緣特性,它的特 征是沿邊緣走向的像素變化平緩,而垂直于邊緣走向的像素變化劇烈,根據(jù)這一特性,可以統(tǒng)計(jì)圖像的邊緣。邊緣能量統(tǒng)計(jì)的定義公式如下,U^的,力)+禍.,力)£c/ge Energy = 7-^~;-^ y y e2 _/)其中,A和^為兩個(gè)3+3模板,具體取值£1 =過(guò)零率統(tǒng)計(jì)ZC:是反映圖像邊緣細(xì)節(jié)的特征量,通過(guò)比較相鄰兩個(gè)一階差分的符號(hào) 獲取,對(duì)于水平和垂直方向的過(guò)零率分別統(tǒng)計(jì)。以水平方向的過(guò)零率計(jì)算為例,具體計(jì)算如下先對(duì)每一行像素的亮度值進(jìn)行一階差分,然后比較相鄰兩個(gè)一階差分的符號(hào),如果相鄰的兩個(gè)一階差分異號(hào),則過(guò)零率的統(tǒng)計(jì)值就為i,否則為o。如下公式,<formula>formula see original document page 11</formula>(9)(10)其中,^為水平方向的過(guò)零率統(tǒng)計(jì)量,用同樣的方法可以得到垂直方向的過(guò)零率統(tǒng)計(jì) 量4。將兩者相加即可得到圖像的過(guò)零率統(tǒng)計(jì)量(ZC = ZA+ZV)。這四個(gè)參數(shù)進(jìn)行平均加權(quán),可得到圖像的第一個(gè)空間參數(shù)模糊參數(shù)祝";^ (見(jiàn)圖2)。計(jì)算公式如下<formula>formula see original document page 11</formula>(11)熵五Wn^;^^:反映圖像所含信息量大小的一個(gè)指標(biāo),計(jì)算方法如信息論中的熵求解公式。對(duì)亮度信息求解熵如下公式,丄 1(12)其中,Z表示出現(xiàn)的灰度級(jí)的數(shù)目,";O表示該灰度級(jí)的概率(概率定義為該灰度級(jí) 出現(xiàn)的次數(shù)除以圖像的總像素?cái)?shù)),最后得到的五Wro/^^^就是整幅圖像的熵值。塊效應(yīng)祝ocv^^:在視頻編解碼算法中,塊效應(yīng)所導(dǎo)致的偽邊緣多表現(xiàn)為以8為周期的偽周期信號(hào),因此可以從頻譜上來(lái)對(duì)塊效應(yīng)進(jìn)行分析。以水平方向?yàn)槔?,首先?jì)算每行的一階差分并求絕對(duì)值,如對(duì)第/行的求解公式如下,<formula>formula see original document page 11</formula>如果塊效應(yīng)比較明顯,則第/行信號(hào),(力中將有一個(gè)偽周期信號(hào),周期為8。對(duì)/.(/) 進(jìn)行補(bǔ)零,使其長(zhǎng)度為2的整數(shù)次冪,得到/,(/),然后對(duì)其進(jìn)行快速傅立葉變換,并計(jì)算 傅立葉系數(shù)的幅度譜,再對(duì)每一行都進(jìn)行同樣的操作,最后把所有行的傅立葉變換的幅度 譜累加起來(lái)。這樣就得到了一個(gè)水平方向的頻域統(tǒng)計(jì)的數(shù)組,如下式<formula>formula see original document page 12</formula>設(shè)L為補(bǔ)零后的長(zhǎng)度,對(duì)F(w)進(jìn)行分析可以發(fā)現(xiàn),如果塊效應(yīng)比較明顯,則在F(")長(zhǎng) 度的l/8倍數(shù)(L/8, L/4, L/2)的位置即特征頻率位置上將出現(xiàn)峰值。塊效應(yīng)越明顯,特 征頻率點(diǎn)的峰值越大,即周期為8的信號(hào)的強(qiáng)度越強(qiáng)。因?yàn)檫@些峰值的出現(xiàn)主要是由于塊 效應(yīng)所造成的,所以反映在空間上為相鄰塊之間邊緣的差距越大。在計(jì)算塊效應(yīng)程度時(shí), 可以在這些峰值可能出現(xiàn)的位置上進(jìn)行分析,首先要確定它是個(gè)峰值,即該點(diǎn)的值大于左 右兩邊的值;如果是峰值,則在該點(diǎn)進(jìn)行中值濾波,濾波的窗口可以為3或者5,將峰值 減去中值濾波后得到的值除以幅度譜的直流系數(shù)(F(O)),即得到反映圖像的塊效應(yīng)在水 平方向的特征值A(chǔ)。這樣做主要是考慮人眼視覺(jué)特性中的掩蔽特性。因?yàn)樵谝浑A差分后進(jìn)行了取絕對(duì)值,所以直流系數(shù)越大,表明這一行像素間的相關(guān)性越小,即圖像的變化越大, 根據(jù)人眼的視覺(jué)特性,在邊緣信息比較多的地方,即圖像變化劇烈的地方,損傷就不容易 被察覺(jué)。所以雖然相鄰塊邊緣的差別一樣,但是由于其塊內(nèi)的像素變化比較劇烈而變得不 容易被察覺(jué),而除以直流系數(shù)以后就可以更好的反應(yīng)人眼的視覺(jué)特性。將同樣的方法用于垂直方向可得到塊效應(yīng)在垂直方向的特征值A(chǔ),兩者相加求平均即為總的塊效應(yīng)的特征值録,,=^^ (15)由于對(duì)每一行都進(jìn)行傅立葉變換運(yùn)算量比較大,比較耗時(shí)間,所以在此基礎(chǔ)上做了進(jìn) 一步改進(jìn)。還是以水平方向?yàn)槔?,在改進(jìn)算法中,不是簡(jiǎn)單的對(duì)每行的一階差分進(jìn)行快速 傅立葉變換,而是對(duì)若干行的一階差分作累加后,再對(duì)累加的數(shù)組進(jìn)行快速傅立葉變換, 并計(jì)算傅立葉系數(shù)的幅度譜。在幅度譜的L/8的位置即特征頻率位置按之前所介紹的方法 進(jìn)行分析,得到這幾行的水平方向塊效應(yīng)特征值。對(duì)接下來(lái)的幾行作同樣的操作,并將所 有水平方向的特征值相加求平均,即為塊效應(yīng)在水平方向的特征值。將幾行累加起來(lái)再進(jìn) 行處理, 一般為8 — 16行,可以反映一塊區(qū)域的塊效應(yīng)程度,而不僅僅只是一行,這對(duì)于 人眼視覺(jué)特性中的掩蔽特性來(lái)說(shuō),更為合理。按照同樣的方法可以得到塊效應(yīng)垂直方向的 特征值。改進(jìn)后的方法在速度上有很大的提高,而且效果更好。在實(shí)驗(yàn)中,我們將16行 的一階差分累加后再進(jìn)行快速傅立葉變換。頻域能量分析F^ —五朋rgy :結(jié)合人類視覺(jué)系統(tǒng)(HSV)特性,考慮人眼對(duì)于圖像中 不同的頻率分量有著不同的敏感程度,基于Ma皿os和Sakrison等人建立的對(duì)比度敏感函 數(shù)(CSF)提取當(dāng)前圖像的頻域能量分布特征。通過(guò)分析CSF特征曲線可以將多級(jí)帶通濾 波器,因此,在提取圖像頻域能量分布的過(guò)程中,可以先將圖像分解為一組有方向性的帶 通濾波器,每個(gè)濾波器只對(duì)其中心頻率附近一定區(qū)域內(nèi)的空間頻率和方向做出響應(yīng)。在計(jì) 算圖像頻域能量的時(shí)候, 一般獲取頻域參數(shù)的DCT, FFT等變換均可用于分析圖像的頻域 性質(zhì),但由于小波分解的數(shù)據(jù)結(jié)構(gòu)與視覺(jué)感知的多通道特性有極大的相似性,因而我們這 里采用小波變換作為分析工具。具體步驟如下-對(duì)亮度圖像進(jìn)行四級(jí)小波變換,如圖4(a)所示,在本文中,所使用的小波是W53小波, 它的高通系數(shù)和低通系數(shù)分別為{0.25, -0.5, 0.25}, {-0.125, 0.25, 0.75, 0.25, -0.125}。對(duì)變化之后的小波系數(shù)的幅值分別進(jìn)行統(tǒng)計(jì),即求得同一級(jí)的小波幅值的平方和,并除以 這一級(jí)的樣點(diǎn)總數(shù),得到的值即為這一級(jí)對(duì)應(yīng)的頻帶上的能量E(丄x),其中x取值為0, 1,2, 3, 4。然后利用CSF的非線性帶通特性,對(duì)小波分解后不同空間頻帶的小波系數(shù)進(jìn)行 加權(quán),加權(quán)值為在相應(yīng)頻帶內(nèi)CSF曲線的平均值,見(jiàn)圖4(b)。頻域能量的計(jì)算如下式, F^ —^wgy即為得到圖像的頻域能量的分布特征。f>e —= 2.25 x £(丄0)+ 2.87 x五(丄1)+ 3.16x五(丄2)+ 2.56x五(丄3)十1.00x五(丄4) (16 )在這個(gè)過(guò)程中,所得到的值反映的是圖像中人眼敏感的成分所占的比例,如對(duì)于純色的圖像(只有最低頻的分量),或者全是噪聲的圖像(頻域能量幾乎全集中在最高頻的部分),人眼是不會(huì)看到什么感興趣的內(nèi)容的,當(dāng)然也不會(huì)有敏感成分。飽和度C/2ra/w^^:圖像質(zhì)量在顏色上的損傷多表現(xiàn)為色度飽和度的下降。具體計(jì)算如下,利用圖像像素的兩個(gè)色度分量的模值,即計(jì)算U和V分量的平方和并求其平方根, 再累加所有模值的統(tǒng)計(jì)結(jié)果,并除以色度分量的數(shù)目,即得到色度的飽和度。如下式所示,MWXjVUK<=。 7=0 (17)其中,"(")和葉,力分別是圖像第z'行、7列色度信號(hào)所對(duì)應(yīng)的色度取值,M^、 乂"是色度信號(hào)在水平和垂直方向像素?cái)?shù)目。對(duì)于常見(jiàn)的四種色度采樣格式,這兩個(gè)變量的取值與M、 N的關(guān)系如下當(dāng)采樣格式為4:4:4, ^^=^, = 當(dāng)采樣格式為4:2:2, 2 當(dāng)采樣格式為4:1:1, 4當(dāng)采樣格式為4:2:0, w2 w 2幀間差"# —Frame:時(shí)間特征的提取,這是視頻圖像質(zhì)量評(píng)價(jià)中一個(gè)很重要的參數(shù)。 此特征求解基于前后兩幅圖像的亮度信息之差,如下式,卿&麵=^^- (18)M x iV其中,變量/是視頻序列的時(shí)間軸參數(shù)。幀間差這個(gè)參數(shù)求解的是,后一幀與前一幀 對(duì)應(yīng)像素的亮度差絕對(duì)值的平均信息。特征提取模塊輸出的訓(xùn)練樣本的六個(gè)特征參數(shù)作為人工神經(jīng)網(wǎng)絡(luò)的輸入?yún)?shù),同時(shí), 在訓(xùn)練過(guò)程中,還需要提供這些訓(xùn)練樣本的主觀評(píng)價(jià)結(jié)果,作為系統(tǒng)在訓(xùn)練階段的期望輸 出數(shù)據(jù)。


圖1是視頻質(zhì)量評(píng)價(jià)系統(tǒng)的系統(tǒng)框圖。圖2是特征參數(shù)提取模塊的示意圖。圖3是基于BP算法的人工神經(jīng)網(wǎng)絡(luò)框圖。圖4是根據(jù)CSF曲線確定小波分解所得不同頻帶的對(duì)應(yīng)加權(quán)系數(shù)的示意圖。其中,圖 4(a)為四級(jí)小波變化后的不同空間頻帶及對(duì)應(yīng)的加權(quán)系數(shù)的示意圖,圖4(b)為CSF曲線在 相應(yīng)空間頻帶加權(quán)值定義的示意圖。圖5是測(cè)試序列進(jìn)行客觀評(píng)價(jià)的流程圖。圖6是基于人工神經(jīng)網(wǎng)絡(luò)的視頻評(píng)價(jià)算法的主界面。圖7是訓(xùn)練樣本示意圖。圖8是訓(xùn)練樣本在測(cè)試過(guò)程中的主客觀擬合性分析,其中橫坐標(biāo)是系統(tǒng)輸出的客觀評(píng) 價(jià)結(jié)果,縱坐標(biāo)是主觀評(píng)價(jià)結(jié)果。 圖9是測(cè)試樣本示意圖。圖IO是測(cè)試樣本在測(cè)試過(guò)程中的主客觀擬合性分析,其中橫坐標(biāo)是系統(tǒng)輸出的客觀 評(píng)價(jià)結(jié)果,縱坐標(biāo)是主觀評(píng)價(jià)結(jié)果。
具體實(shí)施方式
在圖l的系統(tǒng)框圖中,訓(xùn)練樣本和測(cè)試樣本均來(lái)自標(biāo)準(zhǔn)的視頻測(cè)試序列,此類序列的 選取應(yīng)嚴(yán)格按照ITU-RBT.1210的標(biāo)準(zhǔn),特別是訓(xùn)練樣本。序列存儲(chǔ)可采用YUV文件和其他標(biāo)準(zhǔn)形式。主觀評(píng)價(jià)算法采用的是國(guó)際標(biāo)準(zhǔn)中的雙刺激連續(xù)質(zhì)量標(biāo)度法,以DMOS (Difference Mean Opinion Score)作為樣本所需的主觀評(píng)價(jià)結(jié)果。此外,需要說(shuō)明一點(diǎn), 在前面的系統(tǒng)框架及各模塊介紹中,我們一幀圖像作為一個(gè)基本的處理單元,但是對(duì)于隔 行掃描的視頻顯示形式,計(jì)算的基本單位為一場(chǎng),在處理過(guò)程中只對(duì)一幀畫(huà)面的頂場(chǎng)進(jìn)行 上述處理即可。視頻質(zhì)量評(píng)價(jià)主要通過(guò)軟件來(lái)實(shí)現(xiàn),包括特征參數(shù)提取、網(wǎng)絡(luò)訓(xùn)練、輸入序列的質(zhì)量 評(píng)價(jià)等。下面通過(guò)對(duì)高清晰度電視視頻(以下簡(jiǎn)稱"高清視頻")的客觀評(píng)價(jià)來(lái)詳細(xì)描述 系統(tǒng)的實(shí)現(xiàn)過(guò)程。本系統(tǒng)采用的是基于BP學(xué)習(xí)算法的多層神經(jīng)網(wǎng)絡(luò),這里簡(jiǎn)稱BP網(wǎng)絡(luò)。 人工神經(jīng)網(wǎng)絡(luò)訓(xùn)練模塊如圖3所示,本系統(tǒng)設(shè)計(jì)的BP網(wǎng)絡(luò)只含有一個(gè)隱層;輸入 層定義六個(gè)輸入節(jié)點(diǎn),分別對(duì)應(yīng)于六個(gè)特征參數(shù);輸出層只有一個(gè)節(jié)點(diǎn),對(duì)應(yīng)視頻質(zhì)量的 評(píng)價(jià)結(jié)果,在訓(xùn)練階段,此節(jié)點(diǎn)為期望輸出,即對(duì)應(yīng)訓(xùn)練樣本的主觀評(píng)價(jià)結(jié)果。這里定義 的BP網(wǎng)絡(luò)采用常規(guī)訓(xùn)練算法(最速梯度下降法),這里不再詳細(xì)介紹。訓(xùn)練好的人工神經(jīng) 網(wǎng)絡(luò)即可實(shí)現(xiàn)對(duì)視頻圖像質(zhì)量的客觀評(píng)價(jià),對(duì)于輸入的測(cè)試序列,輸入測(cè)試模塊以檢測(cè)該 評(píng)價(jià)系統(tǒng)的性能。測(cè)試模塊測(cè)試流程如圖5所示。對(duì)于輸入的測(cè)試序列,具體的實(shí)現(xiàn)步驟如下-501:打開(kāi)測(cè)試序列文件,準(zhǔn)備讀取圖像數(shù)據(jù); 502:讀取當(dāng)前幀&.和下一幀&的圖像數(shù)據(jù);503:提取前面定義的六項(xiàng)特征參數(shù);504:各特征參數(shù)分別求和,為計(jì)算整個(gè)序列的對(duì)應(yīng)特征參數(shù)作準(zhǔn)備;505:判斷/^幀是否為本序列的最后一幀,如果是,轉(zhuǎn)入506;如果不是,轉(zhuǎn)入502;506:根據(jù)序列的總幀數(shù)求解各特征參數(shù)的均值,即獲取該序列對(duì)應(yīng)的最終特征參數(shù); 507:將上述求解的六個(gè)序列參數(shù)值作為人工神經(jīng)網(wǎng)絡(luò)的輸入值,通過(guò)已訓(xùn)練好的網(wǎng) 絡(luò)計(jì)算輸入序列的客觀評(píng)價(jià)結(jié)果;508:輸出該測(cè)試序列視頻質(zhì)量的客觀評(píng)價(jià)結(jié)果。圖6為系統(tǒng)主界面,可以實(shí)現(xiàn)待測(cè)量視頻的預(yù)覽、視頻各項(xiàng)特征參數(shù)的計(jì)算、參數(shù)數(shù)據(jù)庫(kù)的瀏覽,以及實(shí)現(xiàn)對(duì)測(cè)試序列的客觀評(píng)價(jià)等操作。首先我們選擇滿足測(cè)試要求的八段原始高清視頻(YUV格式,4:2:0, 10~14秒),并 通過(guò)MPEG2硬件編解碼器獲得8M、 IOM、 12M、 14M、 16M、 18M、 20M和25M共八個(gè) 壓縮碼流。加上未失真的原始序列,我們共有72個(gè)高清視頻用于系統(tǒng)的建立與測(cè)試。其次,我們通過(guò)雙刺激連續(xù)質(zhì)量標(biāo)度法獲取這些高清序列的主觀評(píng)價(jià)結(jié)果。對(duì)于訓(xùn)練 樣本,主觀評(píng)價(jià)結(jié)果作為模型訓(xùn)練過(guò)程中的期望輸出,用于調(diào)整模型參數(shù);對(duì)于測(cè)試樣本, 主觀評(píng)價(jià)結(jié)果用于分析系統(tǒng)輸出的客觀評(píng)價(jià)結(jié)果的準(zhǔn)確性,即通過(guò)計(jì)算主客觀結(jié)果的相關(guān) 系數(shù),來(lái)判斷該系統(tǒng)的評(píng)價(jià)性能。訓(xùn)練過(guò)程我們選擇六個(gè)序列的所有碼率作為訓(xùn)練樣本集(該集合共54個(gè)訓(xùn)練樣本), 六個(gè)訓(xùn)練序列的內(nèi)容如圖7所示。提取每個(gè)樣本的六項(xiàng)參數(shù)、連同對(duì)應(yīng)的主觀評(píng)價(jià)結(jié)果一 起存入?yún)?shù)數(shù)據(jù)庫(kù),用于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。在人工神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)中,隱層的節(jié)點(diǎn)數(shù)定義為 16個(gè),動(dòng)量因子0.95,學(xué)習(xí)率的初始值0.0001 (在訓(xùn)練中會(huì)進(jìn)行調(diào)整),節(jié)點(diǎn)間連接權(quán)值 的初始值為隨機(jī)數(shù)。當(dāng)滿足訓(xùn)練終止條件時(shí)(目前實(shí)現(xiàn)中定義累計(jì)誤差的閾值為0.0004), 模型訓(xùn)練完成。對(duì)于訓(xùn)練好的系統(tǒng),我們?cè)俅屋斎胗?xùn)練樣本,并分析系統(tǒng)輸出的測(cè)量結(jié)果 與主觀評(píng)價(jià)結(jié)果的擬合程度,如圖8所示,兩組數(shù)據(jù)的相關(guān)系數(shù)為0.958。測(cè)試過(guò)程我們定義未參與訓(xùn)練的另外兩個(gè)視頻及其所有壓縮碼率作為測(cè)試樣本集 (共18個(gè)測(cè)試樣本),兩個(gè)測(cè)試序列的內(nèi)容如圖9所示。同樣地,先提取序列的六項(xiàng)參 數(shù),然后計(jì)算系統(tǒng)的輸出評(píng)價(jià)結(jié)果,即客觀評(píng)價(jià)結(jié)果。由于這些序列從未出現(xiàn)在訓(xùn)練過(guò)程 中,因此,我們可以通過(guò)這個(gè)測(cè)試過(guò)程來(lái)評(píng)價(jià)系統(tǒng)在實(shí)際應(yīng)用中的可靠性。圖10給出了 對(duì)于測(cè)試樣本的圖像質(zhì)量,系統(tǒng)評(píng)價(jià)所得的客觀評(píng)價(jià)結(jié)果與主觀評(píng)價(jià)結(jié)果的相關(guān)性,即相 關(guān)系數(shù)為0.930。系統(tǒng)優(yōu)勢(shì)分析基于人工神經(jīng)網(wǎng)絡(luò)的無(wú)參考視頻質(zhì)量客觀評(píng)價(jià)系統(tǒng)可以有效結(jié)合公認(rèn) 的具有高可靠性的主觀評(píng)價(jià)結(jié)果,因此能最大程度地?cái)M合人眼視覺(jué)系統(tǒng),使客觀評(píng)價(jià)結(jié)果與主觀評(píng)價(jià)結(jié)果具有較高的相關(guān)性。從而使得該系統(tǒng)可以在一定程度上取代費(fèi)時(shí)、費(fèi)力、 成本昂貴的主觀評(píng)價(jià),這也是客觀評(píng)價(jià)的意義所在。該系統(tǒng)在完成訓(xùn)練后,在實(shí)際的視頻 質(zhì)量評(píng)價(jià)過(guò)程中不需要任何來(lái)自原始視頻圖像的數(shù)據(jù),而僅僅在接收端即可實(shí)現(xiàn)對(duì)受損視 頻質(zhì)量的快速準(zhǔn)確測(cè)量,更進(jìn)一步,該系統(tǒng)還可作為測(cè)量模塊放在視頻應(yīng)用系統(tǒng)的多個(gè)中 間環(huán)節(jié)上進(jìn)行在線測(cè)試,以實(shí)現(xiàn)基于視頻質(zhì)量的應(yīng)用系統(tǒng)規(guī)劃和性能分析。
權(quán)利要求
1.一種基于人工神經(jīng)網(wǎng)絡(luò)的視頻質(zhì)量評(píng)價(jià)方法,該方法依次包括下述步驟1)、對(duì)于訓(xùn)練樣本,首先提取該樣本的特征參數(shù),作為人工神經(jīng)網(wǎng)絡(luò)的輸入?yún)?shù);同時(shí),通過(guò)主觀評(píng)價(jià)獲取訓(xùn)練樣本的主觀評(píng)價(jià)結(jié)果,作為人工神經(jīng)網(wǎng)絡(luò)的期望輸出結(jié)果;2)、將上述獲取參數(shù),包括樣本的特征參數(shù)和對(duì)應(yīng)的主觀評(píng)價(jià)結(jié)果,存入?yún)?shù)數(shù)據(jù)庫(kù),用于訓(xùn)練人工神經(jīng)網(wǎng)絡(luò);3)、執(zhí)行人工神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程對(duì)于每個(gè)輸入樣本,我們將其對(duì)應(yīng)的特征參數(shù)作為系統(tǒng)的輸入,分別對(duì)應(yīng)于人工神經(jīng)網(wǎng)絡(luò)的輸入節(jié)點(diǎn),而該輸入樣本對(duì)應(yīng)的主觀評(píng)價(jià)結(jié)果作為系統(tǒng)的期望輸出;根據(jù)期望輸出與實(shí)際輸出的差異值,來(lái)調(diào)整人工神經(jīng)網(wǎng)絡(luò)中各節(jié)點(diǎn)間的連接權(quán)值;4)、當(dāng)滿足結(jié)束條件時(shí),基于人工神經(jīng)網(wǎng)絡(luò)的無(wú)參考評(píng)價(jià)模型即建立完成;之后,通過(guò)測(cè)驗(yàn)樣本來(lái)檢測(cè)該模型的系統(tǒng)性能;5)、對(duì)于輸入的測(cè)試樣本,提取同樣的特征參數(shù),然后輸入到已訓(xùn)練好的模型中,即獲取對(duì)測(cè)試樣本的質(zhì)量評(píng)價(jià)結(jié)果;其特征在于,步驟1)中提取視頻圖像的特征參數(shù)具體為提取九個(gè)特征參數(shù),分別為圖像活性、平均梯度、邊緣能量統(tǒng)計(jì)、過(guò)零率統(tǒng)計(jì)、熵、塊效應(yīng)、頻域能量分布特性、飽和度八個(gè)空間特性參數(shù)和幀間差一個(gè)時(shí)間特性參數(shù);并且將前四個(gè)空間特性參數(shù)進(jìn)行平均加權(quán),定義為圖像的模糊參數(shù);圖像活性Activityimage求水平方向圖像活性H1,如下式所示
2. 根據(jù)權(quán)利要求1所述的視頻質(zhì)量評(píng)價(jià)方法,其特征在于計(jì)算總的塊 效應(yīng)的特征值說(shuō)oc^^,其中進(jìn)行快速傅立葉變換時(shí),對(duì)Q行的一階差分作累加后,再對(duì)累加的數(shù)組進(jìn)行快速傅立葉變換,并計(jì)算傅立葉系數(shù)的幅度譜; 計(jì)算這Q行的水平方向塊效應(yīng)特征值;對(duì)接下來(lái)的Q行作同樣的操作,Q的 值為8至16間任意一個(gè)數(shù)值,依此方法處理完整幅圖像,并將所有水平方向 的特征值相加求平均,即為塊效應(yīng)在水平方向的特征值。
3. 根據(jù)權(quán)利要求1所述的視頻質(zhì)量評(píng)價(jià)方法,其特征在于對(duì)亮度圖像 使用小波變換進(jìn)行頻域能量分析,頻域能量分析使用的小波是W53小波,它 的高通系數(shù)和低通系數(shù)分別為{0.25, -0.5, 0.25}, {-0.125, 0.25, 0.75, 0.25, -0.125};對(duì)四級(jí)變換之后的小波系數(shù)的幅值分別進(jìn)行統(tǒng)計(jì),即求得同一級(jí)的 小波幅值的平方和,并除以這一級(jí)的樣點(diǎn)總數(shù),得到的值即為這一級(jí)對(duì)應(yīng)的 頻帶上的能量E(Z;c);其中的x為0, 1, 2, 3, 4;然后利用CSF的非線性帶通特性,對(duì)小波分解后不同空間頻帶的小波系 數(shù)進(jìn)行加權(quán),頻域能量的計(jì)算如下式,i^一E加,即為得到圖像頻域能量的分 布特征fVe一 £"wgv= 2,25x £(丄0)+2.87x £(£1) + 3.16x £(£2) + 2.56x +1.00x £(Z4) (16)
全文摘要
一種基于人工神經(jīng)網(wǎng)絡(luò)的視頻質(zhì)量評(píng)價(jià)方法屬于計(jì)算機(jī)數(shù)字視頻處理領(lǐng)域。該評(píng)價(jià)算法通過(guò)分析視頻圖像的空間特性(模糊、熵、塊效應(yīng)、頻域能量分析、飽和度)和時(shí)間特性(幀間差)來(lái)計(jì)算圖像的受損程度。色度空間飽和度作為無(wú)參考評(píng)價(jià)算法的參數(shù)之一可有效改善算法的評(píng)價(jià)效果。本系統(tǒng)是基于人工神經(jīng)網(wǎng)絡(luò)而設(shè)計(jì)的,因此算法的實(shí)現(xiàn)包含網(wǎng)絡(luò)的訓(xùn)練過(guò)程和測(cè)試過(guò)程。對(duì)于所選擇的訓(xùn)練樣本(視頻圖像序列),首先提取上述的六項(xiàng)參數(shù),并通過(guò)主觀評(píng)價(jià)獲取訓(xùn)練樣本在訓(xùn)練中的期望輸出(主觀評(píng)價(jià)結(jié)果)。訓(xùn)練樣本的特征參數(shù)與對(duì)應(yīng)的主觀評(píng)價(jià)結(jié)果作為訓(xùn)練參數(shù)輸入人工神經(jīng)網(wǎng)絡(luò)。依據(jù)實(shí)驗(yàn)表明,該客觀評(píng)價(jià)系統(tǒng)所獲取的評(píng)價(jià)結(jié)果與人眼的視覺(jué)感受高度一致。
文檔編號(hào)H04N7/26GK101282481SQ20081010613
公開(kāi)日2008年10月8日 申請(qǐng)日期2008年5月9日 優(yōu)先權(quán)日2008年5月9日
發(fā)明者煒 周, 姜秀華, 放 孟, 許江波 申請(qǐng)人:中國(guó)傳媒大學(xué)
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
凤城市| 天镇县| 平顺县| 东乡族自治县| 都江堰市| 三门峡市| 绿春县| 伊川县| 黔江区| 札达县| 正阳县| 防城港市| 高邑县| 新宾| 华安县| 临颍县| 苏尼特左旗| 颍上县| 西丰县| 沙坪坝区| 内丘县| 城固县| 大安市| 邓州市| 剑阁县| 博客| 南安市| 邮箱| 阿克陶县| 舒城县| 淳安县| 巴彦县| 惠水县| 昌都县| 通许县| 仁寿县| 来安县| 磐安县| 信丰县| 晋江市| 商洛市|