欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種基于計(jì)算機(jī)視覺(jué)的圖像增強(qiáng)方法與流程

文檔序號(hào):40574090發(fā)布日期:2025-01-03 11:38閱讀:13來(lái)源:國(guó)知局
一種基于計(jì)算機(jī)視覺(jué)的圖像增強(qiáng)方法與流程

本發(fā)明屬于圖像處理,具體涉及一種基于計(jì)算機(jī)視覺(jué)的圖像增強(qiáng)方法。


背景技術(shù):

1、圖像增強(qiáng)技術(shù)是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要研究方向,其主要目標(biāo)是對(duì)輸入圖像進(jìn)行處理,利用計(jì)算機(jī)視覺(jué)系統(tǒng)的識(shí)別和檢測(cè)性能提升圖像質(zhì)量。

2、在公開(kāi)號(hào)為cn118247191a的中國(guó)專(zhuān)利中,提到了一種基于計(jì)算機(jī)視覺(jué)的圖像增強(qiáng)方法,包括:獲取室外監(jiān)控灰度圖像以及圖像中的動(dòng)態(tài)物體局部區(qū)域,再獲取每個(gè)動(dòng)態(tài)物體局部區(qū)域的增強(qiáng)期望以及室外監(jiān)控灰度圖像的整體增強(qiáng)需求,根據(jù)動(dòng)態(tài)物體局部區(qū)域的增強(qiáng)期望和室外監(jiān)控灰度圖像的整體增強(qiáng)需求,得到室外監(jiān)控灰度圖像中每個(gè)動(dòng)態(tài)物體局部區(qū)域的自適應(yīng)增強(qiáng)系數(shù),根據(jù)動(dòng)態(tài)物體局部區(qū)域的自適應(yīng)增強(qiáng)系數(shù)和區(qū)域內(nèi)像素點(diǎn)的灰度值,得到室外監(jiān)控增強(qiáng)圖像。本發(fā)明通過(guò)線(xiàn)性變換函數(shù),結(jié)合每個(gè)動(dòng)態(tài)物體局部區(qū)域的自適應(yīng)增強(qiáng)系數(shù)計(jì)算出每個(gè)動(dòng)態(tài)物體局部區(qū)域中所有像素點(diǎn)的灰度值的映射值,提高了室外監(jiān)控圖像增強(qiáng)的質(zhì)量。

3、本技術(shù)人在申請(qǐng)過(guò)程中發(fā)現(xiàn),上述申請(qǐng)?jiān)谑褂眠^(guò)程中存在缺陷,該申請(qǐng)公開(kāi)的圖像增強(qiáng)方法主要針對(duì)的是圖像過(guò)亮或者過(guò)暗導(dǎo)致的圖片細(xì)節(jié)信息缺失,雖然公開(kāi)了像素點(diǎn)灰度值處理和物體局部區(qū)域圖像增強(qiáng)處理等技術(shù),但并未使用前沿的深度學(xué)習(xí)技術(shù),導(dǎo)致圖像增強(qiáng)處理粗糙且緩慢,無(wú)法快速得到高質(zhì)量的增強(qiáng)圖像。


技術(shù)實(shí)現(xiàn)思路

1、本發(fā)明的目的在于提供一種基于計(jì)算機(jī)視覺(jué)的圖像增強(qiáng)方法,以解決上述背景技術(shù)中提出的問(wèn)題。

2、為實(shí)現(xiàn)上述目的,本發(fā)明提供如下技術(shù)方案:

3、一種基于計(jì)算機(jī)視覺(jué)的圖像增強(qiáng)方法,具體包括以下步驟:

4、s1,獲取并輸入處理前圖像;

5、s2,對(duì)于輸入的處理前圖像進(jìn)行預(yù)處理,提高模型訓(xùn)練效率和性能;

6、s3,對(duì)預(yù)處理完畢的圖像進(jìn)行增強(qiáng)處理,提高圖像質(zhì)量;

7、s4,通過(guò)深度學(xué)習(xí)模型處理影響圖像質(zhì)量的因素,學(xué)習(xí)恢復(fù)原圖像;

8、s5,利用生成對(duì)抗網(wǎng)絡(luò),生成增強(qiáng)之后的新的圖像。

9、優(yōu)選的,所述s2中,圖像預(yù)處理的操作包括:

10、縮放:通過(guò)更改圖像的寬度和高度將圖像縮小到一個(gè)較小的值,減少計(jì)算量;

11、裁剪:通過(guò)更改圖像的寬度和高度從圖像中裁剪出一個(gè)較小的區(qū)域,作為輸入圖像;

12、翻轉(zhuǎn):對(duì)輸入圖像進(jìn)行水平和垂直翻轉(zhuǎn)操作,以增加模型泛化能力;

13、數(shù)據(jù)增強(qiáng):通過(guò)隨機(jī)旋轉(zhuǎn)、平移和扭曲操作生成新的圖像樣本,以增加模型的訓(xùn)練數(shù)據(jù)量。

14、優(yōu)選的,所述s3中,圖像增強(qiáng)途徑包括:

15、自適應(yīng)歷史對(duì)比度調(diào)整,根據(jù)圖像的灰度分布,自適應(yīng)地調(diào)整圖像對(duì)比度,自適應(yīng)歷史對(duì)比度調(diào)整公式表示為:

16、ienhanced(x,y)=i(x,y)+α(x,y)(max(i(x,y))-min(i(x,y)))

17、其中,ienhanced(x,y)表示增強(qiáng)后圖像,i(x,y)表示原始圖像,α(x,y)表示對(duì)比度調(diào)整系數(shù)。

18、優(yōu)選的,所述s3中,圖像增強(qiáng)途徑包括:

19、自適應(yīng)平均增強(qiáng),根據(jù)圖像的灰度分布,自適應(yīng)地調(diào)整圖像的亮度,自適應(yīng)平均增強(qiáng)公式表示為:

20、ienhanced(x,y)=β(x,y)i(x,y)

21、其中,ienhanced(x,y)表示增強(qiáng)后圖像,i(x,y)表示原始圖像,β(x,y)表示亮度調(diào)整系數(shù)。

22、優(yōu)選的,所述s3中,圖像增強(qiáng)途徑包括:

23、自適應(yīng)對(duì)比度增強(qiáng),根據(jù)圖像的灰度分布,自適應(yīng)地調(diào)整圖像的對(duì)比度和亮度,自適應(yīng)對(duì)比度增強(qiáng)公式表示為:

24、ienhanced(x,y)=β(x,y)i(x,y)+α(x,y)(max(i(x,y))-min(i(x,y)))

25、其中,ienhanced(x,y)表示增強(qiáng)后圖像,i(x,y)表示原始圖像,α(x,y)表示對(duì)比度調(diào)整系數(shù),β(x,y)表示亮度調(diào)整系數(shù)。

26、優(yōu)選的,所述s3中圖像增強(qiáng)途徑還包括調(diào)整圖像中顏色和亮度的空間位置關(guān)系的自動(dòng)色彩均衡,通過(guò)進(jìn)行局部特性的自適應(yīng)濾波,實(shí)現(xiàn)具有局部和非線(xiàn)性特征的圖像亮度與色彩調(diào)整和對(duì)比度調(diào)整,調(diào)整步驟具體包括:

27、s31,對(duì)圖像進(jìn)行色彩/空域調(diào)整,完成圖像的色彩校正,得到空域重構(gòu)圖像,表示為:

28、

29、式中,rc是中間結(jié)果,ic(p)為兩個(gè)不同點(diǎn)的亮度差,d(p,j)表示距離度量函數(shù),r(*)為亮度表現(xiàn)函數(shù),為奇函數(shù),此步驟可以使用局部圖像對(duì)比度,r(*)能夠放大并豐富的差異,根據(jù)局部?jī)?nèi)容擴(kuò)展或者壓縮動(dòng)態(tài)范圍,r(*)表示為:

30、

31、s32,對(duì)校正后的圖像進(jìn)行動(dòng)態(tài)擴(kuò)展,對(duì)彩色輸入圖片的每一個(gè)色道分別處理,線(xiàn)性擴(kuò)展公式表示為:

32、r(x)=round[127.5+w*rc(p)]

33、其中,w表示線(xiàn)段[(0,mc),(255,mc)]的斜率,且有:mc=min[rc(p)],mc=max[rc(p)];

34、s33,將r(x)擴(kuò)展到[0,1]之間,得到增強(qiáng)后的通道,公式表達(dá)為:

35、

36、優(yōu)選的,計(jì)算時(shí),通過(guò)指定采樣數(shù)來(lái)替代與整幅圖像的像素點(diǎn)信息進(jìn)行差分計(jì)算,減少運(yùn)算量,提高效率。

37、優(yōu)選的,所述s4中,通過(guò)深度學(xué)習(xí)模型學(xué)習(xí)恢復(fù)具備模糊和噪聲的圖像,具體操作步驟包括:

38、s41,將具備模糊和噪聲因素的圖像作為輸入數(shù)據(jù),輸入深度學(xué)習(xí)模型;

39、s42,通過(guò)深度學(xué)習(xí)模型學(xué)習(xí)恢復(fù)原圖像,恢復(fù)過(guò)程公式表達(dá)為:

40、irecovered=f(idegraded)

41、其中,irecovered表示恢復(fù)后的圖像,idegraded表示模糊、噪聲等影響圖像質(zhì)量的因素,f(*)表示深度學(xué)習(xí)模型。

42、優(yōu)選的,所述s5中,圖像生成是利用生成對(duì)抗網(wǎng)絡(luò)生成新的圖像,具體操作步驟包括:

43、s51,將原始圖像作為生成對(duì)抗網(wǎng)絡(luò)的輸入數(shù)據(jù),生成新的圖像,生成過(guò)程公式表示為:

44、g(z)=irend

45、其中,g(z)表示生成的圖像,z表示隨機(jī)噪聲,irend表示原始圖像;

46、s52,將生成的圖像與原始圖像進(jìn)行對(duì)比,判斷生成的圖像是否與原始的圖像相似,判斷過(guò)程公式表達(dá)為:

47、d(ireal,g(z))=1

48、其中,d(ireal,g(z))表示判斷生成的圖像與原始圖像是否相似的結(jié)果;

49、s53,通過(guò)訓(xùn)練生成對(duì)抗網(wǎng)絡(luò),使得生成的圖像與原始圖像更加相似,訓(xùn)練過(guò)程公式表達(dá)為:

50、

51、其中v(d,g)表示生成對(duì)抗網(wǎng)絡(luò)的損失函數(shù),pdata(x)表示原始圖像的概率分布,pz(z)表示隨機(jī)噪聲的概率分布,e表示期望值。

52、優(yōu)選的,引入平均結(jié)構(gòu)相似性和峰值信息量作為評(píng)估指標(biāo),評(píng)估增強(qiáng)后的圖像質(zhì)量,數(shù)學(xué)模型公式表達(dá)為:

53、y=f(x;θ)

54、其中,x表示原始圖像,y表示增強(qiáng)后的圖像,f表示卷積神經(jīng)網(wǎng)絡(luò)函數(shù),θ表示卷積神經(jīng)網(wǎng)絡(luò)函數(shù)的參數(shù)。

55、與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果是:

56、本發(fā)明依托深度學(xué)習(xí)網(wǎng)絡(luò)對(duì)待處理的圖像依次經(jīng)過(guò)圖像預(yù)處理、圖像增強(qiáng)、圖像恢復(fù)和圖像生成等步驟,在提升原有深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練效率和性能的前提下,對(duì)輸入圖像的亮度、對(duì)比度、飽和度和色彩進(jìn)行一系列的調(diào)整,提高圖像質(zhì)量的同時(shí),也去除了圖像表面的模糊和噪聲等影響圖像質(zhì)量的因素,通過(guò)深度學(xué)習(xí)模型進(jìn)一步恢復(fù)圖像,最后生成一個(gè)接近于現(xiàn)實(shí)的新圖像,而且深度學(xué)習(xí)卷積神經(jīng)網(wǎng)絡(luò)模型能夠自主學(xué)習(xí)迭代,通過(guò)訓(xùn)練不斷地縮減圖片處理時(shí)間,提升處理圖片質(zhì)量。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢(xún)問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1
土默特右旗| 呼玛县| 淮北市| 富宁县| 南召县| 沈阳市| 星子县| 宁安市| 西充县| 高密市| 磐石市| 阿图什市| 鹤峰县| 柞水县| 昌黎县| 明星| 三台县| 剑川县| 夏河县| 台中市| 田林县| 永丰县| 根河市| 眉山市| 搜索| 平南县| 沁源县| 五华县| 叶城县| 镶黄旗| 额尔古纳市| 青神县| 西林县| 赣榆县| 武冈市| 云安县| 济宁市| 大竹县| 阿尔山市| 屏南县| 秀山|