欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

一種應(yīng)用于相位展開的深度學(xué)習(xí)語義分割模型的訓(xùn)練方法與流程

文檔序號:40564354發(fā)布日期:2025-01-03 11:24閱讀:15來源:國知局
一種應(yīng)用于相位展開的深度學(xué)習(xí)語義分割模型的訓(xùn)練方法與流程

本技術(shù)屬于三維重建,尤其涉及一種應(yīng)用于相位展開的深度學(xué)習(xí)語義分割模型的訓(xùn)練方法。


背景技術(shù):

1、結(jié)構(gòu)光三維重建技術(shù)是一種利用投影光和相機(jī)來獲取物體三維信息的非接觸式測量方法。這種方法具有速度快、精度高、操作簡便等優(yōu)點(diǎn),因此在工業(yè)檢測、文物保護(hù)、醫(yī)學(xué)成像等領(lǐng)域得到了廣泛應(yīng)用。

2、相位展開是結(jié)構(gòu)光三維重建中一個(gè)關(guān)鍵步驟,主要用于從相位包裹的相位圖中恢復(fù)真實(shí)相位值,從包裹相位到展開相位的關(guān)鍵之處便是條紋級數(shù)。其準(zhǔn)確性直接影響到三維模型的質(zhì)量。但是傳統(tǒng)相位估計(jì)算法對噪聲非常敏感,特別是在高頻相位信息和復(fù)雜場景下,噪聲會導(dǎo)致相位解包和相位展開過程中的誤差積累,而且對于高度不連續(xù)相位圖和非線性相位變化,也不能準(zhǔn)確的獲得絕對相位,從而影響三維重建的精度。

3、隨著深度學(xué)習(xí)技術(shù)的快速發(fā)展,基于神經(jīng)網(wǎng)絡(luò)的圖像處理方法在許多計(jì)算機(jī)視覺任務(wù)中展現(xiàn)出了優(yōu)異的性能。將深度學(xué)習(xí)技術(shù)應(yīng)用于相位展開,已成為提高三維重建精度和效率的重要研究方向。然而,目前針對結(jié)構(gòu)光相位展開的研究中,仍缺乏一種有效的方法,能夠在保證高精度相位展開的基礎(chǔ)上,提升算法的魯棒性和實(shí)時(shí)性能。


技術(shù)實(shí)現(xiàn)思路

1、有鑒于此,本技術(shù)的目的在于提供一種應(yīng)用于相位展開的深度學(xué)習(xí)語義分割模型的訓(xùn)練方法,通過引入伽馬矯正來消除投影儀非線性效應(yīng)引起的誤差,同時(shí)利用mobilevit網(wǎng)絡(luò)、邊緣信息增強(qiáng)網(wǎng)絡(luò)和空洞金字塔分割網(wǎng)絡(luò),結(jié)合深度學(xué)習(xí)技術(shù),構(gòu)建包裹相位和條紋級數(shù)的映射關(guān)系的深度學(xué)習(xí)語義分割模型,該模型能夠提高條紋級數(shù)的預(yù)測精度和噪聲魯棒性,同時(shí)減少計(jì)算復(fù)雜度和時(shí)間延遲,增強(qiáng)了算法的實(shí)時(shí)性能和適應(yīng)性,從而為高精度、實(shí)時(shí)性要求較高的三維重建應(yīng)用提供了可靠的技術(shù)保障。

2、本技術(shù)提供了一種應(yīng)用于相位展開的深度學(xué)習(xí)語義分割模型的訓(xùn)練方法,所述深度學(xué)習(xí)語義分割模型包括:mobilevit網(wǎng)絡(luò)、邊緣信息增強(qiáng)網(wǎng)絡(luò)和空洞金字塔分割網(wǎng)絡(luò),所述訓(xùn)練方法包括:

3、對相機(jī)采集到的相移光柵圖進(jìn)行伽馬矯正,以得到相對應(yīng)的包裹相位圖;

4、針對每一個(gè)包裹相位圖,利用相鄰像素差法,得到該包裹相位圖對應(yīng)的條紋級數(shù)圖,并構(gòu)建訓(xùn)練圖像集;

5、將所述訓(xùn)練圖像集中的包裹相位圖依次輸入至所述深度學(xué)習(xí)語義分割模型,以進(jìn)行特征提取,并將所述訓(xùn)練圖像集中的條紋級數(shù)圖作為輸出,調(diào)整所述深度學(xué)習(xí)語義分割模型的參數(shù),以得到最優(yōu)的深度學(xué)習(xí)語義分割模型。

6、進(jìn)一步的,所述對相機(jī)采集到的相移光柵圖進(jìn)行伽馬矯正,以得到相對應(yīng)的包裹相位圖,包括:

7、讀取所述相移光柵圖的像素值;所述像素值由紅、綠、藍(lán)顏色通道分別對應(yīng)的亮度值組成,所述亮度值的取值范圍為(0,255);

8、基于所述相移光柵圖的像素值,利用伽馬矯正公式進(jìn)行非線性變換,以消除由于投影儀非線性效應(yīng)引起的誤差,得到矯正后的像素值;

9、基于所述矯正后的像素值,計(jì)算包裹相位信息,以得到相對應(yīng)的包裹相位圖。

10、進(jìn)一步的,所述將所述訓(xùn)練圖像集中的包裹相位圖依次輸入至所述深度學(xué)習(xí)語義分割模型,以進(jìn)行特征提取,包括:

11、基于mobilevit網(wǎng)絡(luò)和邊緣信息增強(qiáng)網(wǎng)絡(luò)構(gòu)建特征提取策略,并通過下采樣的方式,對所述包裹相位圖進(jìn)行特征提取和融合,以得到多尺度的包裹相位特征圖;

12、利用空洞金字塔分割網(wǎng)絡(luò),并通過上采樣的方式,對多尺度的包裹相位特征圖進(jìn)行特征提取和拼接,以得到包含多尺度包裹相位信息的包裹相位綜合特征圖。

13、進(jìn)一步的,所述基于mobilevit網(wǎng)絡(luò)和邊緣信息增強(qiáng)網(wǎng)絡(luò)構(gòu)建特征提取策略,并通過下采樣的方式,對所述包裹相位圖進(jìn)行特征提取和融合,以得到多尺度的包裹相位特征圖,包括:

14、對所述包裹相位圖進(jìn)行下采樣,以得到不同尺度下的包裹相位圖的初始特征圖和相對應(yīng)的絕對位置信息;所述下采樣的比例分別為:1/2、1/4、1/8、1/16、1/32;

15、針對每一個(gè)尺度下的初始特征圖,利用mobilevit網(wǎng)絡(luò),對該初始特征圖的全局特征和局部特征進(jìn)行融合,并進(jìn)行冗余去除和噪聲抑制處理,以得到融合特征圖;

16、針對每一個(gè)尺度下的融合特征圖,利用邊緣信息增強(qiáng)網(wǎng)絡(luò),賦予該融合特征圖邊緣特征,以得到包含圖像邊緣特征的包裹相位特征圖。

17、進(jìn)一步的,所述mobilevit網(wǎng)絡(luò)包括:

18、n×n卷積層和1×1卷積層,用于對所述初始特征圖進(jìn)行局部特征表示;

19、全局特征表示模塊,用于基于所述局部特征,并結(jié)合輕量級的transformer進(jìn)行全局特征表示;

20、1×1卷積層和n×n卷積層,用于對所述局部特征和全局特征進(jìn)行融合,得到融合特征圖。

21、進(jìn)一步的,所述邊緣信息增強(qiáng)網(wǎng)絡(luò)包括:

22、邊緣特征融合模塊,用于將提取出的所述融合特征圖的原始圖像特征和邊緣特征相乘后,與所述原始圖像特征相加,并進(jìn)行3×3卷積操作,得到初始邊緣融合特征;

23、權(quán)重提取模塊,用于提取所述初始邊緣融合特征的注意力權(quán)重;

24、權(quán)重融合模塊,用于將所述初始邊緣融合特征和相對應(yīng)的注意力權(quán)重相乘,并進(jìn)行1×1卷積操作,以得到包含圖像邊緣特征的包裹相位特征圖。

25、進(jìn)一步的,所述利用空洞金字塔分割網(wǎng)絡(luò),并通過上采樣的方式,對多尺度的包裹相位特征圖進(jìn)行特征提取和拼接,以得到包含多尺度包裹相位信息的包裹相位綜合特征圖,包括:

26、利用所述空洞金字塔分割網(wǎng)絡(luò),提取多尺度的包裹相位特征圖的特征,得到各并行通道下具有相同尺度的通道融合特征圖;

27、通過上采樣的方式,將具有相同尺度的通道融合特征圖進(jìn)行通道連接,以將各并行通道的特征進(jìn)行整合,得到包裹相位綜合特征圖。

28、進(jìn)一步的,所述空洞金字塔分割網(wǎng)絡(luò)包括:

29、并行的1×1卷積層、空洞率分別為6、12、18的3×3卷積層和池化層,用于對多尺度的包裹相位特征圖進(jìn)行特征提取,并得到各并行通道下具有相同尺度的第一特征圖;

30、全局平均池化層和全連接層,用于針對每一個(gè)并行通道,計(jì)算該并行通道的第一特征圖的平均值后,進(jìn)行拼接操作,以得到第二特征圖;

31、通道混合層、注意力層和全連接層,用于將各并行通道的第二特征圖進(jìn)行混合操作,并通過注意力層賦予各并行通道權(quán)重后,與所述第一特征圖進(jìn)行融合,得到各并行通道下具有相同尺度的通道融合特征圖。

32、進(jìn)一步的,所述將所述訓(xùn)練圖像集中的條紋級數(shù)圖作為輸出,調(diào)整所述深度學(xué)習(xí)語義分割模型的參數(shù),以得到最優(yōu)的深度學(xué)習(xí)語義分割模型,包括:

33、將所述訓(xùn)練圖像集中的條紋級數(shù)圖作為輸出,基于所述包裹相位綜合特征圖,調(diào)整所述深度學(xué)習(xí)語義分割模型的參數(shù),以得到最優(yōu)的深度學(xué)習(xí)語義分割模型。

34、本技術(shù)提供的應(yīng)用于相位展開的深度學(xué)習(xí)語義分割模型的訓(xùn)練方法,通過引入伽馬矯正來消除投影儀非線性效應(yīng)引起的誤差,同時(shí)利用mobilevit網(wǎng)絡(luò)、邊緣信息增強(qiáng)網(wǎng)絡(luò)和空洞金字塔分割網(wǎng)絡(luò),結(jié)合深度學(xué)習(xí)技術(shù),構(gòu)建包裹相位和條紋級數(shù)的映射關(guān)系的深度學(xué)習(xí)語義分割模型,該模型能夠提高條紋級數(shù)的預(yù)測精度和噪聲魯棒性,同時(shí)減少計(jì)算復(fù)雜度和時(shí)間延遲,增強(qiáng)了算法的實(shí)時(shí)性能和適應(yīng)性,從而為高精度、實(shí)時(shí)性要求較高的三維重建應(yīng)用提供了可靠的技術(shù)保障。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1
年辖:市辖区| 枝江市| 文成县| 页游| 赤水市| 岳阳市| 额敏县| 石嘴山市| 文登市| 米易县| 海淀区| 乐至县| 莱阳市| 山西省| 绵竹市| 泾川县| 宜良县| 六安市| 科技| 厦门市| 桃园市| 安溪县| 卓资县| 凉城县| 吴忠市| 玛曲县| 昌平区| 临桂县| 即墨市| 乌兰浩特市| 泊头市| 隆尧县| 黔西县| 弋阳县| 油尖旺区| 南岸区| 襄城县| 昌宁县| 庆安县| 分宜县| 漠河县|