欧美在线观看视频网站,亚洲熟妇色自偷自拍另类,啪啪伊人网,中文字幕第13亚洲另类,中文成人久久久久影院免费观看 ,精品人妻人人做人人爽,亚洲a视频

基于多級域相似性引導的遙感圖像壓縮方法

文檔序號:40477835發(fā)布日期:2024-12-31 12:45閱讀:30來源:國知局
本發(fā)明涉及基于多級域相似性引導的遙感圖像壓縮方法。
背景技術
::1、遙感圖像是地球表面信息的數(shù)字化呈現(xiàn)[1][2]([1]fang?h,guo?s,wang?x,etal.automatic?urban?scene-level?binary?change?detection?based?on?a?novelsample?selection?approach?and?advanced?triplet?neural?network[j].ieeetransactions?on?geoscience?and?remote?sensing,2023,61:1-18.[2]zhao?y,chen?p,chen?z,et?al.a?triple-stream?network?with?cross-stage?feature?fusion?forhigh-resolution?image?change?detection[j].ieee?transactions?on?geoscience?andremote?sensing,2023,61:1-17.),具備許多普通圖像難以反映的地物特性,包括地表覆蓋類型、地形、地貌、溫度等;因此,它被廣泛的應用于環(huán)境監(jiān)測、氣象學、地質科學等諸多領域[3-6]([3]tangw,he?f,bashirak,et?al.aremote?sensing?image?rotation?objectdetection?approach?for?real-time?environmental?monitoring[j].sustainableenergy?technologies?and?assessments,2023,57:103270.[4]gama?p?h?t,oliveira?hn,marcato?j,et?al.weakly?supervised?few-shot?segmentation?via?meta-learning[j].ieee?transactions?on?multimedia,2022.[5]han?w,zhang?x,wang?y,et?al.asurvey?of?machine?learning?and?deep?learning?in?remote?sensing?ofgeologicalenvironment:challenges,advances,and?opportunities[j].isprs?journal?ofphotogrammetry?and?remote?sensing,2023,202:87-113.[6]wang?x,wang?c,jin?x,etal.coordinated?analysis?of?county?geological?environment?carrying?capacityand?sustainabledevelopment?under?remote?sensing?interpretation?combined?withintegrated?model[j].ecotoxicology?and?environmental?safety,2023,257:114956.)。隨著成像技術的高速發(fā)展,遙感圖像的空間分辨率和光譜分辨率不斷提高,數(shù)據量也隨之幾何級增長。此外,由于成像視角、拍攝距離、大氣折射等因素的影響,遙感圖像有著信息熵高、紋理信息豐富、高頻特征和低頻特征雜糅、相關性弱等特點,這些問題使得傳統(tǒng)圖像壓縮方法難以對遙感圖像進行有效的壓縮[7-9]([7]xing?z,yang?s,zan?x,etal.floodvulnerability?assessment?of?urban?buildings?based?on?integrating?high-resolution?remote?sensing?and?street?view?images[j].sustainable?cities?andsociety,2023,92:104467.[8]xia?g?s,hu?j,hu?f,et?al.aid:a?benchmark?data?setfor?performance?evaluation?of?aerial?scene?classification[j].ieeetransactions?on?geoscience?and?remote?sensing,2017,55(7):3965-3981.[9]lu?x,wang?b,zheng?x,et?al.exploring?models?and?data?for?remote?sensing?imagecaption?generation[j].ieee?transactions?on?geoscience?and?remote?sensing,2017,56(4):2183-2195.)。因此,高效的遙感圖像壓縮網絡急需被設計和開發(fā)。2、目前,常見的傳統(tǒng)圖像壓縮方法取得了一些成果。例如,báscones等人提出了一種將主成分分析和jpeg2000[10]([10]jpeg2000official?software?openjpeg,https://jpeg.org/jpeg2000/software.html)結合起來壓縮高光譜圖像數(shù)據的方法[11]([11]báscones?d,gonzález?c,mozos?d.hyperspectral?image?compression?using?vectorquantization,pcaand?jpeg2000[j].remote?sensing,2018,10(6):907.)。此外,有著更優(yōu)越性能的bpg[12]([12]f.bellard.bpg?image?format.[online].available:http://bellard.org/bpg/)和webp[13]([13]maldonado?m,webp?j.a?new?web?oriented?imageformat.universitat?oberta?de?catalunya,2010[j].)在圖像壓縮領域也隨之誕生。其中,jpeg[14]([14]wallace?g?k.the?jpeg?still?picture?compression?standard[j].communications?ofthe?acm,1991,34(4):30-44.)和jpeg2000由三個部分組成,包括圖像變換、量化和熵編碼。總體來說,首先,對圖像進行壓縮和去量化。其次,通過量化保留具有價值較大的信息。最后,利用熵編碼對解相關系數(shù)進行壓縮。傳統(tǒng)的圖像壓縮方法可以被分為基于矢量量化的算法[15]([15]wang?z,nasrabadi?n?m,huang?t?s.spatial–spectralclassification?of?hyperspectral?images?using?discriminative?dictionarydesigned?by?learning?vector?quantization[j].ieee?transactions?on?geoscienceand?remote?sensing,2013,52(8):4808-4822.)、基于預測編碼的算法[16]([16]hu?y,yangw,ma?z,et?al.learning?end-to-end?lossy?image?compression:abenchmark[j].ieeetransactions?on?patternanalysis?and?machine?intelligence,2021,44(8):4194-4211.)和基于變換編碼的算法[17]([17]aulí-llinàs?f,marcellin?m?w,serra-sagristaj,et?al.lossy-to-lossless3d?image?coding?through?prior?coefficient?lookuptables[j].information?sciences,2013,239:266-282.)化的多光譜圖像壓縮算法,其將輸入向量改為與碼本中輸入向量匹配的碼字索引來進行數(shù)據的傳輸和存儲[18]([18]qians?e.hyperspectral?data?compression?using?a?fast?vector?quantization?algorithm[j].ieee?transactions?on?geoscience?and?remote?sensing,2004,42(8):1791-1798.)。3d-mblp采用基于預測的技術,首先消除圖像的空間冗余信息,隨后進行頻帶的預測,最終通過熵譯碼器對預測殘差進行編碼[19]([19]pizzolante?r,carpentierib.multiband?and?lossless?compression?of?hyperspectral?images[j].algorithms,2016,9(1):16.)。3d-spiht是一種用于三維圖像壓縮的變換方法,它在空間域和頻譜域中應用了3d小波變換[20]([20]thornton?l,soraghan?j,kutil?r,et?al.unequallyprotected?spiht?video?codec?for?low?bit?rate?transmission?over?highly?error-prone?mobile?channels[j].signal?processing:image?communication,2002,17(4):327-335.)。然而,將傳統(tǒng)的圖像壓縮方法用于遙感圖像壓縮存在以下一些問題,如計算復雜度高,沒有對遙感圖像高信息熵、豐富紋理、雜糅高頻特征和低頻特征以及弱相關性等特點進行針對化處理。這些限制了遙感圖像壓縮性能的提升。3、為了尋求突破,相關研究人員專注于近年來火熱的神經網絡技術。經典的基于深度學習的圖像壓縮框架主要包括自動編碼器(autoencoder,ae)[21][22]([21]la?grassa?r,re?c,cremonese?g,et?al.hyperspectral?data?compression?using?fullyconvolutional?autoencoder[j].remote?sensing,2022,14(10):2472.[22]liu?j,yuanf,xue?c,et?al.an?efficient?and?robust?underwater?image?compression?schemebased?on?autoencoder[j].ieee?journal?of?oceanic?engineering,2023.)和變分自動編碼器(variationalautoencoder,vae)[23][24]([23]alves?de?oliveirav,chabert?m,oberlin?t,et?al.reduced-complexity?end-to-end?variational?autoencoder?for?onboard?satellite?image?compression[j].remote?sensing,2021,13(3):447.[24]xu?q,xiang?y,di?z,et?al.synthetic?aperture?radar?image?compression?based?on?avariational?autoencoder[j].ieee?geoscience?and?remote?sensing?letters,2021,19:1-5.)。其主要原因在于,圖像的壓縮任務主要包含兩個相對稱的數(shù)據處理過程,即壓縮和重建。這兩個任務之間存在一種相似的、可逆的關系,這意味著有著對稱編解碼結構的網絡會有更佳的性能表現(xiàn)。其中,基于vae的框架有著更強大的圖像重建能力。這是由于vae有著ae所不具備的連續(xù)映射空間,可以重建出平滑過度的圖像。近年來,許多優(yōu)秀的基于vae的基線網絡被提出[25][26][27][28][29][30][31]([25]balléj,laparra?v,simoncelli?e?p.end-to-end?optimization?ofnonlinear?transform?codes?for?perceptual?quality[c]//2016picture?coding?symposium(pcs).ieee,2016:1-5.[26]minnen?d,balléj,todericig?d.joint?autoregressive?and?hierarchical?priors?for?learned?imagecompression[j].advances?in?neural?information?processing?systems,2018,31.[27]balléj,minnen?d,singh?s,et?al.variational?image?compression?with?a?scalehyperprior[j].arxiv?preprint?arxiv:1802.01436,2018.[28]cheng?z,sun?h,takeuchim,et?al.learned?image?compression?with?discretized?gaussian?mixturelikelihoods?and?attention?modules[c]//proceedings?of?the?ieee/cvf?conferenceon?computer?vision?and?pattern?recognition.2020:7939-7948.[29]guo?z,zhang?z,feng?r,et?al.causal?contextual?prediction?for?learned?image?compression[j].ieee?transactions?on?circuits?and?systems?for?video?technology,2021,32(4):2329-2341.[30]chen?t,liu?h,ma?z,et?al.end-to-end?learnt?image?compression?vianon-local?attention?optimization?and?improved?context?modeling[j].ieeetransactions?on?image?processing,2021,30:3179-3191.[31]cao?m,dai?w,li?s,etal.end-to-end?optimized?image?compression?with?deep?gaussian?processregression[j].ieee?transactions?on?circuits?and?systems?for?video?technology,2022.),實現(xiàn)了優(yōu)于傳統(tǒng)圖像壓縮方法的率失真性能。基于vae的圖像壓縮網絡由三個部分組成,包括編碼器、熵編碼和解碼器。這類壓縮框架通常先使用神經網絡對數(shù)據塊進行初步壓縮,然后將像素數(shù)據映射為量化表示,最后再采用傳統(tǒng)編碼方式將數(shù)據壓縮成數(shù)據最小的存在形式(比特流)。此外,一些壓縮模型在框架中引入了熵模型,如拉普拉斯模型、單核高斯模型、混合高斯模型、分層熵模型等,以引入先驗信息,實現(xiàn)更精確的建模[26][28][32][33]([26]minnen?d,balléj,toderici?g?d.joint?autoregressive?and?hierarchicalpriors?for?learned?image?compression[j].advances?in?neural?informationprocessing?systems,2018,31.[27]balléj,minnen?d,singh?s,et?al.variationalimage?compression?with?a?scale?hyperprior[j].arxiv?preprint?arxiv:1802.01436,2018.[28]cheng?z,sun?h,takeuchi?m,et?al.learned?image?compression?withdiscretized?gaussian?mixture?likelihoods?and?attention?modules[c]//proceedings?of?the?ieee/cvf?conference?on?computer?vision?and?patternrecognition.2020:7939-7948.[29]guo?z,zhang?z,feng?r,et?al.causal?contextualprediction?for?learned?image?compression[j].ieee?transactions?on?circuits?andsystems?for?video?technology,2021,32(4):2329-2341.[30]chen?t,liu?h,ma?z,etal.end-to-end?learnt?image?compression?via?non-local?attention?optimizationand?improved?context?modeling[j].ieee?transactions?on?image?processing,2021,30:3179-3191.[31]cao?m,dai?w,li?s,et?al.end-to-end?optimized?imagecompression?with?deep?gaussian?process?regression[j].ieee?transactions?oncircuits?and?systems?for?video?technology,2022.[32]liu?d,sun?x,wu?f,etal.edge-oriented?uniformintra?prediction[j].ieee?transactions?on?imageprocessing,2008,17(10):1827-1836.[33]kong?f,cao?t,li?y,etal.multi-scalespatial-spectral?attention?network?for?multispectral?image?compression?basedon?variational?autoencoder[j].signal?processing,2022,198:108589.)。由此,許多學者都采用基于深度學習的壓縮模型來實現(xiàn)高效的遙感圖像壓縮[34][35][36][37][38]([34]guoy,chong?y,ding?y,et?al.learned?hyperspectral?compression?using?a?student’s?thyperprior[j].remote?sensing,2021,13(21):4390.[35]xiang?s,liang?q.remotesensing?image?compression?with?long-range?convolution?and?improved?non-localattention?model[j].signal?processing,2023,209:109005.[36]zhao?s,yang?s,gu?j,et?al.symmetrical?lattice?generative?adversarial?network?for?remote?sensingimages?compression[j].isprs?journal?of?photogrammetry?and?remote?sensing,2021,176:169-181.[37]zhang?l,hu?x,pan?t,et?al.global?priors?with?anchored-stripe?attention?and?multiscale?convolution?for?remote?sensing?imagescompression[j].ieee?journal?of?selected?topics?in?applied?earth?observationsand?remote?sensing,2023.[38]han?p,zhao?b,li?x.edge-guided?remote?sensingimage?compression[j].ieee?transactions?on?geoscience?and?remote?sensing,2023.)。值得一提的是,用于遙感圖像壓縮常見的深度學習技術主要包括三類:基于cnn的圖像壓縮方法,基于transformer的圖像壓縮方法,以及基于gan的圖像壓縮方法。在文獻[39]([39]tang?z,wang?h,yi?x,etal.joint?graph?attention?and?asymmetricconvolutional?neural?network?for?deep?image?compression[j].ieee?transactionson?circuits?and?systems?for?video?technology,2022,33(1):421-433.)中,tang等人通過融合圖注意力和不對稱卷積層神經網絡(acnn),提出了一種端到端圖像壓縮方法。該方法有效克服了傳統(tǒng)卷積層神經網絡對圖像局部特征過度關注的問題,促進信息交互,并充分考慮了通道之間的相互依賴關系和位置信息。在文獻[40]([40]li?b,liang?j,hanj.variable-rate?deep?image?compression?with?vision?transformers[j].ieeeaccess,2022,10:50323-50334.)中,li等人提出了一種基于vision?transformer(vit)的學習圖像壓縮網絡。該方法將輸入圖像分塊,并在編碼器和解碼器中采用不同類型的transformer塊,以實現(xiàn)高效圖像壓縮。在低比特率下,其實現(xiàn)了較好的率失真性能。在文獻[38]中,han等人提出了一種新的端到端框架,即基于邊緣引導的對抗網絡,旨在同時保留鋒利的邊緣和紋理信息。其通過邊緣保真度約束和引導網絡優(yōu)化重建圖像結構,以解決現(xiàn)有方法中的局部平滑性問題。上述方法實現(xiàn)了較好的率失真性能,但是他們都從單一因素(圖結構、長距離上下文信息、邊緣信息)來增強重建圖像的質量,而沒有全面、均衡地提高重建圖像的質量。4、遙感圖像壓縮框架的本質是提高原始圖像和重建圖像之間的相似性。原始圖像和重建圖像之間相似度取決于多重因素,例如高頻信息的重建質量、長距離上下文信息的恢復、噪聲的影響、不同特征之間相關性的強弱等。如何全面的將各種因素考慮進去,對圖像壓縮方法進行改進,以提升遙感圖像重建質量成為一個嚴峻的挑戰(zhàn)。技術實現(xiàn)思路1、本發(fā)明的目的是為了解決現(xiàn)有壓縮方法獲得的重建圖像的質量低的問題,而提出基于多級域相似性引導的遙感圖像壓縮方法。2、基于多級域相似性引導的遙感圖像壓縮方法具體過程為:3、步驟一、構建基于多級域相似性增強引導的遙感圖像壓縮網絡mdsnet;4、基于多級域相似性增強引導的遙感圖像壓縮網絡mdsnet包括:編碼器、解碼器、概率模型probability?model;5、編碼器包括第一7×7二維卷積層、第一gdn、第二3×3二維卷積層、第二gdn、第三3×3二維卷積層、第三gdn、gie-am、第四3×3二維卷積層、第四gdn、第五3×3二維卷積層、第六3×3二維卷積層、第七3×3二維卷積層、第八3×3二維卷積層、編碼多級域相似性增強模塊mdem;6、所述編碼多級域相似性增強模塊mdem包括編碼多級特征交互模塊mfim和編碼多通道信息提取模塊miem;7、所述編碼多級特征交互模塊mfim包括第九1×1二維卷積層、第十1×1二維卷積層、第十一1×1二維卷積層;8、所述編碼多通道信息提取模塊miem包括第一3×3最大池化、第一3×3平均池化、softmax激活函數(shù)層;9、所述gie-am包括第一ceb、第二ceb、第三ceb、第四ceb、sigmod激活函數(shù)、多頭注意力層mhsa;10、所述第一ceb、第二ceb、第三ceb、第四ceb中每個ceb依次包括第十二3×3二維卷積層、第十三3×3二維卷積層;11、解碼器包括第一igdn、第十四3×3二維卷積層、gie-am、第二igdn、第十五3×3二維卷積層、第三igdn、第十六3×3二維卷積層、第四igdn、第十七3×3二維卷積層、第十八3×3二維卷積層、第十九3×3二維卷積層、解碼多級域相似性增強模塊mdem;12、所述解碼多級域相似性增強模塊mdem包括解碼多通道信息提取模塊miem和解碼多級特征交互模塊mfim13、所述編碼多通道信息提取模塊miem包括第二十1×1二維卷積層、第二十一1×1二維卷積層、第二十二1×1二維卷積層;14、所述解碼多級特征交互模塊mfim包括第二3×3最大池化、第二3×3平均池化、softmax激活函數(shù)層;15、所述gdn代表廣義分裂歸一化函數(shù);所述igdn代表gdn的逆運算;16、步驟二、基于多級域相似性增強引導的遙感圖像壓縮網絡mdsnet對待測遙感圖像進行壓縮,得到壓縮后的待測遙感圖像。17、本發(fā)明的有益效果為:18、遙感圖像壓縮網絡旨在增強輸入圖像與重建圖像之間的相似性。遙感圖像中包含了豐富的通道特征和全局視覺特征,然而,目前的網絡并未將兩者高效結合。此外,本發(fā)明提出了一種多級域相似性概念,并充分探索如何通過增強這種前置性的多級域相似性來提高遙感圖像重建質量。因此,本發(fā)明提出了一種基于多級域相似性增強引導的遙感圖像壓縮網絡(multi-level?domain?similarity?enhancement-guided?remote?sensing?imagecompression?network,mdsnet)。首先,設計了一種針對遙感圖像的高效壓縮基線網絡(baselinea),通過合理地選擇卷積核尺寸以及分配通道數(shù),實現(xiàn)在低復雜度下的圖像壓縮。其次,構建了一種多級域相似性增強模塊(multi-level?domain?similarityenhancement?module,mdem),其通過增強前置性的多級域相似性來提高重建圖像質量。再次,構建了一種全局信息增強注意力模塊(global?information?enhanced?attentionmodule,gie-am),對通道特征和全局特征進行提取和增強。最后,整個網絡在采用提出的多級域相似性增強損失(multi-level?domain?similarity?enhancement?loss,mdem-loss)方法所重構的總體損失的指導下,進行高效的遙感圖像壓縮和重建工作。實驗結果表明,與一些先進的壓縮模型相比,提出的mdsnet方法,在多個壓縮評價指標上,都取得了更好的壓縮性能。19、本發(fā)明提出了一種基于多級域相似性增強引導的遙感圖像壓縮網絡(multi-level?domain?similarity?enhancement-guided?remote?sensing?image?compressionnetwork,mdsnet),其主要從增強前置的多級域相似性的角度,來增強原始遙感圖像和重建圖像之間(最高級別的域)整體的相似性,以全面提升遙感重建圖像質量。mdsnet主要從三個方面進行分析和優(yōu)化。方面一,遙感圖像壓縮網絡的本質是增強輸入圖像與重建圖像之間的相似性。本發(fā)明從提升前置的多級域相似性角度來提升最高級別域的相似性。(本發(fā)明中,我們將編碼器的壓縮過程和解碼器的重建過程分別視為多級壓縮和多級重建,并且將壓縮過程中的多級圖像和重建過程中的多級圖像看成兩個不同的域。本發(fā)明稱這種多個級別上的壓縮域和重建域之間的相似性為多級域相似性)。首先,本發(fā)明設計了一種多級特征交互模塊(multi-level?feature?interaction?module,mfim)和一種多通道信息提取模塊(multi-channel?information?extraction?module,miem),并采用兩者構成多級域相似性增強模塊(multi-level?domain?similarity?enhancement?module,mdem),從而實現(xiàn)多通道特征提取和多級特征的交互。其次,本發(fā)明提出了一種多級域相似性增強損失(multi-level?domain?similarity?enhancement?loss,mdem-loss)來重構網絡的目標函數(shù),從而來指導壓縮模型進行高質量的遙感圖像壓縮和重建工作。方面二,遙感圖像中包含豐富的全局信息和通道特征。如果忽視此類信息,模型可能喪失對地貌特征等重要上下文的理解,而目前的主流方法并沒有實現(xiàn)這兩種信息的高效提取和結合。在本發(fā)明中,首先設計了一種通道擠壓塊(channel?extrusionblock,ceb),以此對通道信息進行高效的增強。此外,本發(fā)明采用了相對應的多頭自注意力(multi-head?self-attention,mhsa),對全局信息進行高效的提取。最后,在這兩個模塊的基礎上,構建了一種全局信息增強注意力模塊(globalinformation?enhanced?attention?module,gie-am),以此增強對通道特征和全局特征的提取和結合。方面三,cnn有著其強大的特征提取能力[41][42]([41]ma?h,liu?d,xiong?r,etal.iwave:cnn-based?wavelet-like?transform?for?image?compression[j].ieeetransactions?on?multimedia,2019,22(7):1667-1679.[42]fu?c,du?b,zhang?l.sarimage?compression?based?on?multi-resblock?and?global?context[j].ieeegeoscience?and?remote?sensing?letters,2023,20:1-5.),研究人員通過調整卷積核的大小來控制感受野的范圍,從而調整網絡對提取高低頻信息的側重。然而,高質量的全局信息提取意味著更大卷積核的選取,這就會導致參數(shù)量的驟增。此外,常見網絡也未對圖像的數(shù)據分布進行有效分析和處理,即缺乏壓縮和重建過程中通道數(shù)和圖像尺寸的潛在關系研究。由此,本發(fā)明設計了一種高效的遙感圖像壓縮基線網絡(baselinea),其針對遙感圖像信息熵高、紋理信息豐富、高頻特征和低頻特征雜糅、相關性弱等特征,通過合理的卷積核尺寸選取和通道數(shù)的重新分配,在低復雜度的前提下,實現(xiàn)了高質量的圖像壓縮和重建工作。20、綜上,本發(fā)明基于提出的mfim、miem、mdem、mdem-loss、ceb、mhsa、gie-am和baselinea,構建了一種低復雜度、高性能的mdsnet。本發(fā)明在san?francisco[43]([43](https://resources.maxar.com/product-samples/analysis-ready-data-san-francisco-california)nwpu-resisc45[44]([44]cheng?g,han?j,lu?x.remote?sensingimage?scene?classification:benchmark?and?state?of?the?art[j].proceedings?ofthe?ieee,2017,105(10):1865-1883.)和uc-merced[45]([45]y.yang?and?s.newsam,“bag-of-visual-words?and?spatial?extensions?for?land-use?classification,”inacmsigspatial?international?conference?on?advances?in?geographic?informationsystems(acm?gis),2010.)等遙感圖像數(shù)據集上進行了大量實驗。實驗結果表明,相比于傳統(tǒng)的圖像壓縮方法jpeg2000[10]、bpg[12]和webp[13]、以及基于深度學習的圖像壓縮方法minnen?ta?al.[26]、minnen?et?al.(mean)[26]、balle?etal.(hyperprior)[27]、balle?etal.(factorized-relu)[27]、tong2023[46]([46]tong?k,wuy,li?y,et?al.qvrf:aquantization-error-aware?variable?rate?framework?for?learned?imagecompression[j].arxiv?preprint?arxiv:2303.05744,2023.),本發(fā)明提出的mdsnet在峰值信噪比(peak?signal-to-noise?ratio,psnr)、多尺度結構相似性指數(shù)度量(multiscalestructural?similarity?index?metric,ms-ssim)等評價指標上表現(xiàn)更為優(yōu)越。此外,本發(fā)明也通過多種消融實驗來驗證mfim、miem、mdem、mdem-loss、ceb、mhsa、gie-am和baselinea的有效性。21、本發(fā)明的主要貢獻如下:22、1)本發(fā)明提出了一種多級域相似性增強模塊(multi-level?domain?similarityenhancement?module,mdem),其包括了兩個核心組件mfim和miem,能夠實現(xiàn)多通道特征提取和多級特征的交互;此外,本發(fā)明提出了一種多級域相似性增強損失(multi-leveldomain?similarity?enhancement?loss,mdem-loss),用于重構整個網絡的目標函數(shù)。最終,通過這種前置的多級域之間相似性的增強來提升位于最高級別的域之間的相似性。23、2)本發(fā)明設計了一種全局信息增強注意力模塊(global?information?enhancedattention?module,gie-am),其核心組件主要包括通道擠壓塊(channel?extrusionblock,ceb)和多頭自注意力(multi-head?self-attention,mhsa),用以高效地增強對通道特征和全局特征的提取和有效融合。24、3)本發(fā)明設計了一種用于遙感圖像的高效壓縮基線網絡(baselinea)。該網絡考慮了遙感圖像高信息熵、豐富紋理、雜糅高頻特征和低頻特征以及弱相關性等特點,通過巧妙選擇卷積核尺寸和重新分配通道數(shù),實現(xiàn)在低復雜度下的卓越的壓縮性能。25、4)本發(fā)明將mfim、miem、mdem、mdem-loss、ceb、mhsa、gie-am和factorizedentropy?model有效嵌入到baselinea中,構建了一種低復雜度、高性能的多級域相似性增強引導的遙感圖像壓縮網絡(multi-level?domain?similarity?enhancement-guidedremote?sensing?image?compression?network,mdsnet)。通過在san?francisco、nwpu-resisc45和uc-merced上的大量實驗,充分證明了mdsnet對遙感圖像優(yōu)越的壓縮性能。當前第1頁12當前第1頁12
當前第1頁1 2 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1
永清县| 武山县| 康保县| 洪泽县| 陕西省| 顺义区| 海兴县| 大庆市| 丰城市| 山丹县| 静乐县| 镇远县| 绥江县| 铅山县| 达尔| 青州市| 易门县| 读书| 嘉荫县| 南和县| 辽中县| 商都县| 乾安县| 历史| 成都市| 南昌市| 温州市| 手机| 和静县| 丰顺县| 清水河县| 达孜县| 南涧| 咸宁市| 岫岩| 淳化县| 皮山县| 龙里县| 荣成市| 贡觉县| 泽州县|