天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

面向任務(wù)的深度學(xué)習(xí)圖像壓縮編碼技術(shù)

發(fā)布時(shí)間:2020-03-23 15:43
【摘要】:圖像壓縮是數(shù)據(jù)壓縮技術(shù)在數(shù)字圖像處理上的應(yīng)用,目的是減少圖像數(shù)據(jù)中的冗余信息,從而用更加高效的格式存儲(chǔ)和傳輸數(shù)據(jù)。近年來(lái),隨著深度學(xué)習(xí)的迅猛發(fā)展,基于深度學(xué)習(xí)圖像壓縮方法取得了較大突破,在圖像重建質(zhì)量上已經(jīng)超越傳統(tǒng)方法。與此同時(shí),深度學(xué)習(xí)在分類、分割、檢測(cè)等圖像理解任務(wù)上的出色表現(xiàn),使其被廣泛應(yīng)用在無(wú)人駕駛、安防監(jiān)控、社交媒體等場(chǎng)景。在此類場(chǎng)景下,經(jīng)過(guò)壓縮編碼的圖像,已不再局限于提供給人類觀看,很多情況下是通過(guò)計(jì)算機(jī)視覺(jué)方法自動(dòng)執(zhí)行圖像理解任務(wù)。這需要在圖像壓縮編碼框架優(yōu)化過(guò)程中,考慮如何在滿足觀看需求的同時(shí),提升解碼圖像在理解任務(wù)上的性能表現(xiàn)。本文針對(duì)上述需求,提出面向任務(wù)的深度學(xué)習(xí)圖像壓縮編碼框架。論文的主要?jiǎng)?chuàng)新如下:(1)設(shè)計(jì)改進(jìn)深度學(xué)習(xí)圖像壓縮編碼框架的網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練方法。使用殘差密集卷積模塊為基本特征提取模塊,通過(guò)設(shè)計(jì)緊湊表示網(wǎng)絡(luò)和多尺度重建網(wǎng)絡(luò),改進(jìn)網(wǎng)絡(luò)優(yōu)化方法,實(shí)現(xiàn)兼容傳統(tǒng)編碼器且支持端對(duì)端訓(xùn)練的深度學(xué)習(xí)圖像壓縮框架。提出基于特征全變分約束的深度學(xué)習(xí)壓縮性能優(yōu)化方法,以抑制緊湊表示網(wǎng)絡(luò)輸出特征中的噪聲,從而達(dá)到提高率失真性能的目的,實(shí)驗(yàn)結(jié)果表明,該方法圖像壓縮性能超越相應(yīng)的傳統(tǒng)編碼方法。(2)提出基于深層特征損失的面向任務(wù)壓縮方法,通過(guò)使用預(yù)訓(xùn)練的理解任務(wù)網(wǎng)絡(luò)對(duì)原始輸入和解碼圖片提取深層特征,并將深層特征的差異作為面向語(yǔ)義理解的損失項(xiàng),利用網(wǎng)絡(luò)訓(xùn)練減小重建圖像與原圖語(yǔ)義信息之間的差異。相比于僅以信號(hào)保真為目的壓縮解碼圖片,面向任務(wù)壓縮方法的解碼重建圖片能夠在常見(jiàn)圖像理解任務(wù)網(wǎng)絡(luò)上獲得更高的性能評(píng)價(jià)指標(biāo)。(3)提出基于空間注意力的面向任務(wù)壓縮優(yōu)化方法,通過(guò)為緊湊表示網(wǎng)絡(luò)增加空間權(quán)重圖分支,使之能夠?qū)W習(xí)原始圖像在預(yù)訓(xùn)練分類網(wǎng)絡(luò)的多類激活圖,得到圖像語(yǔ)義信息的空間權(quán)重,并在訓(xùn)練過(guò)程中用該權(quán)重圖對(duì)特征全變分約束加權(quán),從而實(shí)現(xiàn)更精細(xì)的噪聲抑制和語(yǔ)義信息保留。實(shí)驗(yàn)表明,通過(guò)該方法進(jìn)行面向任務(wù)壓縮時(shí),能獲得更好的壓縮率與任務(wù)性能。
【圖文】:

框架圖,重要性,框架


概率分布進(jìn)行更準(zhǔn)確的建模。Theis 等[10]提出了一種基于卷積自編碼網(wǎng)絡(luò)(CAE)的圖像有損壓縮方法,將輸入圖像通過(guò)編碼網(wǎng)絡(luò)得到小尺寸浮點(diǎn)數(shù)特征圖,然后對(duì)矩陣使用逐點(diǎn)的取整函數(shù)進(jìn)行舍入取整操作,從而達(dá)到數(shù)據(jù)降維、壓縮的目的,不可導(dǎo)的取整函數(shù)在反向傳播過(guò)程中使用平滑近似來(lái)實(shí)現(xiàn)梯度反傳,重建時(shí)通過(guò)解碼網(wǎng)絡(luò)來(lái)還原圖像的像素信息。文章使用 GSM(Gaussian scale mixtures)來(lái)估計(jì)和控制熵率,在結(jié)合圖像重建損失的基礎(chǔ)上,實(shí)現(xiàn)對(duì)率失真的聯(lián)合優(yōu)化。Rippel 等[11]使用金字塔分解的特征提取結(jié)構(gòu),自適應(yīng)的碼長(zhǎng)約束,和多尺度的對(duì)抗訓(xùn)練,實(shí)現(xiàn)具有實(shí)時(shí)性的深度學(xué)習(xí)圖像壓縮,并且在 MS-SSIM 指標(biāo)上超越了之前的深度學(xué)習(xí)壓縮方法,以及傳統(tǒng)壓縮方法中效果最好的 BPG 編解碼器。Li 等[12]提出了基于圖像內(nèi)容加權(quán)的圖像壓縮技術(shù),通過(guò)引入重要性圖概念,用注意力機(jī)制區(qū)分圖像不同內(nèi)容的重要性程度,根據(jù)重要性分配編碼比特?cái)?shù),,并在自編碼器網(wǎng)絡(luò)結(jié)構(gòu)的基礎(chǔ)上,通過(guò)重要性圖來(lái)實(shí)現(xiàn)碼率控制。此外文章還提出基于卷積的熵編碼器,能夠得到比基于上下文的自適應(yīng)二進(jìn)制算術(shù)編碼(CABAC)更加有效的編碼表示,在壓縮性能上達(dá)到了先進(jìn)水平。

框架圖,壓縮編碼,編碼器,框架


抗網(wǎng)絡(luò)(GAN)在極低比特率情況下生成解碼圖片中的紋理細(xì)節(jié),從而達(dá)到更好的視覺(jué)效果。這種方法還支持通過(guò)語(yǔ)義分割標(biāo)簽選取圖像中的某些需要保留更多原始圖像真實(shí)信息的語(yǔ)義標(biāo)簽類別,從而將壓縮比特?cái)?shù)更多地分配給擁有這些類別標(biāo)簽的區(qū)域,對(duì)其他區(qū)域使用條件生成對(duì)抗網(wǎng)絡(luò)進(jìn)行合成,使極低比特率壓縮圖片主觀評(píng)價(jià)得到較大的提升。哈爾濱工業(yè)大學(xué)姜峰等[15]提出卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)方法圖像編解碼器(如JPEG)結(jié)合的端到端圖像編解碼框架,將圖片通過(guò)卷積網(wǎng)絡(luò)降采樣去除空間冗余信息后得到圖像的緊湊表示,使用傳統(tǒng)編碼器進(jìn)行編碼,以達(dá)到圖像壓縮的目的,在解碼時(shí)先使用傳統(tǒng)編解碼器還原得到小尺寸圖片,并進(jìn)一步通過(guò)解碼網(wǎng)絡(luò)進(jìn)行超分辨和去除壓縮效應(yīng)以得到高質(zhì)量的輸出圖片。該方法在重建圖像質(zhì)量上能夠超過(guò)傳統(tǒng)編碼器,以及當(dāng)時(shí)主流的圖像去噪和超分辨網(wǎng)絡(luò)。Zhao 等[16]在本文思想的基礎(chǔ)上進(jìn)行了網(wǎng)絡(luò)結(jié)構(gòu)和訓(xùn)練策略的優(yōu)化,設(shè)計(jì)了虛擬圖像編解碼網(wǎng)絡(luò)(VCNN),能夠模擬經(jīng)過(guò)不可導(dǎo)的傳統(tǒng)編碼器(例如 JPEG)和后處理網(wǎng)絡(luò)(PPNN)的輸出結(jié)果,用于實(shí)現(xiàn)反向傳播優(yōu)化特征描述網(wǎng)絡(luò)(FDNN),該方法進(jìn)一步提升了此類編解碼框架的性能。
【學(xué)位授予單位】:哈爾濱工業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:TP18;TN919.81

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 蔣亞軍,朱理;小波變換在圖像壓縮編碼中的應(yīng)用[J];零陵學(xué)院學(xué)報(bào);2004年11期

2 馬華;圖像壓縮編碼[J];自動(dòng)化博覽;1995年06期

3 徐署華;陳鷗;;一種基于JPEG的MPCC方法[J];電子技術(shù)應(yīng)用;2007年05期

4 孫洪;圖像壓縮編碼技術(shù)及無(wú)損壓縮方法的探討[J];新疆教育學(xué)院學(xué)報(bào);2004年02期

5 張家謀;數(shù)字圖像壓縮編碼[J];電視字幕(特技與動(dòng)畫);1997年04期

6 戰(zhàn)紅;;圖像壓縮編碼技術(shù)的發(fā)展歷程及應(yīng)用前景[J];視聽(tīng);2013年07期

7 鄭忠霞;孫卓敬;;關(guān)于圖像壓縮編碼的研究[J];科技傳播;2010年13期

8 盧榮華,李娟,柳炳祥,熊國(guó)萍;圖像壓縮編碼在陶瓷中的應(yīng)用[J];中國(guó)陶瓷;2005年04期

9 余波;簡(jiǎn)煒;陳建勛;孫希平;;基于正交多項(xiàng)式分段擬合的圖像壓縮編碼方法[J];微計(jì)算機(jī)應(yīng)用;2007年12期

10 李援朝;圖像壓縮編碼技術(shù)及其發(fā)展[J];現(xiàn)代通信;2002年11期

相關(guān)會(huì)議論文 前8條

1 伍宗文;王欲曉;陳雪軍;;漸進(jìn)圖像壓縮編碼技術(shù)的應(yīng)用研究[A];中國(guó)通信學(xué)會(huì)第五屆學(xué)術(shù)年會(huì)論文集[C];2008年

2 徐林;邱敏華;高昌淑;邵謙明;;一種基于小波變換的圖像壓縮編碼方法[A];現(xiàn)代通信理論與信號(hào)處理進(jìn)展——2003年通信理論與信號(hào)處理年會(huì)論文集[C];2003年

3 孟憲偉;晏磊;;圖像壓縮編碼方法綜述[A];2006中國(guó)科協(xié)年會(huì)——數(shù)字成像技術(shù)及影像材料科學(xué)學(xué)術(shù)交流會(huì)論文集[C];2006年

4 孟憲偉;晏磊;;圖像壓縮編碼方法綜述[A];提高全民科學(xué)素質(zhì)、建設(shè)創(chuàng)新型國(guó)家——2006中國(guó)科協(xié)年會(huì)論文集(下冊(cè))[C];2006年

5 郎彥昆;鄒建成;;基于壓縮感知和稀疏編碼的數(shù)字圖像壓縮編碼[A];第九屆中國(guó)通信學(xué)會(huì)學(xué)術(shù)年會(huì)論文集[C];2012年

6 王琴;袁嗣杰;;H.264圖像壓縮編碼技術(shù)在綜合信息傳輸平臺(tái)中的應(yīng)用[A];全國(guó)第二屆嵌入式技術(shù)聯(lián)合學(xué)術(shù)會(huì)議論文集[C];2007年

7 王利平;陳錢;張毅;張保民;;二維DCT微光圖像壓縮編碼研究[A];大珩先生九十華誕文集暨中國(guó)光學(xué)學(xué)會(huì)2004年學(xué)術(shù)大會(huì)論文集[C];2004年

8 朱虹;趙建民;;新一代圖像壓縮編碼標(biāo)準(zhǔn)——JPEG 2000[A];計(jì)算機(jī)與教育——全國(guó)計(jì)算機(jī)輔助教育學(xué)會(huì)第十一屆學(xué)術(shù)年會(huì)論文集[C];2003年

相關(guān)重要報(bào)紙文章 前1條

1 重慶 鐘靖;圖片要“瘦身”,還要清晰[N];電腦報(bào);2003年

相關(guān)博士學(xué)位論文 前2條

1 呂沛;基于壓縮感知理論的水下成像技術(shù)和圖像壓縮編碼技術(shù)研究[D];中國(guó)科學(xué)院研究生院(西安光學(xué)精密機(jī)械研究所);2012年

2 魏卓;含GPU環(huán)境高清視頻圖像處理算法研究與實(shí)現(xiàn)[D];華中科技大學(xué);2011年

相關(guān)碩士學(xué)位論文 前10條

1 李晨光;面向任務(wù)的深度學(xué)習(xí)圖像壓縮編碼技術(shù)[D];哈爾濱工業(yè)大學(xué);2019年

2 文東旭;基于多帶小波變換的彩色圖像壓縮編碼[D];湖南師范大學(xué);2019年

3 白兆峰;基于GPU的JPEG2000圖像壓縮編碼技術(shù)的研究[D];中國(guó)科學(xué)院大學(xué)(中國(guó)科學(xué)院西安光學(xué)精密機(jī)械研究所);2016年

4 蔣亞軍;小波變換在圖像壓縮編碼中的應(yīng)用[D];湖南大學(xué);2005年

5 吳林;小波變換在圖像壓縮編碼中的應(yīng)用研究[D];大連理工大學(xué);2001年

6 康江波;基于小波的圖像壓縮編碼及其在人臉識(shí)別中的應(yīng)用[D];西北工業(yè)大學(xué);2004年

7 劉茵;基于小波變換的圖像壓縮編碼研究[D];西安科技大學(xué);2011年

8 張?jiān)獋?靜態(tài)圖像壓縮編碼的研究與實(shí)現(xiàn)[D];太原理工大學(xué);2010年

9 胡康韜;星載圖像壓縮編碼系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[D];西安電子科技大學(xué);2013年

10 李明彬;基于GPU的圖像壓縮編碼技術(shù)[D];吉林大學(xué);2009年



本文編號(hào):2596936

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2596936.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶35ac7***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com