基于深度學(xué)習(xí)的圖像風(fēng)格化方法研究
發(fā)布時間:2020-12-26 19:51
在高科技世界中,深度學(xué)習(xí)以不同的方式用于實現(xiàn)特定主題中的特定目標(biāo)。圖像風(fēng)格轉(zhuǎn)換是計算機視覺中的一個熱門研究領(lǐng)域。圖像風(fēng)格轉(zhuǎn)換技術(shù)是學(xué)習(xí)內(nèi)容圖像特征和風(fēng)格圖像特征之間的語義關(guān)系,然后將內(nèi)容特征和風(fēng)格特征進行空間重組。在圖像風(fēng)格化領(lǐng)域,基于深度學(xué)習(xí)的圖像風(fēng)格化研究引起了越來越多的科研工作者們的注意。圖像風(fēng)格化研究的發(fā)展給大眾的生活帶來了很多的樂趣和便利,涉及生活,工作等多方面。圖像風(fēng)格化是一種藝術(shù)表現(xiàn)形式,因為其輸入輸出都是圖片,再現(xiàn)了藝術(shù)家們的繪畫手法,生成具有可觀賞性的藝術(shù)作品。本文受到Dumoulin等人提出的CIN風(fēng)格轉(zhuǎn)換模型的啟發(fā),提出了新的風(fēng)格化模型。第一,本文提出引入直方圖匹配層的圖像風(fēng)格化生成模型。將深度學(xué)習(xí)和直方圖匹配相結(jié)合,旨在提供一種能實時進行圖像樣式轉(zhuǎn)換的方法,無需將風(fēng)格圖固定在模型中。不受預(yù)定義樣式集的限制,能適應(yīng)更多的風(fēng)格圖像。直方圖匹配是指將內(nèi)容圖像特征的直方圖和風(fēng)格圖像特征的直方圖進行匹配,使內(nèi)容圖像表現(xiàn)出與風(fēng)格圖像相同的風(fēng)格特征。與基于CIN的風(fēng)格模型相比,實驗結(jié)果證實本文的方法能適應(yīng)更多的風(fēng)格圖像,生成的圖片質(zhì)量比基于CIN的模型更好。第二,本文在提出基...
【文章來源】:西北師范大學(xué)甘肅省
【文章頁數(shù)】:58 頁
【學(xué)位級別】:碩士
【部分圖文】:
藝術(shù)作品展示圖
第1章緒論3交過程中,人們總喜歡把自己的圖片做多樣式的變換,讓自己拍的照片也能像藝術(shù)家的畫作一樣,具有美感和藝術(shù)性,然后發(fā)在社交網(wǎng)站供大家欣賞,點贊。所以基于廣大人們的這種需求,就應(yīng)運而生了很多的美顏相機,和短視頻APP,如輕顏相機,美拍相機,抖音,火山小視頻,快手等。其中,人們把自己的圖片和各種藝術(shù)圖片在手機電腦上進行藝術(shù)化融合的過程,也可稱其為圖像風(fēng)格化。所以,圖像的風(fēng)格化技術(shù)在人們的社交生活中有著一定的地位,也滿足了很多人的愛美之心。圖像風(fēng)格化技術(shù),讓人們的生活充滿了更多的趣味。也給很多人的工作帶來了便利。對于做電影制作,廣告設(shè)計等方面工作的人來說,圖像風(fēng)格化技術(shù)可以將各種樣式的圖像和需要進行藝術(shù)化操作的圖像進行融合,形成各種各樣的大場面[7]。就不用再耗費大量的人力和資金去專門設(shè)計。而且現(xiàn)有的圖像風(fēng)格化技術(shù)都是實時的,響應(yīng)速度很快。一張圖片能勝過千言萬語,它不僅包涵了非常多的樣式信息,也展現(xiàn)了創(chuàng)作者們對于生活的理解和熱愛,創(chuàng)作者們在藝術(shù)作品的創(chuàng)作中傾注了很多的情感。所以圖像風(fēng)格化技術(shù)的發(fā)展也會讓人們更加重視藝術(shù)的發(fā)展,尊重歷史。以下是基于深度學(xué)習(xí)的圖像風(fēng)格化模型合成的圖片展示。圖1-2風(fēng)格化圖片展示圖1.2國內(nèi)外研究現(xiàn)狀從LeonGatys提出來使用深度卷積網(wǎng)絡(luò)來實現(xiàn)圖像的樣式化轉(zhuǎn)移之后,慢慢的就出現(xiàn)很多基于此方法的改進算法,來實現(xiàn)各種不同風(fēng)格圖像的遷移,取得了很好的效果。國內(nèi)一些學(xué)者也積極在圖像風(fēng)格化領(lǐng)域提出了自己獨特的想法。文獻[8]主要是古代山水花鳥畫的樣式轉(zhuǎn)換,將古代繪畫作品變換成逼真的自然圖像。提出了一種
西北師范大學(xué)碩士學(xué)位論文8等)。2、RELU:該層與卷積層一起使用。在這一層,將激活函數(shù)應(yīng)用于特征圖,RELU的目的是增加圖像的非線性。這是去除圖像中多余部分,以便更好的提取特征圖的過程。3、池化層:池化層減小了輸入特征圖的空間大小,從而減少了網(wǎng)絡(luò)中的參數(shù)和計算量。這樣可以縮短訓(xùn)練時間并預(yù)防過度擬合。圖2-1是以VGG_16網(wǎng)絡(luò)結(jié)構(gòu)為例的一個卷積神經(jīng)網(wǎng)絡(luò)示意圖。圖2-1VGG_16網(wǎng)絡(luò)結(jié)構(gòu)圖CNN特征提取流程總結(jié)如下:1、卷積神經(jīng)網(wǎng)絡(luò)的淺層負(fù)責(zé)檢測圖像的線條、邊緣、亮度變化和其他簡單特征。2、將信息傳遞到下一層,下一層結(jié)合簡單功能以構(gòu)建可以識別簡單形狀的檢測器。3、第二步在接下來的層中繼續(xù)進行,每一層變得越來越抽象。更深的層將能夠提取高級特征,例如圖像的形狀或特定對象。4、網(wǎng)絡(luò)的最后一層將整合所有的特征,生成圖像。并產(chǎn)生分類預(yù)測。5、將預(yù)測值與正確的輸出進行比較,如果分類錯誤,則會產(chǎn)生較大的誤差。并使學(xué)習(xí)過程反向傳播以對參數(shù)進行更改,以給出更準(zhǔn)確的結(jié)果。6、網(wǎng)絡(luò)不斷地來回修正,直到達到滿意的輸出(誤差最小化)。卷積神經(jīng)網(wǎng)絡(luò)淺層提取的特征如圖2-2所示:
【參考文獻】:
期刊論文
[1]生成對抗網(wǎng)絡(luò)在計算機視覺領(lǐng)域中的應(yīng)用研究[J]. 高偉,郭永峰,徐德衡. 價值工程. 2019(22)
[2]生成式對抗網(wǎng)絡(luò)及其計算機視覺應(yīng)用研究綜述[J]. 曹仰杰,賈麗麗,陳永霞,林楠,李學(xué)相. 中國圖象圖形學(xué)報. 2018(10)
[3]多尺度融合dropout優(yōu)化算法[J]. 鐘忺,陳恩曉,羅瑞奇,盧炎生. 華中科技大學(xué)學(xué)報(自然科學(xué)版). 2018(09)
[4]基于深度學(xué)習(xí)的圖像風(fēng)格遷移技術(shù)的前沿進展[J]. 丁曉龍. 電子制作. 2018(18)
[5]基于生成對抗網(wǎng)絡(luò)的漫畫草稿圖簡化[J]. 盧倩雯,陶青川,趙婭琳,劉蔓霄. 自動化學(xué)報. 2018(05)
[6]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計算機學(xué)報. 2017(06)
[7]圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J]. 常亮,鄧小明,周明全,武仲科,袁野,楊碩,王宏安. 自動化學(xué)報. 2016(09)
[8]深度卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
[9]半監(jiān)督學(xué)習(xí)方法[J]. 劉建偉,劉媛,羅雄麟. 計算機學(xué)報. 2015(08)
碩士論文
[1]基于生成式對抗網(wǎng)絡(luò)的圖像風(fēng)格遷移方法研究[D]. 陳光啟.北京郵電大學(xué) 2019
[2]基于深度學(xué)習(xí)的圖像風(fēng)格藝術(shù)化[D]. 喬麗莎.西安理工大學(xué) 2018
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別[D]. 蔣帥.吉林大學(xué) 2017
本文編號:2940364
【文章來源】:西北師范大學(xué)甘肅省
【文章頁數(shù)】:58 頁
【學(xué)位級別】:碩士
【部分圖文】:
藝術(shù)作品展示圖
第1章緒論3交過程中,人們總喜歡把自己的圖片做多樣式的變換,讓自己拍的照片也能像藝術(shù)家的畫作一樣,具有美感和藝術(shù)性,然后發(fā)在社交網(wǎng)站供大家欣賞,點贊。所以基于廣大人們的這種需求,就應(yīng)運而生了很多的美顏相機,和短視頻APP,如輕顏相機,美拍相機,抖音,火山小視頻,快手等。其中,人們把自己的圖片和各種藝術(shù)圖片在手機電腦上進行藝術(shù)化融合的過程,也可稱其為圖像風(fēng)格化。所以,圖像的風(fēng)格化技術(shù)在人們的社交生活中有著一定的地位,也滿足了很多人的愛美之心。圖像風(fēng)格化技術(shù),讓人們的生活充滿了更多的趣味。也給很多人的工作帶來了便利。對于做電影制作,廣告設(shè)計等方面工作的人來說,圖像風(fēng)格化技術(shù)可以將各種樣式的圖像和需要進行藝術(shù)化操作的圖像進行融合,形成各種各樣的大場面[7]。就不用再耗費大量的人力和資金去專門設(shè)計。而且現(xiàn)有的圖像風(fēng)格化技術(shù)都是實時的,響應(yīng)速度很快。一張圖片能勝過千言萬語,它不僅包涵了非常多的樣式信息,也展現(xiàn)了創(chuàng)作者們對于生活的理解和熱愛,創(chuàng)作者們在藝術(shù)作品的創(chuàng)作中傾注了很多的情感。所以圖像風(fēng)格化技術(shù)的發(fā)展也會讓人們更加重視藝術(shù)的發(fā)展,尊重歷史。以下是基于深度學(xué)習(xí)的圖像風(fēng)格化模型合成的圖片展示。圖1-2風(fēng)格化圖片展示圖1.2國內(nèi)外研究現(xiàn)狀從LeonGatys提出來使用深度卷積網(wǎng)絡(luò)來實現(xiàn)圖像的樣式化轉(zhuǎn)移之后,慢慢的就出現(xiàn)很多基于此方法的改進算法,來實現(xiàn)各種不同風(fēng)格圖像的遷移,取得了很好的效果。國內(nèi)一些學(xué)者也積極在圖像風(fēng)格化領(lǐng)域提出了自己獨特的想法。文獻[8]主要是古代山水花鳥畫的樣式轉(zhuǎn)換,將古代繪畫作品變換成逼真的自然圖像。提出了一種
西北師范大學(xué)碩士學(xué)位論文8等)。2、RELU:該層與卷積層一起使用。在這一層,將激活函數(shù)應(yīng)用于特征圖,RELU的目的是增加圖像的非線性。這是去除圖像中多余部分,以便更好的提取特征圖的過程。3、池化層:池化層減小了輸入特征圖的空間大小,從而減少了網(wǎng)絡(luò)中的參數(shù)和計算量。這樣可以縮短訓(xùn)練時間并預(yù)防過度擬合。圖2-1是以VGG_16網(wǎng)絡(luò)結(jié)構(gòu)為例的一個卷積神經(jīng)網(wǎng)絡(luò)示意圖。圖2-1VGG_16網(wǎng)絡(luò)結(jié)構(gòu)圖CNN特征提取流程總結(jié)如下:1、卷積神經(jīng)網(wǎng)絡(luò)的淺層負(fù)責(zé)檢測圖像的線條、邊緣、亮度變化和其他簡單特征。2、將信息傳遞到下一層,下一層結(jié)合簡單功能以構(gòu)建可以識別簡單形狀的檢測器。3、第二步在接下來的層中繼續(xù)進行,每一層變得越來越抽象。更深的層將能夠提取高級特征,例如圖像的形狀或特定對象。4、網(wǎng)絡(luò)的最后一層將整合所有的特征,生成圖像。并產(chǎn)生分類預(yù)測。5、將預(yù)測值與正確的輸出進行比較,如果分類錯誤,則會產(chǎn)生較大的誤差。并使學(xué)習(xí)過程反向傳播以對參數(shù)進行更改,以給出更準(zhǔn)確的結(jié)果。6、網(wǎng)絡(luò)不斷地來回修正,直到達到滿意的輸出(誤差最小化)。卷積神經(jīng)網(wǎng)絡(luò)淺層提取的特征如圖2-2所示:
【參考文獻】:
期刊論文
[1]生成對抗網(wǎng)絡(luò)在計算機視覺領(lǐng)域中的應(yīng)用研究[J]. 高偉,郭永峰,徐德衡. 價值工程. 2019(22)
[2]生成式對抗網(wǎng)絡(luò)及其計算機視覺應(yīng)用研究綜述[J]. 曹仰杰,賈麗麗,陳永霞,林楠,李學(xué)相. 中國圖象圖形學(xué)報. 2018(10)
[3]多尺度融合dropout優(yōu)化算法[J]. 鐘忺,陳恩曉,羅瑞奇,盧炎生. 華中科技大學(xué)學(xué)報(自然科學(xué)版). 2018(09)
[4]基于深度學(xué)習(xí)的圖像風(fēng)格遷移技術(shù)的前沿進展[J]. 丁曉龍. 電子制作. 2018(18)
[5]基于生成對抗網(wǎng)絡(luò)的漫畫草稿圖簡化[J]. 盧倩雯,陶青川,趙婭琳,劉蔓霄. 自動化學(xué)報. 2018(05)
[6]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍. 計算機學(xué)報. 2017(06)
[7]圖像理解中的卷積神經(jīng)網(wǎng)絡(luò)[J]. 常亮,鄧小明,周明全,武仲科,袁野,楊碩,王宏安. 自動化學(xué)報. 2016(09)
[8]深度卷積神經(jīng)網(wǎng)絡(luò)在計算機視覺中的應(yīng)用研究綜述[J]. 盧宏濤,張秦川. 數(shù)據(jù)采集與處理. 2016(01)
[9]半監(jiān)督學(xué)習(xí)方法[J]. 劉建偉,劉媛,羅雄麟. 計算機學(xué)報. 2015(08)
碩士論文
[1]基于生成式對抗網(wǎng)絡(luò)的圖像風(fēng)格遷移方法研究[D]. 陳光啟.北京郵電大學(xué) 2019
[2]基于深度學(xué)習(xí)的圖像風(fēng)格藝術(shù)化[D]. 喬麗莎.西安理工大學(xué) 2018
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識別[D]. 蔣帥.吉林大學(xué) 2017
本文編號:2940364
本文鏈接:http://www.sikaile.net/shoufeilunwen/xixikjs/2940364.html
最近更新
教材專著