自監(jiān)督生成對(duì)抗網(wǎng)絡(luò)優(yōu)化
發(fā)布時(shí)間:2021-04-13 12:08
自2014年被提出以來(lái),GAN在圖像生成、圖像風(fēng)格轉(zhuǎn)換、圖像缺失補(bǔ)全等計(jì)算機(jī)視覺(jué)相關(guān)領(lǐng)域,以及語(yǔ)音合成、自然語(yǔ)言處理等領(lǐng)域都取得了很好的結(jié)果。但是,GAN的訓(xùn)練存在諸多困難,如梯度消失,模式崩潰,判別器遺忘分類(lèi)邊界等。目前主要是通過(guò)CGAN生成自然圖像,通過(guò)加入約束條件控制GAN的生成,這種模型的主要不足是需要標(biāo)記數(shù)據(jù),然而對(duì)數(shù)據(jù)進(jìn)行標(biāo)注需要耗費(fèi)大量的人力和物力,這是十分困難的,甚至有時(shí)是不可行的。針對(duì)這個(gè)問(wèn)題,本文引入自監(jiān)督GAN的思想,它結(jié)合了兩種流行的無(wú)監(jiān)督學(xué)習(xí)技術(shù),即對(duì)抗訓(xùn)練和自監(jiān)督學(xué)習(xí),拉近了無(wú)監(jiān)督學(xué)習(xí)和監(jiān)督學(xué)習(xí)之間的差距。但在自監(jiān)督GAN中對(duì)于生成圖像的旋轉(zhuǎn),對(duì)抗損失和旋轉(zhuǎn)損失是對(duì)抗的,這樣會(huì)導(dǎo)致生成器的質(zhì)量對(duì)判別器影響略大,因此,本文對(duì)自監(jiān)督GAN的生成器損失函數(shù)進(jìn)行了優(yōu)化,進(jìn)一步加強(qiáng)了GAN訓(xùn)練的穩(wěn)定性。又由于自監(jiān)督GAN訓(xùn)練初期生成圖像的質(zhì)量較差,此時(shí)對(duì)圖像進(jìn)行旋轉(zhuǎn),提取特征進(jìn)行檢測(cè),得到的結(jié)果差強(qiáng)人意。因此,本文提出對(duì)自監(jiān)督GAN進(jìn)行預(yù)處理,通過(guò)實(shí)驗(yàn)證明了本文提出的模型生成的圖像更加逼真。通過(guò)對(duì)自監(jiān)督GAN進(jìn)行優(yōu)化,在一定程度上緩解了判別器遺忘分類(lèi)邊界的問(wèn)題,降低了...
【文章來(lái)源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:56 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
GAN的計(jì)算流程和結(jié)構(gòu)圖
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文-7-第2章生成對(duì)抗網(wǎng)絡(luò)模型本章主要介紹典型GAN模型的原理,以及GAN模型中生成器和判別器應(yīng)用的神經(jīng)網(wǎng)絡(luò)和對(duì)GAN進(jìn)行優(yōu)化時(shí)采用的深度學(xué)習(xí)方法。首先介紹了典型GAN模型對(duì)原始GAN做出的改進(jìn)。其次為了在生成器和判別器中更好地使用神經(jīng)網(wǎng)絡(luò),先介紹了神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,接著對(duì)本文GAN采用的兩種神經(jīng)網(wǎng)絡(luò)模型——全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行了論述,并對(duì)深度學(xué)習(xí)中的激活函數(shù)和優(yōu)化算法進(jìn)行了概述,以及分析它們的優(yōu)缺點(diǎn),為在本文GAN模型中對(duì)它們更好地進(jìn)行選擇使用。2.1典型GAN模型原始GAN模型中包含了兩個(gè)互相對(duì)抗的網(wǎng)絡(luò):生成器網(wǎng)絡(luò)(Generator)與判別器網(wǎng)絡(luò)(Discriminator)。圖2-1GAN訓(xùn)練流程圖在GAN模型中,生成器G接收輸入的隨機(jī)噪聲向量z并輸出生成數(shù)據(jù)G(z),同時(shí)判別器D需要判斷輸入的數(shù)據(jù)中,哪些來(lái)自真實(shí)的數(shù)據(jù)分布,哪些來(lái)自生成的數(shù)據(jù)分布。生成器的目的是使得判別器D無(wú)法判別輸入樣本的真假,而判別器的目的是能夠準(zhǔn)確地判斷輸入樣本的真假。在模型訓(xùn)練的過(guò)程中兩者通過(guò)更新自
提出。CGAN在原始GAN的基礎(chǔ)上增加了約束條件,解決了GAN太過(guò)自由的問(wèn)題,促使網(wǎng)絡(luò)朝著既定的方向生成樣本。CGAN的生成器和判別器的輸入均多了一個(gè)約束項(xiàng)y,約束項(xiàng)y可以是一個(gè)圖像的類(lèi)別標(biāo)簽,也可以是圖像的部分語(yǔ)義特征,甚至也可以是一個(gè)圖像。CGAN的目標(biāo)函數(shù)如下:)))|((1log()|(log),()(~)(~GVEyxDDyzGEDdatazGxPzxP(2-2)CGAN可以根據(jù)條件變量y生成指定的數(shù)據(jù),如圖2-2所示,然而CGAN只是為了生成指定的圖像而增加了額外的約束,在很大程度上緩解了GAN生成樣本過(guò)于自由的問(wèn)題,但是GAN訓(xùn)練不穩(wěn)定的問(wèn)題依然存在。圖2-2CGAN生成的MNIST數(shù)字(2)DCGAN[16]。DCGAN的提出對(duì)GAN的發(fā)展具有巨大的歷史性意義,它對(duì)GAN的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了擴(kuò)展,它將GAN中的生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)用兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)。同時(shí),DCGAN在訓(xùn)練過(guò)程中使用了一系列的訓(xùn)練技巧,如使用批量歸一化穩(wěn)定訓(xùn)練,使用ReLU激活函數(shù)降低梯度消失風(fēng)險(xiǎn),同時(shí)取消了池化層,使用步幅卷積和微步幅卷積有效地保留了特征信息。DCGAN雖然能生成多樣
【參考文獻(xiàn)】:
期刊論文
[1]生成對(duì)抗網(wǎng)絡(luò)GAN綜述[J]. 梁俊杰,韋艦晶,蔣正鋒. 計(jì)算機(jī)科學(xué)與探索. 2020(01)
[2]人工智能研究的新前線:生成式對(duì)抗網(wǎng)絡(luò)[J]. 林懿倫,戴星原,李力,王曉,王飛躍. 自動(dòng)化學(xué)報(bào). 2018(05)
碩士論文
[1]基于多任務(wù)學(xué)習(xí)的腫瘤醫(yī)學(xué)影像語(yǔ)義分割與分類(lèi)研究[D]. 鄒致超.哈爾濱工業(yè)大學(xué) 2019
[2]基于生成對(duì)抗網(wǎng)絡(luò)的手寫(xiě)體漢字生成[D]. 張藝穎.華東師范大學(xué) 2019
本文編號(hào):3135268
【文章來(lái)源】:哈爾濱工業(yè)大學(xué)黑龍江省 211工程院校 985工程院校
【文章頁(yè)數(shù)】:56 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
GAN的計(jì)算流程和結(jié)構(gòu)圖
哈爾濱工業(yè)大學(xué)工程碩士學(xué)位論文-7-第2章生成對(duì)抗網(wǎng)絡(luò)模型本章主要介紹典型GAN模型的原理,以及GAN模型中生成器和判別器應(yīng)用的神經(jīng)網(wǎng)絡(luò)和對(duì)GAN進(jìn)行優(yōu)化時(shí)采用的深度學(xué)習(xí)方法。首先介紹了典型GAN模型對(duì)原始GAN做出的改進(jìn)。其次為了在生成器和判別器中更好地使用神經(jīng)網(wǎng)絡(luò),先介紹了神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程,接著對(duì)本文GAN采用的兩種神經(jīng)網(wǎng)絡(luò)模型——全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行了論述,并對(duì)深度學(xué)習(xí)中的激活函數(shù)和優(yōu)化算法進(jìn)行了概述,以及分析它們的優(yōu)缺點(diǎn),為在本文GAN模型中對(duì)它們更好地進(jìn)行選擇使用。2.1典型GAN模型原始GAN模型中包含了兩個(gè)互相對(duì)抗的網(wǎng)絡(luò):生成器網(wǎng)絡(luò)(Generator)與判別器網(wǎng)絡(luò)(Discriminator)。圖2-1GAN訓(xùn)練流程圖在GAN模型中,生成器G接收輸入的隨機(jī)噪聲向量z并輸出生成數(shù)據(jù)G(z),同時(shí)判別器D需要判斷輸入的數(shù)據(jù)中,哪些來(lái)自真實(shí)的數(shù)據(jù)分布,哪些來(lái)自生成的數(shù)據(jù)分布。生成器的目的是使得判別器D無(wú)法判別輸入樣本的真假,而判別器的目的是能夠準(zhǔn)確地判斷輸入樣本的真假。在模型訓(xùn)練的過(guò)程中兩者通過(guò)更新自
提出。CGAN在原始GAN的基礎(chǔ)上增加了約束條件,解決了GAN太過(guò)自由的問(wèn)題,促使網(wǎng)絡(luò)朝著既定的方向生成樣本。CGAN的生成器和判別器的輸入均多了一個(gè)約束項(xiàng)y,約束項(xiàng)y可以是一個(gè)圖像的類(lèi)別標(biāo)簽,也可以是圖像的部分語(yǔ)義特征,甚至也可以是一個(gè)圖像。CGAN的目標(biāo)函數(shù)如下:)))|((1log()|(log),()(~)(~GVEyxDDyzGEDdatazGxPzxP(2-2)CGAN可以根據(jù)條件變量y生成指定的數(shù)據(jù),如圖2-2所示,然而CGAN只是為了生成指定的圖像而增加了額外的約束,在很大程度上緩解了GAN生成樣本過(guò)于自由的問(wèn)題,但是GAN訓(xùn)練不穩(wěn)定的問(wèn)題依然存在。圖2-2CGAN生成的MNIST數(shù)字(2)DCGAN[16]。DCGAN的提出對(duì)GAN的發(fā)展具有巨大的歷史性意義,它對(duì)GAN的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了擴(kuò)展,它將GAN中的生成網(wǎng)絡(luò)和判別網(wǎng)絡(luò)用兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)。同時(shí),DCGAN在訓(xùn)練過(guò)程中使用了一系列的訓(xùn)練技巧,如使用批量歸一化穩(wěn)定訓(xùn)練,使用ReLU激活函數(shù)降低梯度消失風(fēng)險(xiǎn),同時(shí)取消了池化層,使用步幅卷積和微步幅卷積有效地保留了特征信息。DCGAN雖然能生成多樣
【參考文獻(xiàn)】:
期刊論文
[1]生成對(duì)抗網(wǎng)絡(luò)GAN綜述[J]. 梁俊杰,韋艦晶,蔣正鋒. 計(jì)算機(jī)科學(xué)與探索. 2020(01)
[2]人工智能研究的新前線:生成式對(duì)抗網(wǎng)絡(luò)[J]. 林懿倫,戴星原,李力,王曉,王飛躍. 自動(dòng)化學(xué)報(bào). 2018(05)
碩士論文
[1]基于多任務(wù)學(xué)習(xí)的腫瘤醫(yī)學(xué)影像語(yǔ)義分割與分類(lèi)研究[D]. 鄒致超.哈爾濱工業(yè)大學(xué) 2019
[2]基于生成對(duì)抗網(wǎng)絡(luò)的手寫(xiě)體漢字生成[D]. 張藝穎.華東師范大學(xué) 2019
本文編號(hào):3135268
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3135268.html
最近更新
教材專(zhuān)著