基于風格遷移的對抗樣本防御方法研究
發(fā)布時間:2024-01-16 19:38
近年來,作為機器學習非常重要的一個分支,深度學習技術(shù)在國內(nèi)外得到了迅速的發(fā)展和廣泛的關(guān)注,其實際應用也越來越廣,比如圖像分類、目標檢測、自動駕駛技術(shù)等。但是,最近的研究表明,基于深度學習的圖像識別系統(tǒng)容易受到惡意的攻擊,攻擊者可以通過在圖像上添加人類難以察覺的修改后,迫使深度學習模型對圖像進行錯誤分類。添加擾動后的圖像被稱為對抗樣本。為了提高圖像識別模型的可靠性,迫切需要對對抗樣本防御進行研究。目前,許多研究人員試圖通過研究對抗樣本防御來增強圖像分類模型的魯棒性,魯棒性已經(jīng)成為保證深度學習模型可靠性的關(guān)鍵特性。然而,目前防御方法的研究主要集中在改進分類模型上,防御效果有限,防御能力不夠完備。本文研究了在輸入圖像分類系統(tǒng)之前,通過轉(zhuǎn)換輸入來提高模型魯棒性,以此抵御對抗性攻擊。本文首先對已提出的形狀輪廓偏好的魯棒的圖像分類模型進行實驗探究,發(fā)現(xiàn)其對抗魯棒性不足,甚至完全失去對抗樣本防御能力。本文在此基礎(chǔ)上,通過實驗提出了基于風格遷移的對抗樣本防御方法,并對防御模型進行了設(shè)計與實現(xiàn),通過實驗確定了模型參數(shù)。其次,使用FGSM、BIM、PGD、MIM等四種常見的攻擊算法對模型進行攻擊生成對抗樣...
【文章頁數(shù)】:70 頁
【學位級別】:碩士
本文編號:3879106
【文章頁數(shù)】:70 頁
【學位級別】:碩士
本文編號:3879106
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3879106.html
最近更新
教材專著