電子顯微鏡下暗場(chǎng)原子圖片的重建和識(shí)別
發(fā)布時(shí)間:2021-01-19 07:32
在材料科學(xué)領(lǐng)域,暗場(chǎng)原子圖像的成像質(zhì)量非常重要,是材料科學(xué)家作為科研成果的重要可視化依據(jù)。當(dāng)材料科學(xué)家需要證明自己所研制的某種材料具有優(yōu)良的均勻性時(shí),獲取這種材料表面的原子的排列和分布就成為了必不可少的條件,而只有足夠清晰的暗場(chǎng)原子圖像和足夠準(zhǔn)確的原子中心坐標(biāo)及半徑大小,才能作為材料科學(xué)家計(jì)算的暗場(chǎng)原子排列及分布充分而有力的證據(jù)。近些年來(lái),隨著深度學(xué)習(xí)技術(shù)的發(fā)展,圖像處理和識(shí)別技術(shù)逐漸應(yīng)用到越來(lái)越多的領(lǐng)域當(dāng)中,特別是在材料影像、醫(yī)學(xué)圖像、衛(wèi)星地圖、安防領(lǐng)域等方面發(fā)揮著重要作用。利用掃描透射電子顯微鏡獲取的暗場(chǎng)原子圖像由于實(shí)驗(yàn)環(huán)境、材料質(zhì)量和系統(tǒng)自身成像質(zhì)量等問(wèn)題,難以滿足材料科學(xué)領(lǐng)域研究學(xué)者的科研需求。而傳統(tǒng)的圖像處理手段無(wú)法有效的提高暗場(chǎng)原子圖像的信噪比、改善圖像質(zhì)量和對(duì)圖像內(nèi)容進(jìn)行識(shí)別分析研究,因此利用深度學(xué)習(xí)技術(shù)對(duì)暗場(chǎng)原子圖像進(jìn)行重建和識(shí)別成為了解決圖像質(zhì)量問(wèn)題的新手段。本文主要解決了兩方面問(wèn)題,分別是暗場(chǎng)原子圖像重建和識(shí)別。一、在重建方面,針對(duì)提升暗場(chǎng)原子圖像成像質(zhì)量的問(wèn)題,本文提出了基于生成式對(duì)抗網(wǎng)絡(luò)的暗場(chǎng)原子圖像重建模型,針對(duì)生成式對(duì)抗網(wǎng)絡(luò)難訓(xùn)練的問(wèn)題,首先設(shè)計(jì)了零中心推土...
【文章來(lái)源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-2深度信念網(wǎng)絡(luò)[18]??同受限玻爾茲曼機(jī)一樣,深度信念網(wǎng)絡(luò)的每個(gè)潛變量都是二值的,而每個(gè)可??
3.變分自編碼器??介紹變分自編碼器(Variationa丨auto-encoder,?VAE)?[19]之前首先對(duì)自編碼器??進(jìn)行簡(jiǎn)要的介紹。自編碼器的結(jié)構(gòu)如圖2-3所示。通過(guò)對(duì)輸入的x進(jìn)行編碼的到??低維向量的特征z,再利用解碼器從z解壓重構(gòu)出;c',使其更接近輸入變量;c。自??編碼器在編碼過(guò)程中選擇性的拋棄榮譽(yù)數(shù)據(jù),將盡可能多的有效潛變量包含到編??碼中,解碼器則需要從這些編碼中盡可能的學(xué)習(xí)重構(gòu)輸入圖像。??x'l?x'2?x'3??(旮)-Decoder??眷(I?卜?Encoder??Xl?X2?x3??圖2-3自編碼器結(jié)構(gòu)圖[19]??然而自編碼器由于自身將輸入轉(zhuǎn)換為編碼的過(guò)程中表達(dá)并不是連續(xù)的,因此??除了在降噪這類場(chǎng)景以外,應(yīng)用并不多。而變分自編碼器則不同,它的隱空間被??設(shè)計(jì)為連續(xù)的分布,使他能夠進(jìn)行隨機(jī)采樣和插值,因此在生成模型領(lǐng)域效果卓??著。變分自編碼器中編碼器輸出不再是n維編碼潛變量,而是兩個(gè)n維矢量,一??個(gè)是均值矢量//
中———一/??7?9??(|?Z??圖2-4簡(jiǎn)化變分自編碼器??如圖2-4所示,我們只能觀測(cè)到數(shù)據(jù)X,想要推斷z就需要計(jì)算p(z|x:),利用??分布做近似,其中z服從分布(?〇)利用KL散度計(jì)算兩個(gè)分布的差值公式??如下:??D[Q(z)\\P(z\X)]?=?Ex^[logQdx)-logP(ix\X)]?(2-5)??因此變分自編碼器的損失函數(shù)寫(xiě)為公式2-6,其中第一部分表示重構(gòu)損失,??用期望值表達(dá)從分布里的采樣,第二部分為相對(duì)熵,即P〇|;〇與的散度值。??L(0,0;x,z)?=?EP(p(zM[logQe(x\z)]?-?DKL(PHzm\\Q(z))?(2-6)??2.3圖像識(shí)別理論基礎(chǔ)??2.3.1卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展??LeCun于1998年提出了?LeNet[M]網(wǎng)絡(luò),從此推動(dòng)深度學(xué)習(xí)領(lǐng)域飛速發(fā)展。??LeNet5網(wǎng)絡(luò)首次實(shí)現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)局部連接、下采樣、權(quán)值共享等特性,在降??低了網(wǎng)絡(luò)參數(shù)量的同時(shí)提高了模型的性能
本文編號(hào):2986597
【文章來(lái)源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:73 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-2深度信念網(wǎng)絡(luò)[18]??同受限玻爾茲曼機(jī)一樣,深度信念網(wǎng)絡(luò)的每個(gè)潛變量都是二值的,而每個(gè)可??
3.變分自編碼器??介紹變分自編碼器(Variationa丨auto-encoder,?VAE)?[19]之前首先對(duì)自編碼器??進(jìn)行簡(jiǎn)要的介紹。自編碼器的結(jié)構(gòu)如圖2-3所示。通過(guò)對(duì)輸入的x進(jìn)行編碼的到??低維向量的特征z,再利用解碼器從z解壓重構(gòu)出;c',使其更接近輸入變量;c。自??編碼器在編碼過(guò)程中選擇性的拋棄榮譽(yù)數(shù)據(jù),將盡可能多的有效潛變量包含到編??碼中,解碼器則需要從這些編碼中盡可能的學(xué)習(xí)重構(gòu)輸入圖像。??x'l?x'2?x'3??(旮)-Decoder??眷(I?卜?Encoder??Xl?X2?x3??圖2-3自編碼器結(jié)構(gòu)圖[19]??然而自編碼器由于自身將輸入轉(zhuǎn)換為編碼的過(guò)程中表達(dá)并不是連續(xù)的,因此??除了在降噪這類場(chǎng)景以外,應(yīng)用并不多。而變分自編碼器則不同,它的隱空間被??設(shè)計(jì)為連續(xù)的分布,使他能夠進(jìn)行隨機(jī)采樣和插值,因此在生成模型領(lǐng)域效果卓??著。變分自編碼器中編碼器輸出不再是n維編碼潛變量,而是兩個(gè)n維矢量,一??個(gè)是均值矢量//
中———一/??7?9??(|?Z??圖2-4簡(jiǎn)化變分自編碼器??如圖2-4所示,我們只能觀測(cè)到數(shù)據(jù)X,想要推斷z就需要計(jì)算p(z|x:),利用??分布做近似,其中z服從分布(?〇)利用KL散度計(jì)算兩個(gè)分布的差值公式??如下:??D[Q(z)\\P(z\X)]?=?Ex^[logQdx)-logP(ix\X)]?(2-5)??因此變分自編碼器的損失函數(shù)寫(xiě)為公式2-6,其中第一部分表示重構(gòu)損失,??用期望值表達(dá)從分布里的采樣,第二部分為相對(duì)熵,即P〇|;〇與的散度值。??L(0,0;x,z)?=?EP(p(zM[logQe(x\z)]?-?DKL(PHzm\\Q(z))?(2-6)??2.3圖像識(shí)別理論基礎(chǔ)??2.3.1卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展??LeCun于1998年提出了?LeNet[M]網(wǎng)絡(luò),從此推動(dòng)深度學(xué)習(xí)領(lǐng)域飛速發(fā)展。??LeNet5網(wǎng)絡(luò)首次實(shí)現(xiàn)了卷積神經(jīng)網(wǎng)絡(luò)局部連接、下采樣、權(quán)值共享等特性,在降??低了網(wǎng)絡(luò)參數(shù)量的同時(shí)提高了模型的性能
本文編號(hào):2986597
本文鏈接:http://www.sikaile.net/kejilunwen/dianzigongchenglunwen/2986597.html
最近更新
教材專著