基于深度學(xué)習(xí)的傾斜攝影測量點云建筑物語義與實例聯(lián)合分割
【文章頁數(shù)】:61 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2.1線性變換示意圖
?橐換?BatchNormalization)幾個基本單元構(gòu)成。2.1.1基本線性變換函數(shù)“張量”(Tensor)一詞是WoldemarVoigt于1899年提出,用于描述矢量、標(biāo)量和其他多維數(shù)組之間的線性關(guān)系的多線性函數(shù)。在物理學(xué)和傳統(tǒng)數(shù)學(xué)中把張量看作是一個多維數(shù)組,當(dāng)變換坐標(biāo)....
圖2.2二維卷積計算示意圖
2卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)9iiiyfwxb=+(2.1)其中=1,2,3,一般將多個神經(jīng)元及其權(quán)重組成的結(jié)構(gòu)稱為隱藏層,當(dāng)隱藏層中的多個神經(jīng)元為線性函數(shù)時稱為線性變換,即卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的全連接層。而多層感知器(MLP)就是由多個“隱藏層+激活函數(shù)(+批歸一化)”模塊所搭建的一....
圖2.3池化層示意圖
西安科技大學(xué)非全日制工程碩士論文10征圖的個數(shù)。利用卷積進行訓(xùn)練,得到卷積核的權(quán)重就是其本質(zhì)目標(biāo),但在第一次計算時,權(quán)重是不能為空的,所以在訓(xùn)練之初往往需要給予網(wǎng)絡(luò)一個初始化的權(quán)重。2.1.3池化層池化層通常位于卷積層之后,主要功能是簡化卷積層輸出的信息、降低特征圖的維度和減少后....
圖2.4常見激活函數(shù)示意圖
2卷積神經(jīng)網(wǎng)絡(luò)基礎(chǔ)11圖2.4常見激活函數(shù)示意圖其中=∑ω+。sigmoid、tanh和ReLU的函數(shù)圖像如圖2.4所示。研究表明,與ReLU相比,sigmoid和tanh具有收斂速度慢和梯度消失等缺點,而ReLU函數(shù)能有效解決復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)梯度消失問題[47]。因此,本文所構(gòu)建的....
本文編號:3907312
本文鏈接:http://www.sikaile.net/shoufeilunwen/benkebiyelunwen/3907312.html