融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)
【文章頁數(shù)】:69 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-2卷積運算
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)12后還需添加偏置則可以得到輸出矩陣。圖2-2卷積運算2.2.3激勵層激勵層的作用可以理解為對卷積層的輸出結(jié)果做一次非線性映射。其實激勵函數(shù)就相當(dāng)于f(x)=x,而當(dāng)神經(jīng)網(wǎng)絡(luò)缺少激勵函數(shù),每一層的輸出都是上一層輸入的線性函數(shù)。分析可知,無論有多少神經(jīng)網(wǎng)....
圖2-3激勵函數(shù)
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)12后還需添加偏置則可以得到輸出矩陣。圖2-2卷積運算2.2.3激勵層激勵層的作用可以理解為對卷積層的輸出結(jié)果做一次非線性映射。其實激勵函數(shù)就相當(dāng)于f(x)=x,而當(dāng)神經(jīng)網(wǎng)絡(luò)缺少激勵函數(shù),每一層的輸出都是上一層輸入的線性函數(shù)。分析可知,無論有多少神經(jīng)網(wǎng)....
圖2-4最大池化
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)132.2.4池化層池化(Pooling),也稱為欠采樣或下采樣,其作用是用于各個特征圖的降維,同時還能保留大部分重要信息。連續(xù)的卷積層中穿插著池化層,它不僅可以壓縮模型的參數(shù)數(shù)量,還可以防止過擬合,同時提高模型的容錯性。最為常用的方法有:最大池化(M....
圖2-5全連接層
融合張量結(jié)構(gòu)壓縮深度神經(jīng)網(wǎng)絡(luò)14最后可能出現(xiàn)過擬合,為了避免出現(xiàn)過擬合引入Dropout操作,通過隨機刪除神經(jīng)網(wǎng)絡(luò)中的部分神經(jīng)元來解決問題。還可以利用局部歸一化(LRN)、數(shù)據(jù)增強等操作,來加強模型的魯棒性,提高模型的整體性能。全連接層可以整合卷積層和池化層中具有類別區(qū)分性的局部....
本文編號:3903558
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3903558.html