基于改進(jìn)殘差網(wǎng)絡(luò)對(duì)心電信號(hào)的識(shí)別
【文章頁數(shù)】:11 頁
【部分圖文】:
圖1空洞卷積示意圖
空洞卷積(Dilatedconvolution)[13]的應(yīng)用能夠使模型在擁有相同性能的情況下使用更少的參量,在保持局部視野不變的條件下,獲得全局視野。圖1顯示了3×3卷積核在不同空洞率(Dilatedrate)下的感受視野,Dilatedrate是用來控制感受視野的卷積步....
圖2本文提出的網(wǎng)絡(luò)結(jié)構(gòu)
為了提供準(zhǔn)確可靠的心電信號(hào)多分類解決方案,可以通過加深網(wǎng)絡(luò)來提取更多的特征。但是隨著網(wǎng)絡(luò)的加深,網(wǎng)絡(luò)會(huì)出現(xiàn)退化問題。本文提出了一種基于改進(jìn)的殘差網(wǎng)絡(luò)(Modifieddilatedresidualnetwork,MDRN)模型,結(jié)構(gòu)如圖2所示。模型建立在卷積操作之上,通過融....
圖3殘差塊
圖2本文提出的網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)的殘差塊(A):本文將圖3(a)中殘差塊A第1個(gè)卷積層中的傳統(tǒng)卷積替換為空洞卷積,Dilatedrate設(shè)置為2。批標(biāo)準(zhǔn)化(Batchnormalization,BN)層[15]和Relu非線性激活函數(shù)。因?yàn)槟P褪褂每斩淳矸e替換了傳統(tǒng)卷積,所以在殘....
圖44種激活函數(shù)示意圖
常見的激活函數(shù)[16]有:Relu,Elu,Sigmoid和Tanh,其分別定義如式(1)—(4)所示,示意圖如圖4所示。本文選擇Relu非線性激活函數(shù),可以使模型能夠更好地?cái)M合,并且Glorot等[17]也證明了使用Relu的網(wǎng)絡(luò)性能優(yōu)于預(yù)處理網(wǎng)絡(luò)。另外,為了解決殘差塊輸入輸出....
本文編號(hào):3921786
本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/3921786.html