基于深度學習的在線醫(yī)療咨詢文本命名實體識別
【文章頁數(shù)】:80 頁
【學位級別】:碩士
【部分圖文】:
圖2-1神經(jīng)網(wǎng)絡的典型結構
圖2-1神經(jīng)網(wǎng)絡的典型結構示了一個三層的前饋全連接神經(jīng)網(wǎng)絡,可以看到,一個神經(jīng)的神經(jīng)元沒有連接,而層與層之間的神經(jīng)元存在著連接。其,該層主要負責接收輸入的數(shù)據(jù);中間的層一般叫隱藏層;該層輸出的值即為神經(jīng)網(wǎng)絡的輸出值。當隱藏層數(shù)比較多時經(jīng)網(wǎng)絡,我們常說的深度學習,指的就是使用深....
圖2-2sigmoid函數(shù)的示意圖
第二章深度學習相關技術介紹moid函數(shù),其形式如公式(2-2)所示:()=11+ 函數(shù)在坐標軸上的圖形如圖2-2所示。可以看到其輸出范圍為征的優(yōu)點,但是sigmoid函數(shù)容易產生梯度消失的問題,并
圖2-3tanh函數(shù)的示意圖
圖2-2sigmoid函數(shù)的示意圖h函數(shù),其形式如公式(2-3)所示:()=+ 在坐標軸上的圖形如圖2-3所示?梢钥吹狡漭敵龇秶鸀閇,但是tanh函數(shù)同樣存在梯度消失和計算代價大的問題。
圖2-4relu函數(shù)的示意圖
華南理工大學碩士學位論文()=,>00,≤0 在坐標軸上的圖形如圖2-4所示?梢钥吹疆敗0時,relu輸出x本身。relu函數(shù)相對sigmoid函數(shù)和tanh函數(shù),具有計算度消失問題的優(yōu)點,但是relu函數(shù)會產生神經(jīng)元死亡的現(xiàn)象....
本文編號:3950021
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3950021.html