基于深度學習的多模態(tài)智能問答技術(shù)研究
【文章頁數(shù)】:70 頁
【學位級別】:碩士
【部分圖文】:
圖2-1激活函數(shù)sigmoid和tanh的圖像對比
第二章多模態(tài)智能問答基礎(chǔ)還有一種類似的函數(shù)是雙曲正切(tanh)函數(shù),其定義如下:tanh(x)=exexex+ex.(2-4)事實上,tanh函數(shù)與sigmoid函數(shù)之間有著緊密的關(guān)系。如果我們把sigmoid函數(shù)放大并平移,就能得到tanh函數(shù):tanh(x)=2σ(2x)1....
圖2-2ReLU函數(shù)的圖像
電子科技大學碩士學位論文圖2-2ReLU函數(shù)的圖像。2.1.2前饋神經(jīng)網(wǎng)絡(luò)前饋神經(jīng)網(wǎng)絡(luò),亦稱多層感知器(MultilayerPerceptron,MLP),誕生時間最早,結(jié)構(gòu)也比較簡單,它的神經(jīng)元之間不構(gòu)成環(huán),與循環(huán)神經(jīng)網(wǎng)絡(luò)相區(qū)分。前饋神經(jīng)網(wǎng)絡(luò)中,信息單向傳播,從輸入結(jié)點出發(fā),經(jīng)....
圖2-3ILSVRC競賽歷代冠軍模型的錯誤率和層數(shù)比較
電子科技大學碩士學位論文圖2-3ILSVRC競賽歷代冠軍模型的錯誤率和層數(shù)比較。假設(shè)對堆疊的層使用一個殘差映射比直接映射要更容易,即圖2-4所示的殘差塊(residualblock)。ResNet的完整架構(gòu)和VGG19等網(wǎng)絡(luò)的對比如圖2-5所示。實驗圖2-4一個殘差塊的圖示[49....
圖2-4一個殘差塊的圖示[49]
電子科技大學碩士學位論文圖2-3ILSVRC競賽歷代冠軍模型的錯誤率和層數(shù)比較。假設(shè)對堆疊的層使用一個殘差映射比直接映射要更容易,即圖2-4所示的殘差塊(residualblock)。ResNet的完整架構(gòu)和VGG19等網(wǎng)絡(luò)的對比如圖2-5所示。實驗圖2-4一個殘差塊的圖示[49....
本文編號:3893587
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3893587.html