面向初等數(shù)學應用題自動解答的核心技術(shù)研究與應用
【文章頁數(shù)】:78 頁
【學位級別】:碩士
【部分圖文】:
圖2-1框架表示法的一般表示形式
電子科技大學碩士學位論文現(xiàn),且很難解決。2)由于組織原則的缺乏,因此知識庫很難管理。3)過程以及啟發(fā)式的知識都很難表示。4)推理過程和表示的內(nèi)容是分離的,這導致處理的過程加長且效率框架表示法理學專家在研究中發(fā)現(xiàn),在人類的日常理解與思維活動中,對于遇處理,都是依賴于過去的經(jīng)驗與積累....
圖2-2LSTM原理示意圖
神經(jīng)網(wǎng)絡簡稱LSTM[26],是為了解決RNN長期依賴問經(jīng)網(wǎng)絡,LSTM在RNN的基礎上融入了“門”的概念思維過程,LSTM在RNN隱藏層中加入一個信息處理僅僅包含RNN中簡單的tanh函數(shù),還多了幾個sig每個隱藏層單元之間是連續(xù)的狀態(tài),LSTM也....
圖2-3谷歌神經(jīng)網(wǎng)絡機器翻譯模型結(jié)構(gòu)
圖2-3谷歌神經(jīng)網(wǎng)絡機器翻譯模型結(jié)構(gòu)GNMT模型的左側(cè)是處理輸入序列的編碼網(wǎng)絡,右側(cè)是生成翻譯結(jié)果的解碼網(wǎng)絡,中間是Attention模塊,左側(cè)編碼網(wǎng)絡的底層是雙向?qū),其他層是單向(qū)。在這個雙向?qū)又,?jié)點之間從箭頭方向判斷是從左到右傳遞信息還是從右到左傳遞信息,為了加速....
圖2-4GNMT中的LSTM
圖2-4GNMT中的LSTM在翻譯模型中,翻譯輸出的某些單詞所需的信息可能出現(xiàn)在源端的任何位置,在源端,信息通常是從左到右傳遞,但是表示信息的詞語可能會在輸入端的某些地方被分割,為了在編碼網(wǎng)絡的每個節(jié)點中具有最佳可能的上下文,GNMT中的編碼模塊使用雙向RNN,為了實....
本文編號:3945044
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3945044.html