蒙漢神經(jīng)機(jī)器翻譯中的未登錄詞處理研究
【文章頁數(shù)】:53 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1seq2seq模型
射為另外一個(gè)輸出序列。如下圖所示:圖2-1seq2seq模型在圖2-1中左邊部分是一個(gè)神經(jīng)網(wǎng)絡(luò),該神經(jīng)網(wǎng)絡(luò)會(huì)接收輸入序列“ABCEOS”,其中EOS表示句末標(biāo)記。在這個(gè)過程中每一個(gè)時(shí)間點(diǎn)接收一個(gè)詞或者字,并在讀取到EOS時(shí)終止接受輸入,最后將輸入序列壓縮成指....
圖2-3LSTM的隱層單元結(jié)構(gòu)圖
網(wǎng)絡(luò)一般都是全連接結(jié)構(gòu),并且每層之間的節(jié)點(diǎn)本可以通過使用神經(jīng)網(wǎng)絡(luò)來解決,但是普通的神列標(biāo)注這樣的非定長輸入。例如,要預(yù)測(cè)一個(gè)句前詞前面的單詞,因?yàn)樵谝粋(gè)句子中的前后單是有人提出了循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeur的信息并應(yīng)用于當(dāng)前輸出的計(jì)算當(dāng)中,即隱藏層層的輸入不僅包括當(dāng)....
圖2-4注意力機(jī)制示意圖
入句子長度的增加,基本的編碼器-解碼器題在基本的編碼器-解碼器結(jié)構(gòu)中引入了注目標(biāo)語言端的詞,往往只與源語言端部分詞,它在源語言句子中搜索與之相關(guān)的部分。的上下文向量和前面已生成的單詞,預(yù)測(cè)的編碼器-解碼器架構(gòu)首先使用雙向RNN作N組成。而解碼器主要根據(jù)輸入序列進(jìn)行翻,然后計(jì)....
圖2-5RNN網(wǎng)絡(luò)結(jié)構(gòu)
第二章神經(jīng)機(jī)器翻譯相關(guān)理論萬能的,也有一些不足,它的不足之處集中在以下兩點(diǎn):首先,由于RNN序列特性,導(dǎo)致其并行化的能力很低。從圖2-5可以看出,如果把RNN展開來看的,是一種序列型的網(wǎng)絡(luò),如果想得到的結(jié)果,必須得先計(jì)算出的結(jié),這樣的串行關(guān)系使它的并行度非常低。....
本文編號(hào):3950898
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/3950898.html