篇章級神經機器翻譯模型改進研究
發(fā)布時間:2024-04-25 00:30
近年來,深度學習技術獲得了快速發(fā)展,機器翻譯領域中的相關研究也不斷深入。其中,前幾年出現的基于注意力機制的編碼器-解碼器神經機器翻譯框架,在效果上徹底超越了傳統(tǒng)的統(tǒng)計機器翻譯框架。而最新的Transformer框架,更是將神經機器翻譯的效果提升到了新的臺階。由于受到訓練方法的限制,這些先進的框架在翻譯的過程當中都是將句子作為一個整體來考慮的,而在實際的翻譯過程中,我們面對的文本往往是由多個句子組成的語篇。由于語篇的獨立特性,這些句子層級的模型在語篇翻譯的任務上的譯文往往會缺乏連貫性和銜接性。因此本文的目標就是提出一個篇章級的改進框架,提升神經機器翻譯模型在語篇翻譯任務上的效果。本文的工作借鑒了當今前沿的神經機器翻譯模型跨句研究,結合了兩種研究思路的特點,提出了基于緩存模型的篇章級神經機器翻譯改進模型。我們的模型以編碼器-解碼器框架為基礎,將語篇作為一個整體來考慮,在每個句子翻譯步驟之間使用一個緩存模型來記憶源端文本的歷史編碼器狀態(tài)。除語篇首句翻譯之外,我們都使用一個多頭注意力網絡和門控結構,將緩存中的歷史編碼器狀態(tài)作為上下文信息引入當前步驟的解碼器當中,以提升翻譯效果。另外,改進模型中...
【文章頁數】:75 頁
【學位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景和意義
1.2 相關研究綜述
1.2.1 深度學習研究綜述
1.2.2 循環(huán)神經網絡
1.2.3 機器翻譯技術的發(fā)展
1.2.4 神經機器翻譯中的跨句建模研究
1.3 本文研究內容
1.4 本文的組織結構
第二章 基于緩存模型的篇章級NMT改進模型
2.1 整體思路
2.1.1 目標問題
2.1.2 改進工作
2.2 篇章級NMT模型基本結構
2.3 NMT模型中的上下文信息引入方法
2.4 NMT模型中的篇章級數據構造與迭代方法
第三章 結合序列標注方法的跨句緩存模型
3.1 整體思路
3.2 緩存模型的結構與工作機制
3.3 基于雙向LSTM的篇章結構標注模型
3.3.1 篇章結構標注語料準備
3.3.2 序列標注網絡和邏輯斯蒂回歸模型的聯(lián)合訓練方法
第四章 實驗結果與分析
4.1 篇章結構標注模型實驗與結果分析
4.1.1 數據集說明
4.1.2 實驗詳細設置
4.1.3 實驗結果與分析
4.2 篇章級NMT模型實驗與結果分析
4.2.1 數據集說明
4.2.2 實驗詳細設置
4.2.3 實驗結果與分析
4.2.4 結果展示
第五章 總結與展望
5.1 總結
5.2 未來研究方向
參考文獻
致謝
本文編號:3963732
【文章頁數】:75 頁
【學位級別】:碩士
【文章目錄】:
摘要
Abstract
第一章 緒論
1.1 研究背景和意義
1.2 相關研究綜述
1.2.1 深度學習研究綜述
1.2.2 循環(huán)神經網絡
1.2.3 機器翻譯技術的發(fā)展
1.2.4 神經機器翻譯中的跨句建模研究
1.3 本文研究內容
1.4 本文的組織結構
第二章 基于緩存模型的篇章級NMT改進模型
2.1 整體思路
2.1.1 目標問題
2.1.2 改進工作
2.2 篇章級NMT模型基本結構
2.3 NMT模型中的上下文信息引入方法
2.4 NMT模型中的篇章級數據構造與迭代方法
第三章 結合序列標注方法的跨句緩存模型
3.1 整體思路
3.2 緩存模型的結構與工作機制
3.3 基于雙向LSTM的篇章結構標注模型
3.3.1 篇章結構標注語料準備
3.3.2 序列標注網絡和邏輯斯蒂回歸模型的聯(lián)合訓練方法
第四章 實驗結果與分析
4.1 篇章結構標注模型實驗與結果分析
4.1.1 數據集說明
4.1.2 實驗詳細設置
4.1.3 實驗結果與分析
4.2 篇章級NMT模型實驗與結果分析
4.2.1 數據集說明
4.2.2 實驗詳細設置
4.2.3 實驗結果與分析
4.2.4 結果展示
第五章 總結與展望
5.1 總結
5.2 未來研究方向
參考文獻
致謝
本文編號:3963732
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/3963732.html
教材專著