一種基于深度學(xué)習(xí)的腳本事件預(yù)測(cè)研究
發(fā)布時(shí)間:2023-02-12 18:59
理解文本中描述的事件對(duì)于許多人工智能(AI)應(yīng)用至關(guān)重要,例如話語(yǔ)理解,意圖識(shí)別和對(duì)話生成。其中腳本事件預(yù)測(cè)是這項(xiàng)工作中最具挑戰(zhàn)性的任務(wù)。腳本事件預(yù)測(cè)也可以叫做劇本事件預(yù)測(cè),這項(xiàng)任務(wù)是來(lái)自手工編碼任務(wù)的子任務(wù)。其中手工編碼任務(wù)起源于1970-80年代,最早是作為文本知識(shí)骨干而使用,讓推理和其他需要利用文本中深層語(yǔ)義知識(shí)信息的NLP任務(wù)成為了可能,如故事生成、對(duì)話理解、文本推測(cè)等任務(wù)提供了基礎(chǔ)。完成劇本事件預(yù)測(cè)的主要工作可以分為三部分:第一部分是從文本中依照規(guī)則抽取定義上的劇本事件;第二步是將劇本事件變成計(jì)算機(jī)可以理解的表達(dá)方式;第三部分是指定劇本事件預(yù)測(cè)模型和評(píng)估方法。細(xì)化成技術(shù)方面,完成劇本事件預(yù)測(cè)任務(wù)的主要步驟分為:數(shù)據(jù)清洗、依賴分析、實(shí)體分析、抽取事件、獲取事件鏈、構(gòu)建預(yù)測(cè)模型、評(píng)估模型,這七個(gè)部分。由于構(gòu)建預(yù)測(cè)模型的好壞、優(yōu)劣決定了整個(gè)流程是否能充分掌握文本中事件的語(yǔ)義信息,因此本文的工作重點(diǎn)在于第六部分構(gòu)建預(yù)測(cè)模型和第七部分評(píng)估模型這兩部分。本文的主要內(nèi)容是針對(duì)劇本事件預(yù)測(cè)任務(wù)中,事件預(yù)處理的事件表達(dá)這一環(huán)節(jié)進(jìn)行了更加深度的工作。主要貢獻(xiàn)是在事件的向量表示處理這一步,針對(duì)事件...
【文章頁(yè)數(shù)】:77 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
中文摘要
ABSTRACT
第一章 緒論
1.1 研究背景和意義
1.1.1 事件預(yù)測(cè)任務(wù)研究背景
1.1.2 劇本事件預(yù)測(cè)研究意義
1.2 研究現(xiàn)狀
1.2.1 國(guó)外研究歷史進(jìn)度
1.2.2 國(guó)內(nèi)研究發(fā)展現(xiàn)狀
1.3 本文工作與貢獻(xiàn)
1.4 論文結(jié)構(gòu)
第二章 事件預(yù)測(cè)相關(guān)算法研究
2.1 基于統(tǒng)計(jì)語(yǔ)言模型計(jì)算事件關(guān)系
2.1.1 語(yǔ)言規(guī)律
2.1.2 馬爾可夫模型
2.1.3 高階語(yǔ)言模型
2.2 NLP文本預(yù)處理與事件抽取
2.2.1 詞向量模型-Word2Vec
2.2.2 SG模型和CBOW模型
2.2.3 The Fake Task
2.2.4 模型詳細(xì)步驟
2.3 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
2.3.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
2.3.2 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)結(jié)構(gòu)
2.3.3 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BRNN)
2.3.4 Seq2Seq模型與注意力機(jī)制
2.4 本章小結(jié)
第三章 基于上下文事件向量的事件預(yù)測(cè)模型
3.1 問(wèn)題描述
3.1.1 腳本事件預(yù)測(cè)任務(wù)定義
3.1.2 問(wèn)題建模
3.2 模型的設(shè)計(jì)
3.2.1 編碼深層事件向量表征
3.2.3 事件時(shí)間序列建模
3.2.4 注意力機(jī)制建模
3.3 訓(xùn)練的結(jié)構(gòu)風(fēng)險(xiǎn)與評(píng)估標(biāo)準(zhǔn)
3.3.1 結(jié)構(gòu)風(fēng)險(xiǎn)的選擇
3.3.2 評(píng)估標(biāo)準(zhǔn)
3.4 本章小節(jié)
第四章 多模型實(shí)驗(yàn)過(guò)程對(duì)比
4.1 獲取實(shí)驗(yàn)數(shù)據(jù)
4.1.1 數(shù)據(jù)選擇與服務(wù)器環(huán)境
4.1.2 文本預(yù)處理
4.1.3 獲取事件鏈和候選事件
4.2 其他實(shí)驗(yàn)?zāi)P?br> 4.2.1 Chambers & Jurafsky 08模型
4.2.2 Bigram模型
4.2.3 LSTM和注意力機(jī)制模型
4.3 實(shí)驗(yàn)過(guò)程與評(píng)估
4.3.1 評(píng)估方法
4.3.2 實(shí)驗(yàn)處理過(guò)程
4.3.3 上下文事件向量生成
4.3.4 超參數(shù)設(shè)定
4.3.5 實(shí)驗(yàn)結(jié)果分析
4.3.6 實(shí)驗(yàn)結(jié)論
4.4 本章小結(jié)
第五章 總結(jié)與展望
5.1 本文總結(jié)
5.2 展望
參考文獻(xiàn)
致謝
在校期間科研成果、項(xiàng)目成果
本文編號(hào):3741645
【文章頁(yè)數(shù)】:77 頁(yè)
【學(xué)位級(jí)別】:碩士
【文章目錄】:
中文摘要
ABSTRACT
第一章 緒論
1.1 研究背景和意義
1.1.1 事件預(yù)測(cè)任務(wù)研究背景
1.1.2 劇本事件預(yù)測(cè)研究意義
1.2 研究現(xiàn)狀
1.2.1 國(guó)外研究歷史進(jìn)度
1.2.2 國(guó)內(nèi)研究發(fā)展現(xiàn)狀
1.3 本文工作與貢獻(xiàn)
1.4 論文結(jié)構(gòu)
第二章 事件預(yù)測(cè)相關(guān)算法研究
2.1 基于統(tǒng)計(jì)語(yǔ)言模型計(jì)算事件關(guān)系
2.1.1 語(yǔ)言規(guī)律
2.1.2 馬爾可夫模型
2.1.3 高階語(yǔ)言模型
2.2 NLP文本預(yù)處理與事件抽取
2.2.1 詞向量模型-Word2Vec
2.2.2 SG模型和CBOW模型
2.2.3 The Fake Task
2.2.4 模型詳細(xì)步驟
2.3 神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)
2.3.1 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)
2.3.2 長(zhǎng)短期記憶神經(jīng)網(wǎng)絡(luò)(LSTM)結(jié)構(gòu)
2.3.3 雙向循環(huán)神經(jīng)網(wǎng)絡(luò)(BRNN)
2.3.4 Seq2Seq模型與注意力機(jī)制
2.4 本章小結(jié)
第三章 基于上下文事件向量的事件預(yù)測(cè)模型
3.1 問(wèn)題描述
3.1.1 腳本事件預(yù)測(cè)任務(wù)定義
3.1.2 問(wèn)題建模
3.2 模型的設(shè)計(jì)
3.2.1 編碼深層事件向量表征
3.2.3 事件時(shí)間序列建模
3.2.4 注意力機(jī)制建模
3.3 訓(xùn)練的結(jié)構(gòu)風(fēng)險(xiǎn)與評(píng)估標(biāo)準(zhǔn)
3.3.1 結(jié)構(gòu)風(fēng)險(xiǎn)的選擇
3.3.2 評(píng)估標(biāo)準(zhǔn)
3.4 本章小節(jié)
第四章 多模型實(shí)驗(yàn)過(guò)程對(duì)比
4.1 獲取實(shí)驗(yàn)數(shù)據(jù)
4.1.1 數(shù)據(jù)選擇與服務(wù)器環(huán)境
4.1.2 文本預(yù)處理
4.1.3 獲取事件鏈和候選事件
4.2 其他實(shí)驗(yàn)?zāi)P?br> 4.2.1 Chambers & Jurafsky 08模型
4.2.2 Bigram模型
4.2.3 LSTM和注意力機(jī)制模型
4.3 實(shí)驗(yàn)過(guò)程與評(píng)估
4.3.1 評(píng)估方法
4.3.2 實(shí)驗(yàn)處理過(guò)程
4.3.3 上下文事件向量生成
4.3.4 超參數(shù)設(shè)定
4.3.5 實(shí)驗(yàn)結(jié)果分析
4.3.6 實(shí)驗(yàn)結(jié)論
4.4 本章小結(jié)
第五章 總結(jié)與展望
5.1 本文總結(jié)
5.2 展望
參考文獻(xiàn)
致謝
在校期間科研成果、項(xiàng)目成果
本文編號(hào):3741645
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3741645.html
最近更新
教材專著