基于表示學(xué)習(xí)的事件抽取方法研究
發(fā)布時間:2021-01-07 01:45
事件抽取任務(wù)旨在從給定的自然語言文本中抽取出指定類型的事件信息,并形成結(jié)構(gòu)化表達(dá),有助于自動文摘、自然語言生成等任務(wù)。由于在復(fù)雜的自然文本中獲取事件語義信息困難,事件抽取是一個具有挑戰(zhàn)的任務(wù)。本文主要從表示學(xué)習(xí)層面對事件抽取任務(wù)展開深入研究,主要研究內(nèi)容包括以下三個方面:(1)目前,大多數(shù)事件觸發(fā)詞抽取方法專注于捕獲序列中的長距離和局部信息,忽略了論元對觸發(fā)詞抽取的影響。針對這個問題,本文提出了一種基于論元序列表示的事件觸發(fā)詞抽取方法。首先,根據(jù)事件類型的分布概率篩選出候選論元,并利用基于注意力機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)能捕獲序列中重要線索的特點(diǎn),提取序列中對觸發(fā)詞抽取貢獻(xiàn)最大的候選論元;其次,結(jié)合該候選論元和利用雙向長短時記憶網(wǎng)絡(luò)模型獲得觸發(fā)詞的上下文表示來抽取觸發(fā)詞。在ACE2005上的實(shí)驗(yàn)結(jié)果表明,該方法降低了噪聲實(shí)體對事件觸發(fā)詞抽取的干擾,取得了與目前最優(yōu)觸發(fā)詞抽取系統(tǒng)相當(dāng)?shù)男阅。?)針對基于標(biāo)注實(shí)體信息的事件觸發(fā)詞抽取方法缺乏實(shí)用性的問題,本文提出了一種基于混合神經(jīng)網(wǎng)絡(luò)、面向生語料的事件觸發(fā)詞抽取方法。首先,采用雙向循環(huán)神經(jīng)網(wǎng)絡(luò)層對輸入進(jìn)行編碼;其次,通過共享信息將獲得的實(shí)體上下文...
【文章來源】:蘇州大學(xué)江蘇省
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖3-1?RNN-ARG模型用于事件觸發(fā)詞抽取任務(wù),“died”為候選觸發(fā)詞,t;和b、是??BiLSTM的輸出,r是經(jīng)過注意力機(jī)制后的輸出??
—?+?」??I??CT?slim????CRF?layer?????I?^?GatedCNN? ̄??丨參魯籲>?籲籲籲1?——??“?|??個?Mer?兌?e???[MA?:???J????Mul-Att?I??Bi-LSTM??Z? ̄A?l???^C^concaT]^???^ ̄?^?????CNN?Pool??1?,?.?]?T^??Char?-mbed?l、n]bed??圖4-1混合神經(jīng)網(wǎng)絡(luò)的事件觸發(fā)詞抽取結(jié)構(gòu)圖??4.2.1編碼層??在編碼層中,對于句中每個詞,本文使用谷歌預(yù)訓(xùn)練的\Vord2Vec對應(yīng)詞向量進(jìn)??行初始化,作為事件抽取模塊的輸入。??BiLSTM編碼層包括前向LSTM層,后向LSTM層,前者學(xué)習(xí)前向的序列信息,??后者則學(xué)習(xí)后向的序列信息。雙向LSTM中的?個輸入序列可以表示為x?=??...,xn},其中xte?是句子中第t個詞的d維向量,n是給定句子的長度。然??后,經(jīng)過兩個平行的LSTM層,分別從相反的方向?qū)斎脒M(jìn)行編碼,捕獲序列中的長??遠(yuǎn)依賴關(guān)系。對于每個詞xt,前向LSTM層和后向LSTM層各自產(chǎn)生?個隱藏層的??27??
f°'e??廣?????*A?=?:?.?@?@??0:??iu?S?U?1?圔?ftl?n?X71??\?<unk?^? ̄?????tT?Laheliitf;????4^qq〇qqqq?)??I?°"?——Embed——??Z??L*?,W,*?,豐..Iff—??卜?3??r?2—(ooocxxx))??,ra,www???'??^-^nositional?word?\??(OOQQQOO)??Trigger?Oassificarion??圖5-1實(shí)體和事件抽取的結(jié)構(gòu)圖??實(shí)體抽取模塊;(3)事件觸發(fā)詞抽取模塊;(4)事件論元抽取模塊。在整個模型中有??兩個部分的聯(lián)合學(xué)習(xí):(1)實(shí)體和事件抽取的聯(lián)合學(xué)習(xí);(2)觸發(fā)詞和論元抽取的聯(lián)??合學(xué)習(xí)。前者通過共享雙向長短時記憶神經(jīng)網(wǎng)絡(luò)層,在訓(xùn)練時,通過參數(shù)反向傳播實(shí)??現(xiàn)兩個任務(wù)的依賴,學(xué)習(xí)到實(shí)體和事件之間的豐富聯(lián)系。后者通過共享圖卷積網(wǎng)絡(luò)層??來學(xué)習(xí)句法結(jié)構(gòu)中節(jié)點(diǎn)上下文的表示向量,通過短弧將不同觸發(fā)詞和論元聯(lián)系在一起,??縮短了信息傳遞路徑,從而捕獲觸發(fā)詞和論元之間的聯(lián)系以及句子中不同事件觸發(fā)詞??之間的聯(lián)系。??本文采用和第四章中一樣的命名實(shí)體識別模型,即基于條件隨機(jī)場的雙向長短時??記憶神經(jīng)網(wǎng)絡(luò)模型。輸入模塊中,首先對句子中每個詞的字符賦予一個長度固定但隨??機(jī)初始化的向量,然后將每一個詞對應(yīng)的字符向量輸入到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行卷積和最??大池化操作后,獲得每個詞的字符表示向量。然后將詞向量和字符表示向量串聯(lián)在一??起送入到雙向長短時記憶神經(jīng)網(wǎng)絡(luò)中,獲得序列的隱層向量表示,饋送到實(shí)體抽取模??塊中,通過線性條件隨機(jī)場1411?(Ch
本文編號:2961648
【文章來源】:蘇州大學(xué)江蘇省
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖3-1?RNN-ARG模型用于事件觸發(fā)詞抽取任務(wù),“died”為候選觸發(fā)詞,t;和b、是??BiLSTM的輸出,r是經(jīng)過注意力機(jī)制后的輸出??
—?+?」??I??CT?slim????CRF?layer?????I?^?GatedCNN? ̄??丨參魯籲>?籲籲籲1?——??“?|??個?Mer?兌?e???[MA?:???J????Mul-Att?I??Bi-LSTM??Z? ̄A?l???^C^concaT]^???^ ̄?^?????CNN?Pool??1?,?.?]?T^??Char?-mbed?l、n]bed??圖4-1混合神經(jīng)網(wǎng)絡(luò)的事件觸發(fā)詞抽取結(jié)構(gòu)圖??4.2.1編碼層??在編碼層中,對于句中每個詞,本文使用谷歌預(yù)訓(xùn)練的\Vord2Vec對應(yīng)詞向量進(jìn)??行初始化,作為事件抽取模塊的輸入。??BiLSTM編碼層包括前向LSTM層,后向LSTM層,前者學(xué)習(xí)前向的序列信息,??后者則學(xué)習(xí)后向的序列信息。雙向LSTM中的?個輸入序列可以表示為x?=??...,xn},其中xte?是句子中第t個詞的d維向量,n是給定句子的長度。然??后,經(jīng)過兩個平行的LSTM層,分別從相反的方向?qū)斎脒M(jìn)行編碼,捕獲序列中的長??遠(yuǎn)依賴關(guān)系。對于每個詞xt,前向LSTM層和后向LSTM層各自產(chǎn)生?個隱藏層的??27??
f°'e??廣?????*A?=?:?.?@?@??0:??iu?S?U?1?圔?ftl?n?X71??\?<unk?^? ̄?????tT?Laheliitf;????4^qq〇qqqq?)??I?°"?——Embed——??Z??L*?,W,*?,豐..Iff—??卜?3??r?2—(ooocxxx))??,ra,www???'??^-^nositional?word?\??(OOQQQOO)??Trigger?Oassificarion??圖5-1實(shí)體和事件抽取的結(jié)構(gòu)圖??實(shí)體抽取模塊;(3)事件觸發(fā)詞抽取模塊;(4)事件論元抽取模塊。在整個模型中有??兩個部分的聯(lián)合學(xué)習(xí):(1)實(shí)體和事件抽取的聯(lián)合學(xué)習(xí);(2)觸發(fā)詞和論元抽取的聯(lián)??合學(xué)習(xí)。前者通過共享雙向長短時記憶神經(jīng)網(wǎng)絡(luò)層,在訓(xùn)練時,通過參數(shù)反向傳播實(shí)??現(xiàn)兩個任務(wù)的依賴,學(xué)習(xí)到實(shí)體和事件之間的豐富聯(lián)系。后者通過共享圖卷積網(wǎng)絡(luò)層??來學(xué)習(xí)句法結(jié)構(gòu)中節(jié)點(diǎn)上下文的表示向量,通過短弧將不同觸發(fā)詞和論元聯(lián)系在一起,??縮短了信息傳遞路徑,從而捕獲觸發(fā)詞和論元之間的聯(lián)系以及句子中不同事件觸發(fā)詞??之間的聯(lián)系。??本文采用和第四章中一樣的命名實(shí)體識別模型,即基于條件隨機(jī)場的雙向長短時??記憶神經(jīng)網(wǎng)絡(luò)模型。輸入模塊中,首先對句子中每個詞的字符賦予一個長度固定但隨??機(jī)初始化的向量,然后將每一個詞對應(yīng)的字符向量輸入到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行卷積和最??大池化操作后,獲得每個詞的字符表示向量。然后將詞向量和字符表示向量串聯(lián)在一??起送入到雙向長短時記憶神經(jīng)網(wǎng)絡(luò)中,獲得序列的隱層向量表示,饋送到實(shí)體抽取模??塊中,通過線性條件隨機(jī)場1411?(Ch
本文編號:2961648
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/2961648.html
最近更新
教材專著