基于深度學(xué)習(xí)的摘要生成模型研究
發(fā)布時(shí)間:2021-07-31 12:42
在信息爆炸的大數(shù)據(jù)時(shí)代,文本信息是人們獲取信息的主要來(lái)源,每天人們都要花費(fèi)大量的時(shí)間和精力去閱讀文本。伴隨著計(jì)算機(jī)計(jì)算能力的飛躍,如果能讓計(jì)算機(jī)自動(dòng)用簡(jiǎn)短的文本來(lái)表達(dá)長(zhǎng)文本的主要內(nèi)涵,無(wú)疑將有利于緩解信息過(guò)載的問(wèn)題并且節(jié)省大量的人力資源。因此文本摘要技術(shù)應(yīng)運(yùn)而生。目前主流的自動(dòng)文本摘要技術(shù)有兩種方式,一種是抽取式,另一種是生成式。抽取式,就是從原文抽取跟中心思想最接近的一條或幾條句子作為摘要。而生成式是計(jì)算機(jī)在閱讀并理解整篇文檔中心思想的基礎(chǔ)上,重新生成摘要。隨著深度學(xué)習(xí)的發(fā)展,2014年Google Brain團(tuán)隊(duì)提出了sequence-to-sequence模型,開(kāi)啟了NLP中端到端網(wǎng)絡(luò)的研究,該模型也成為了生成式文本摘要的主流研究方向。然而sequence-to-sequence摘要生成模型仍然存在著未登錄詞和重復(fù)等問(wèn)題。本文便針對(duì)這些問(wèn)題提出改進(jìn)算法,對(duì)生成式摘要技術(shù)進(jìn)行研究,主要在以下幾個(gè)方面展開(kāi):1、構(gòu)建了基于注意力機(jī)制和束解碼搜索算法的sequence-to-sequence摘要生成模型為后面的研究打下基礎(chǔ)。在Encoder-Decoder框架的基礎(chǔ)上,使用雙向RNN作為...
【文章來(lái)源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
典型的神經(jīng)元激活函數(shù)
RNN模型展開(kāi)圖
LSTM結(jié)構(gòu)圖
【參考文獻(xiàn)】:
博士論文
[1]基于深度神經(jīng)網(wǎng)絡(luò)的文本表示及其應(yīng)用[D]. 戶保田.哈爾濱工業(yè)大學(xué) 2016
碩士論文
[1]基于深度學(xué)習(xí)的生成式自動(dòng)摘要技術(shù)研究[D]. 郭洪杰.哈爾濱工業(yè)大學(xué) 2018
[2]基于seq2seq框架文本摘要的研究與實(shí)現(xiàn)[D]. 孫嘉偉.北方工業(yè)大學(xué) 2018
[3]基于深度學(xué)習(xí)的中文單文檔自動(dòng)文摘方法研究[D]. 王煒.華中師范大學(xué) 2018
[4]基于LSTM的自動(dòng)文本摘要技術(shù)研究[D]. 洪冬梅.華南理工大學(xué) 2018
本文編號(hào):3313489
【文章來(lái)源】:電子科技大學(xué)四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁(yè)數(shù)】:72 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
典型的神經(jīng)元激活函數(shù)
RNN模型展開(kāi)圖
LSTM結(jié)構(gòu)圖
【參考文獻(xiàn)】:
博士論文
[1]基于深度神經(jīng)網(wǎng)絡(luò)的文本表示及其應(yīng)用[D]. 戶保田.哈爾濱工業(yè)大學(xué) 2016
碩士論文
[1]基于深度學(xué)習(xí)的生成式自動(dòng)摘要技術(shù)研究[D]. 郭洪杰.哈爾濱工業(yè)大學(xué) 2018
[2]基于seq2seq框架文本摘要的研究與實(shí)現(xiàn)[D]. 孫嘉偉.北方工業(yè)大學(xué) 2018
[3]基于深度學(xué)習(xí)的中文單文檔自動(dòng)文摘方法研究[D]. 王煒.華中師范大學(xué) 2018
[4]基于LSTM的自動(dòng)文本摘要技術(shù)研究[D]. 洪冬梅.華南理工大學(xué) 2018
本文編號(hào):3313489
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3313489.html
最近更新
教材專著