基于深度學習的電商評論細粒度情感分析研究
發(fā)布時間:2021-09-19 00:39
隨著互聯(lián)網(wǎng)的蓬勃發(fā)展及智能終端的普及,網(wǎng)購已經(jīng)成為人們生活中一種重要的購物方式。用戶在各種電商購平臺上發(fā)表評論、表達情感,從而產(chǎn)生并累積了大量亟待處理的商品評論文本。利用自然語言處理相關(guān)技術(shù)對這些評論文本進行分析以挖掘其中所包含的情感傾向是商家獲取消費者反饋信息的重要途徑。因此,研究針對電商評論的文本情感分析具有重要意義。根據(jù)情感分析對象粒度的大小可將情感分析分為四種級別,粒度由小到大分別是詞語級、句子級、段落級、篇章級。電商評論通常包含對商品不同屬性的情感傾向,因此更適合詞匯級別的情感分析。詞匯級別的情感分析即細粒度情感分析。本文以電商評論語料為基礎(chǔ),圍繞細粒度情感分析涉及的評價對象抽取任務和關(guān)聯(lián)評價對象情感分析任務展開研究。具體地,本文研究內(nèi)容如下:(1)研究評價對象的抽取方法。本文提出了一種基于雙通道卷積神經(jīng)網(wǎng)絡與雙向長短期記憶網(wǎng)絡的評價對象抽取模型CNN-BiLSTM-CRF。該模型分為三個模塊,分別為雙通道嵌入模塊、編碼模塊、判別序列模塊。雙通道嵌入模塊將評論文本轉(zhuǎn)化成詞向量表示并融入詞性特征。編碼模塊使用CNN與BiLSTM兩種神經(jīng)網(wǎng)絡進行編碼,兩種網(wǎng)絡不同的捕獲特征方式充...
【文章來源】:昆明理工大學云南省
【文章頁數(shù)】:71 頁
【學位級別】:碩士
【部分圖文】:
前饋神經(jīng)網(wǎng)絡語言模型
昆明理工大學專業(yè)學位碩士學位論文10整體結(jié)構(gòu)如圖2.1所示:圖2.1前饋神經(jīng)網(wǎng)絡語言模型該模型利用最大對數(shù)似然概率作為語言模型的目標函數(shù)。在該模型中,詞匯表中的每個單詞與分布式單詞特征向量相關(guān)聯(lián),單詞序列的聯(lián)合概率函數(shù)由序列中這些單詞的特征向量的函數(shù)表示。該模型可以同時學習單詞特征向量和該概率函數(shù)的參數(shù)。這種神經(jīng)網(wǎng)絡方法可以解決稀疏問題,并且在困惑方面也已經(jīng)證明與n-gram模型相比可以很好地推廣。然而,此方法主要缺點是訓練和測試時間非常長。學者Mikolov在上述基礎(chǔ)上提出了word2vec相關(guān)模型[35],且克服了相關(guān)缺點。Word2vec有兩種訓練模型,分別為CBOW和Skip-gram模型.圖2.2word2vec兩種模型結(jié)構(gòu)如圖2.2中所示,CBOW模型將每個單詞的上下文作為輸入,并嘗試預測與上下文對應的單詞,而Skip-gram模型則完全相反,該模型通過中心詞預測預測上下
第二章相關(guān)理論基礎(chǔ)及模型11文。2.3深度學習模型深度學習是一類機器學習算法,其使用多層非線性單元進行特征提取和轉(zhuǎn)換,學習多層次的抽象特征[36]。本節(jié)介紹目前常用的深度學習網(wǎng)絡,包括卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,CNN)、循環(huán)神經(jīng)網(wǎng)絡(RecurrentNeuralNetwork,RNN)及長短期記憶網(wǎng)絡(LongShort-TermMemory,LSTM)。2.3.1卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡(CNN)是一種經(jīng)典的深度神經(jīng)網(wǎng)絡,最常用于視覺圖像分析。CNN也是一種具有深度神經(jīng)網(wǎng)絡結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡模型,是深度學習代表模型之一[37],其使用多層感知器的變體設計,且具有共享權(quán)重架構(gòu)和平移不變性特征。卷積神經(jīng)網(wǎng)絡由輸入層和輸出層以及多個隱藏層構(gòu)成。典型的卷積神經(jīng)網(wǎng)絡通常包含卷積層(ConvolutionalLayer)、池化層(PoolingLayer)和全連接層(FullyConnectedLayer)。(1)卷積層在卷積神經(jīng)網(wǎng)絡中,卷積層與輸入層相連接。卷積層的特點在于其通過以卷積核卷積方式獲取輸入矩陣的特征信息,這樣獲取特征信息有很大的優(yōu)勢,那就是能夠極大地減少參數(shù)的數(shù)量,進而降低訓練模型的難度。卷積操作的公式如下所示:1(b)ijjillljijiMXfwX(2.9)其中,Xjl表示卷積操作產(chǎn)生的特征圖(Fearturemap),Mj表示所有卷積核,wjl表示卷積核權(quán)重矩陣,b表示偏置,f表示模型使用的激活函數(shù)。一個簡單直觀的卷積操作過程例子如圖2.3所示:圖2.3卷積操作示
【參考文獻】:
期刊論文
[1]利用反向傳播算法合理分配緩沖區(qū)[J]. 吳援明,高科,李樂民. 電子與信息學報. 2006(08)
[2]一種改進的反向傳播神經(jīng)網(wǎng)絡算法[J]. 邱浩,王道波,張煥春. 應用科學學報. 2004(03)
[3]統(tǒng)計語言模型綜述[J]. 邢永康,馬少平. 計算機科學. 2003(09)
碩士論文
[1]基于深度學習的關(guān)聯(lián)目標情感分析研究[D]. 蔡林森.華東師范大學 2018
[2]基于深度學習的微博文本情感分析研究[D]. 宋夢姣.南京大學 2018
[3]基于深度學習的命名實體識別研究[D]. 霍振朗.華南理工大學 2018
[4]基于神經(jīng)網(wǎng)絡的英文序列標注方法研究[D]. 彭宗徽.北京郵電大學 2018
[5]基于深度神經(jīng)網(wǎng)絡的方面級情感分析算法研究[D]. 王毅.北京郵電大學 2018
[6]面向餐館評論的情感分析關(guān)鍵技術(shù)研究[D]. 張婷婷.哈爾濱工業(yè)大學 2017
本文編號:3400652
【文章來源】:昆明理工大學云南省
【文章頁數(shù)】:71 頁
【學位級別】:碩士
【部分圖文】:
前饋神經(jīng)網(wǎng)絡語言模型
昆明理工大學專業(yè)學位碩士學位論文10整體結(jié)構(gòu)如圖2.1所示:圖2.1前饋神經(jīng)網(wǎng)絡語言模型該模型利用最大對數(shù)似然概率作為語言模型的目標函數(shù)。在該模型中,詞匯表中的每個單詞與分布式單詞特征向量相關(guān)聯(lián),單詞序列的聯(lián)合概率函數(shù)由序列中這些單詞的特征向量的函數(shù)表示。該模型可以同時學習單詞特征向量和該概率函數(shù)的參數(shù)。這種神經(jīng)網(wǎng)絡方法可以解決稀疏問題,并且在困惑方面也已經(jīng)證明與n-gram模型相比可以很好地推廣。然而,此方法主要缺點是訓練和測試時間非常長。學者Mikolov在上述基礎(chǔ)上提出了word2vec相關(guān)模型[35],且克服了相關(guān)缺點。Word2vec有兩種訓練模型,分別為CBOW和Skip-gram模型.圖2.2word2vec兩種模型結(jié)構(gòu)如圖2.2中所示,CBOW模型將每個單詞的上下文作為輸入,并嘗試預測與上下文對應的單詞,而Skip-gram模型則完全相反,該模型通過中心詞預測預測上下
第二章相關(guān)理論基礎(chǔ)及模型11文。2.3深度學習模型深度學習是一類機器學習算法,其使用多層非線性單元進行特征提取和轉(zhuǎn)換,學習多層次的抽象特征[36]。本節(jié)介紹目前常用的深度學習網(wǎng)絡,包括卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,CNN)、循環(huán)神經(jīng)網(wǎng)絡(RecurrentNeuralNetwork,RNN)及長短期記憶網(wǎng)絡(LongShort-TermMemory,LSTM)。2.3.1卷積神經(jīng)網(wǎng)絡卷積神經(jīng)網(wǎng)絡(CNN)是一種經(jīng)典的深度神經(jīng)網(wǎng)絡,最常用于視覺圖像分析。CNN也是一種具有深度神經(jīng)網(wǎng)絡結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡模型,是深度學習代表模型之一[37],其使用多層感知器的變體設計,且具有共享權(quán)重架構(gòu)和平移不變性特征。卷積神經(jīng)網(wǎng)絡由輸入層和輸出層以及多個隱藏層構(gòu)成。典型的卷積神經(jīng)網(wǎng)絡通常包含卷積層(ConvolutionalLayer)、池化層(PoolingLayer)和全連接層(FullyConnectedLayer)。(1)卷積層在卷積神經(jīng)網(wǎng)絡中,卷積層與輸入層相連接。卷積層的特點在于其通過以卷積核卷積方式獲取輸入矩陣的特征信息,這樣獲取特征信息有很大的優(yōu)勢,那就是能夠極大地減少參數(shù)的數(shù)量,進而降低訓練模型的難度。卷積操作的公式如下所示:1(b)ijjillljijiMXfwX(2.9)其中,Xjl表示卷積操作產(chǎn)生的特征圖(Fearturemap),Mj表示所有卷積核,wjl表示卷積核權(quán)重矩陣,b表示偏置,f表示模型使用的激活函數(shù)。一個簡單直觀的卷積操作過程例子如圖2.3所示:圖2.3卷積操作示
【參考文獻】:
期刊論文
[1]利用反向傳播算法合理分配緩沖區(qū)[J]. 吳援明,高科,李樂民. 電子與信息學報. 2006(08)
[2]一種改進的反向傳播神經(jīng)網(wǎng)絡算法[J]. 邱浩,王道波,張煥春. 應用科學學報. 2004(03)
[3]統(tǒng)計語言模型綜述[J]. 邢永康,馬少平. 計算機科學. 2003(09)
碩士論文
[1]基于深度學習的關(guān)聯(lián)目標情感分析研究[D]. 蔡林森.華東師范大學 2018
[2]基于深度學習的微博文本情感分析研究[D]. 宋夢姣.南京大學 2018
[3]基于深度學習的命名實體識別研究[D]. 霍振朗.華南理工大學 2018
[4]基于神經(jīng)網(wǎng)絡的英文序列標注方法研究[D]. 彭宗徽.北京郵電大學 2018
[5]基于深度神經(jīng)網(wǎng)絡的方面級情感分析算法研究[D]. 王毅.北京郵電大學 2018
[6]面向餐館評論的情感分析關(guān)鍵技術(shù)研究[D]. 張婷婷.哈爾濱工業(yè)大學 2017
本文編號:3400652
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3400652.html
最近更新
教材專著