基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評(píng)論識(shí)別研究
發(fā)布時(shí)間:2021-09-29 00:19
近年來,越來越多的消費(fèi)者傾向于在網(wǎng)絡(luò)上發(fā)表評(píng)論分享自己的消費(fèi)體驗(yàn)并在作出消費(fèi)決策時(shí)參考他人的評(píng)論意見。然而,一些不良商家通過偽造評(píng)論內(nèi)容以達(dá)到夸大自身品牌或詆毀競(jìng)爭(zhēng)對(duì)手的目的。虛假評(píng)論不僅會(huì)對(duì)用戶的消費(fèi)決策產(chǎn)生影響,還會(huì)導(dǎo)致商業(yè)競(jìng)爭(zhēng)環(huán)境的不良發(fā)展。為了有效識(shí)別虛假評(píng)論,本文利用評(píng)論數(shù)據(jù)提取到豐富的語言特征和非語言特征,使用基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的識(shí)別模型MFNN(Neural Networks Merging Multivariate Features)開展虛假評(píng)論識(shí)別研究。本文的研究?jī)?nèi)容歸納為以下三點(diǎn):(1)構(gòu)建多元特征指標(biāo)。本文將虛假評(píng)論識(shí)別的潛在線索劃分為語言特征信息和非語言特征信息,利用評(píng)論文本及多種數(shù)據(jù)信息提取了一組多元特征指標(biāo)集,可以同時(shí)適用于基于不同數(shù)據(jù)集開展的虛假評(píng)論檢測(cè)實(shí)驗(yàn)。(2)進(jìn)行特征選擇。利用隨機(jī)森林和序列后向選擇策略按照特征對(duì)于模型性能的重要程度對(duì)特征進(jìn)行修剪,選取具有最佳識(shí)別性能的特征子集開展實(shí)驗(yàn),減少噪聲干擾,提高模型的簡(jiǎn)潔性。(3)基于神經(jīng)網(wǎng)絡(luò)構(gòu)建虛假評(píng)論識(shí)別模型。本文提出融合注意力機(jī)制的層次神經(jīng)網(wǎng)絡(luò)模型以挖掘深層的語義信息從而實(shí)現(xiàn)虛假評(píng)論檢測(cè)。同時(shí)...
【文章來源】:內(nèi)蒙古大學(xué)內(nèi)蒙古自治區(qū) 211工程院校
【文章頁數(shù)】:60 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評(píng)論識(shí)別研究16圖2.7循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)Figure2.7InternalStructureofRNNtx表示t時(shí)刻的輸入,to表示t時(shí)刻的輸出,ts表示t時(shí)刻的記憶,則有:1()tttsfUxWs=+(2-5)其中f是非線性的函數(shù),一般使用Relu函數(shù)或是tanh函數(shù)來代替。假設(shè)輸出層to是t時(shí)刻的輸出,則有:1()ttoSoftmaxVs=(2-6)2.3.3長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[51]是為了處理循環(huán)神經(jīng)網(wǎng)絡(luò)在梯度回傳時(shí)由于連續(xù)的乘積而導(dǎo)致的梯度彌散和梯度爆炸的缺陷,利用記憶單元(MemoryCell)結(jié)構(gòu)來選擇循環(huán)神經(jīng)網(wǎng)絡(luò)中歷史信息,能夠在更長(zhǎng)的序列中有很好的表現(xiàn),成功解決長(zhǎng)期依賴的問題。長(zhǎng)短期記憶單元通過特殊的“門”結(jié)構(gòu)來選擇性的去除、保留或增加歷史信息,這三種門結(jié)構(gòu)為輸入門、輸出門和遺忘門,其記憶單元構(gòu)如圖2.8所示。圖2.8長(zhǎng)短期記憶單元結(jié)構(gòu)Figure2.8StructureofMemoryCellofLSTM假設(shè)tx表示LSTM在t時(shí)刻輸入信息,則可以t時(shí)刻輸入門ti,輸出門to和遺忘門tf的更新值:
基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評(píng)論識(shí)別研究16圖2.7循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)Figure2.7InternalStructureofRNNtx表示t時(shí)刻的輸入,to表示t時(shí)刻的輸出,ts表示t時(shí)刻的記憶,則有:1()tttsfUxWs=+(2-5)其中f是非線性的函數(shù),一般使用Relu函數(shù)或是tanh函數(shù)來代替。假設(shè)輸出層to是t時(shí)刻的輸出,則有:1()ttoSoftmaxVs=(2-6)2.3.3長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[51]是為了處理循環(huán)神經(jīng)網(wǎng)絡(luò)在梯度回傳時(shí)由于連續(xù)的乘積而導(dǎo)致的梯度彌散和梯度爆炸的缺陷,利用記憶單元(MemoryCell)結(jié)構(gòu)來選擇循環(huán)神經(jīng)網(wǎng)絡(luò)中歷史信息,能夠在更長(zhǎng)的序列中有很好的表現(xiàn),成功解決長(zhǎng)期依賴的問題。長(zhǎng)短期記憶單元通過特殊的“門”結(jié)構(gòu)來選擇性的去除、保留或增加歷史信息,這三種門結(jié)構(gòu)為輸入門、輸出門和遺忘門,其記憶單元構(gòu)如圖2.8所示。圖2.8長(zhǎng)短期記憶單元結(jié)構(gòu)Figure2.8StructureofMemoryCellofLSTM假設(shè)tx表示LSTM在t時(shí)刻輸入信息,則可以t時(shí)刻輸入門ti,輸出門to和遺忘門tf的更新值:
本文編號(hào):3412822
【文章來源】:內(nèi)蒙古大學(xué)內(nèi)蒙古自治區(qū) 211工程院校
【文章頁數(shù)】:60 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評(píng)論識(shí)別研究16圖2.7循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)Figure2.7InternalStructureofRNNtx表示t時(shí)刻的輸入,to表示t時(shí)刻的輸出,ts表示t時(shí)刻的記憶,則有:1()tttsfUxWs=+(2-5)其中f是非線性的函數(shù),一般使用Relu函數(shù)或是tanh函數(shù)來代替。假設(shè)輸出層to是t時(shí)刻的輸出,則有:1()ttoSoftmaxVs=(2-6)2.3.3長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[51]是為了處理循環(huán)神經(jīng)網(wǎng)絡(luò)在梯度回傳時(shí)由于連續(xù)的乘積而導(dǎo)致的梯度彌散和梯度爆炸的缺陷,利用記憶單元(MemoryCell)結(jié)構(gòu)來選擇循環(huán)神經(jīng)網(wǎng)絡(luò)中歷史信息,能夠在更長(zhǎng)的序列中有很好的表現(xiàn),成功解決長(zhǎng)期依賴的問題。長(zhǎng)短期記憶單元通過特殊的“門”結(jié)構(gòu)來選擇性的去除、保留或增加歷史信息,這三種門結(jié)構(gòu)為輸入門、輸出門和遺忘門,其記憶單元構(gòu)如圖2.8所示。圖2.8長(zhǎng)短期記憶單元結(jié)構(gòu)Figure2.8StructureofMemoryCellofLSTM假設(shè)tx表示LSTM在t時(shí)刻輸入信息,則可以t時(shí)刻輸入門ti,輸出門to和遺忘門tf的更新值:
基于層次神經(jīng)網(wǎng)絡(luò)和多元特征的虛假評(píng)論識(shí)別研究16圖2.7循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)構(gòu)Figure2.7InternalStructureofRNNtx表示t時(shí)刻的輸入,to表示t時(shí)刻的輸出,ts表示t時(shí)刻的記憶,則有:1()tttsfUxWs=+(2-5)其中f是非線性的函數(shù),一般使用Relu函數(shù)或是tanh函數(shù)來代替。假設(shè)輸出層to是t時(shí)刻的輸出,則有:1()ttoSoftmaxVs=(2-6)2.3.3長(zhǎng)短期記憶網(wǎng)絡(luò)長(zhǎng)短期記憶網(wǎng)絡(luò)(LongShort-TermMemory,LSTM)[51]是為了處理循環(huán)神經(jīng)網(wǎng)絡(luò)在梯度回傳時(shí)由于連續(xù)的乘積而導(dǎo)致的梯度彌散和梯度爆炸的缺陷,利用記憶單元(MemoryCell)結(jié)構(gòu)來選擇循環(huán)神經(jīng)網(wǎng)絡(luò)中歷史信息,能夠在更長(zhǎng)的序列中有很好的表現(xiàn),成功解決長(zhǎng)期依賴的問題。長(zhǎng)短期記憶單元通過特殊的“門”結(jié)構(gòu)來選擇性的去除、保留或增加歷史信息,這三種門結(jié)構(gòu)為輸入門、輸出門和遺忘門,其記憶單元構(gòu)如圖2.8所示。圖2.8長(zhǎng)短期記憶單元結(jié)構(gòu)Figure2.8StructureofMemoryCellofLSTM假設(shè)tx表示LSTM在t時(shí)刻輸入信息,則可以t時(shí)刻輸入門ti,輸出門to和遺忘門tf的更新值:
本文編號(hào):3412822
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3412822.html
最近更新
教材專著