基于社交網(wǎng)絡的事件屬性與發(fā)展趨勢分析
發(fā)布時間:2021-07-28 03:03
隨著社交網(wǎng)絡和智能終端的快速普及,人們通過社交網(wǎng)絡不僅了解到世界各地的新聞事件,也對當下熱門的話題和事件發(fā)表自己的看法和觀點。收集和研究這些意見和觀點可以為了解社會趨勢和輿論導向提供一個有效的窗口和視角。而基于社交網(wǎng)絡的事件預測便是通過對社交網(wǎng)絡中大量的用戶生成內(nèi)容進行分析,預測事件的發(fā)展趨勢和輿論的導向,從而為決策制定和社會管理提供一定的幫助和支持。但是由于社交網(wǎng)絡的動態(tài)變化的特性,事件和熱門話題也在不斷變化,導致事件預測效果不佳。同時由于智能設備的普及,在社交網(wǎng)絡中人們可以不僅通過文字信息進行分享和交流,也發(fā)表圖片、視頻等多媒體信息,使得社交網(wǎng)絡包含多種不同類型的數(shù)據(jù)。通過對社交網(wǎng)絡中的用戶生成內(nèi)容的分析和挖掘,可以預測事件背后的輿論導向并推斷用戶的地理位置。社交網(wǎng)絡的動態(tài)特性導致現(xiàn)有的靜態(tài)預測模型難以分析新事件帶來的變化,但對新數(shù)據(jù)的標注需要人力和時間的投入,使得現(xiàn)有方法難以將新的數(shù)據(jù)引入模型的學習過程中,導致預測效果下降。而社交網(wǎng)絡數(shù)據(jù)類型的多樣性,內(nèi)容的不規(guī)則性使得基于單一類型信息的地理位置推斷模型的穩(wěn)定性和準確性都難以保證。本文針對以上兩個問題展開研究,主要工作和貢獻如下:...
【文章來源】:電子科技大學四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:73 頁
【學位級別】:碩士
【部分圖文】:
AlexNet模型的結(jié)構(gòu)簡介[60]
電子科技大學碩士學位論文Unit),它可以解決梯度彌散問題。如圖2-3所示,ReLU在x>0時導數(shù)一直是1,求梯度非常簡單,計算起來也很快。ReLU解決了激活函數(shù)的導數(shù)問題,所以有助于緩解梯度消失,也能解決梯度爆炸,從而加快訓練速度。圖2-3三種常見的激活函數(shù)因為全連接層容易過擬合,而卷積層不容易過擬合,,AlexNet最后2個全連接層中使用了Dropout方法。在每次迭代時,根據(jù)預設的概率p讓某個神經(jīng)元的暫時停止工作,但保持輸入層與輸出層神經(jīng)元的個數(shù)不變,只更新被保留下來的的神經(jīng)元參數(shù)。那么,每次迭代生成的網(wǎng)絡結(jié)構(gòu)會因為隨機失活的神經(jīng)元不同而產(chǎn)生變化,使得模型泛化能力更強,避免模型過度依賴某些局部特征,從而有效地減少過擬合。圖2-4給出了一個Dropout的示例。圖2-4標準網(wǎng)絡與Dropout以后的網(wǎng)絡12
標準網(wǎng)絡與Dropout以后的網(wǎng)絡
本文編號:3307072
【文章來源】:電子科技大學四川省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:73 頁
【學位級別】:碩士
【部分圖文】:
AlexNet模型的結(jié)構(gòu)簡介[60]
電子科技大學碩士學位論文Unit),它可以解決梯度彌散問題。如圖2-3所示,ReLU在x>0時導數(shù)一直是1,求梯度非常簡單,計算起來也很快。ReLU解決了激活函數(shù)的導數(shù)問題,所以有助于緩解梯度消失,也能解決梯度爆炸,從而加快訓練速度。圖2-3三種常見的激活函數(shù)因為全連接層容易過擬合,而卷積層不容易過擬合,,AlexNet最后2個全連接層中使用了Dropout方法。在每次迭代時,根據(jù)預設的概率p讓某個神經(jīng)元的暫時停止工作,但保持輸入層與輸出層神經(jīng)元的個數(shù)不變,只更新被保留下來的的神經(jīng)元參數(shù)。那么,每次迭代生成的網(wǎng)絡結(jié)構(gòu)會因為隨機失活的神經(jīng)元不同而產(chǎn)生變化,使得模型泛化能力更強,避免模型過度依賴某些局部特征,從而有效地減少過擬合。圖2-4給出了一個Dropout的示例。圖2-4標準網(wǎng)絡與Dropout以后的網(wǎng)絡12
標準網(wǎng)絡與Dropout以后的網(wǎng)絡
本文編號:3307072
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3307072.html
最近更新
教材專著