融合區(qū)分度信息的神經(jīng)網(wǎng)絡(luò)關(guān)系分類方法
【文章頁數(shù)】:77 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1-1知識庫構(gòu)建簡圖??
?山東大學(xué)碩士學(xué)位論文???另外,關(guān)系分類對知識圖譜的構(gòu)建有重要作用。知識圖譜用符號描述現(xiàn)實(shí)世界??中的概念和概念之間的關(guān)系,知識圖譜本身是一種結(jié)構(gòu)化的語義知識庫。它以“實(shí)??體-關(guān)系-實(shí)體”這樣的三元組為基本組成單位,除三元組外,知識圖譜中還包含實(shí)??體的“屬性-值”對,實(shí)體之....
圖2-1神經(jīng)網(wǎng)絡(luò)語言模型??前面提到通過訓(xùn)練神經(jīng)網(wǎng)絡(luò)語言模型得到詞向量的方法太過耗時,而Milokov??等人[39_于2〇丨3年提出的w〇rd2歡剛好解決了這個問題
將詞表示看做模型中需要訓(xùn)練的參數(shù),利用詞語上下文信息直接得到預(yù)測詞的詞??表示。Bengio等人于2003年提出神經(jīng)網(wǎng)絡(luò)語言模型(Neural?Network?Language?Model,??NNLM)^,同時得到了語言模型和詞向量,該模型如圖2-1所示,它的本質(zhì)仍是??N-g....
圖2-2?CBOW模型結(jié)構(gòu)圖??
CBOW模型與神經(jīng)網(wǎng)絡(luò)語言模型結(jié)構(gòu)類似,分為三層,輸入層,映射層(隱??藏層),輸出層。只是在CBOW模型中,映射層(隱藏層)不是非線性函數(shù)而是采??用求和操作,這一改變大大加快了模型的訓(xùn)練速度。其模型結(jié)構(gòu)如圖2-2所示:??w(t-2)?w(t-l)?w?(t+1)?w?(t+....
圖2-3?Skip-gram模型結(jié)構(gòu)??2.?2.?2?Word2vec的加速方法??
與CBOW模型相同,該模型也是分為三層,輸入層,映射層和輸出層,輸入??M輸入的是中心詞的one-hot編碼,經(jīng)過映射層后送入到輸出層,在Skip-gram??模型中,映射層沒有求平均操作,其模型結(jié)構(gòu)如圖2-3所示。Skip-gram模型中輸??入層的向量為et,經(jīng)過映射層的線性....
本文編號:3916542
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/3916542.html