面向自然語言理解的新槽值問題研究與應(yīng)用
【文章頁數(shù)】:72 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??全連經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)單,易于實現(xiàn),對函數(shù)有很強的擬合能力
神經(jīng)網(wǎng)絡(luò)(Recurrent?Neural?Network,?RNN)[26]。RNN是一種節(jié)點定向連接成環(huán)的??人工神經(jīng)網(wǎng)絡(luò),用于處理序列數(shù)據(jù),有效地解決了全連接神經(jīng)網(wǎng)絡(luò)在自然語言處??理領(lǐng)域的不足。圖2-2所示為典型的RNN結(jié)構(gòu)圖。??6?°t-i?°t?°t+1??A?八?....
圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖【27】??從圖中可見,這種網(wǎng)絡(luò)的內(nèi)部狀態(tài)可以展示動態(tài)時序行為
?隱藏層?輸出層??圖2-1全連接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖??全連接神經(jīng)網(wǎng)絡(luò)的網(wǎng)絡(luò)結(jié)構(gòu)簡單,易于實現(xiàn),對函數(shù)有很強的擬合能力。然??而,它的層數(shù)與每層網(wǎng)絡(luò)的節(jié)點數(shù)目均為固定,無法應(yīng)用于變長的輸入。對于大??多數(shù)自然語言處理的應(yīng)用而言,其輸入往往是不定長的自然語言文本。與此同時,??全連接神....
圖2-3長短期記憶網(wǎng)絡(luò)結(jié)構(gòu)圖[29]??圖2-3為LSTM—個存儲塊的結(jié)構(gòu)圖
m??圖2-3長短期記憶網(wǎng)絡(luò)結(jié)構(gòu)圖[29]??圖2-3為LSTM—個存儲塊的結(jié)構(gòu)圖。從圖中可知,輸入門作用在最新的狀??態(tài)向量上,用于控制信息的更新,輸出門作用在當前時刻的輸出上,用于選擇單??元的輸出,遺忘門則作用在上一時刻的狀態(tài)向量上,用于過濾歷史信息。其計算??方式分別如公....
圖3-1聯(lián)合糢型??本文采用雙向LSTM模型作為文本表示編碼的基本結(jié)構(gòu)
下標t?=?0?7則表示第i條輸入中的第t個字或詞,w/為當前輸入的字??向量表示。該表示可以由外部語料預(yù)先訓(xùn)練得到,在本文中,該表示先隨機初始??化,而后隨著模型訓(xùn)練一同更新。如圖3-1所示,聯(lián)合模型將同時預(yù)測其時序標??簽\?sA}與槽值類標yf。??I"1?I??<——LS....
本文編號:3921344
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3921344.html