神經(jīng)網(wǎng)絡(luò)序列生成模型的研究
【圖文】:
h[邋=邋v邋(wl邋h\^,+邐(2-22)逡逑整個ConS2S模型結(jié)構(gòu)圖如圖2-2所示,可以看到采用CNNs的結(jié)構(gòu)使得模逡逑型在訓(xùn)練階段能夠進行并行計算。C0nvS2S結(jié)構(gòu)是為序列到序列的生成任務(wù)所設(shè)逡逑計的,也采用了如2.1.2所述的編碼器-解碼器的結(jié)構(gòu)形式,其中編碼器和解碼器逡逑都是由上述的卷積結(jié)構(gòu)實現(xiàn)。不同的是,解碼器每一層的卷積結(jié)果/I丨都會分別和逡逑編碼器編碼得到的輸入表示向量(Sl,做注意力計算,得到的輸入表示向逡逑量c/會和之前的卷積結(jié)果h丨相加得到新的輸入給下一層卷積,,這樣做的好處是,逡逑模型在進行注意力機制計算的時候能夠考慮到之前已經(jīng)注意過的詞。逡逑{■^,心,...,^}邋編碼器輸出逡逑I逡逑邐邐注意力機制逡逑4邐.逡逑…ht_2邋ht_i邋邐^0邐■■■邋ct-2邋ct-\逡逑>邋t邐—逡逑I ̄0邐I ̄0邐輸出層逡逑非線性計算邐^干邐,,逡逑-□□邋m逡逑卷積層逡逑嵌入層邐-邋r ̄i邋r ̄l逡逑y0邐y,-2邋y,-i逡逑圖2-2邋ConS2S模型結(jié)構(gòu)圖【5]逡逑在transformer中引入了自注意力機制
transformer的自注意力子層中,Q,K,V的值是一致的,比如輸入一個句子,句逡逑子中的每個詞都要和該句子中的所有詞進行注意力計算,如此能夠更好地捕獲句逡逑子的內(nèi)部結(jié)構(gòu)。值得注意的是,如圖2-3所示,在tnmsformei■的解碼階段,注意逡逑力計算模塊還增加了掩碼計算,以保證與Q進行注意力計算的K都來自于前序逡逑序列。多頭自注意力子層指的是要進行多次的注意力計算,如圖2-3中的右半部逡逑分,通過多次計算提取出不同的信息,同時也允許模型在不同的表示子空間里學(xué)逡逑習(xí)到相關(guān)的信息。逡逑注意力計算模塊邐多頭注意力模塊逡逑t邋■邐t邋■逡逑內(nèi)積邐線性變換逡逑SoftMax邐向屋拼接逡逑掩碼邋1逡逑T邐;邋(7邐邐:邋:>>逡逑按比例縮小值邐\.i注意力模塊!逡逑邐1邐邐V"逡逑內(nèi)積邐|線性i換|丨線性k換11線性變換I逡逑t邋t邐!邋f邋t逡逑Q邋K邐V邐Q邐K邐V逡逑圖2-3自注意力模塊和多頭注意力模塊結(jié)構(gòu)圖[29]逡逑2?3本章小結(jié)逡逑本章主要是為了本文的研究工作做鋪墊,介紹相關(guān)的理論知識。主要內(nèi)容分逡逑為兩部分:逡逑1、
【學(xué)位授予單位】:北京郵電大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP183
【相似文獻】
相關(guān)期刊論文 前10條
1 胡悅;;金融市場中的神經(jīng)網(wǎng)絡(luò)拐點預(yù)測法[J];金融經(jīng)濟;2017年18期
2 陳曉燕;;淺析簡單神經(jīng)網(wǎng)絡(luò)的發(fā)展及簡單模型[J];數(shù)字技術(shù)與應(yīng)用;2019年05期
3 遲惠生;陳珂;;1995年世界神經(jīng)網(wǎng)絡(luò)大會述評[J];國際學(xué)術(shù)動態(tài);1996年01期
4 吳立可;;脈沖神經(jīng)網(wǎng)絡(luò)和行為識別[J];通訊世界;2018年12期
5 林嘉應(yīng);鄭柏倫;劉捷;;基于卷積神經(jīng)網(wǎng)絡(luò)的船舶分類模型[J];信息技術(shù)與信息化;2019年02期
6 俞頌華;;卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展與應(yīng)用綜述[J];信息通信;2019年02期
7 韓真;凱文·哈特尼特;;為神經(jīng)網(wǎng)絡(luò)的通用理論建造基石[J];世界科學(xué);2019年04期
8 鮑偉強;陳娟;熊濤;;基于進化神經(jīng)網(wǎng)絡(luò)的短期電力負荷預(yù)測研究[J];電工技術(shù);2019年11期
9 王麗華;楊秀萍;王皓;高崢翔;;智能雙輪平衡車的設(shè)計研究[J];數(shù)字技術(shù)與應(yīng)用;2018年04期
10 張庭略;;基于硬件的神經(jīng)網(wǎng)絡(luò)加速[J];通訊世界;2018年08期
相關(guān)會議論文 前10條
1 孫軍田;張U
本文編號:2682263
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/2682263.html