應(yīng)用于客服領(lǐng)域的對話生成方法研究
發(fā)布時間:2021-06-25 03:54
圖靈測試是人工智能領(lǐng)域王冠上的明珠,而對話則是圖靈測試的一種實(shí)現(xiàn)。本文就生成式的對話方法進(jìn)行研究,并將對話生成模型應(yīng)用于客服領(lǐng)域的問答之中。首先,本文在網(wǎng)上爬取了大量中文對話數(shù)據(jù),建立了中文對話數(shù)據(jù)庫,該數(shù)據(jù)庫共包含325萬條問答對。其次,構(gòu)建了基于監(jiān)督學(xué)習(xí)的對話模型。該模型由一個編碼器和一個解碼器構(gòu)成,其中編碼器將輸入問題序列編碼成中間語義向量,解碼器將中間語義向量解碼為輸出回答序列。同時,將注意力機(jī)制和復(fù)制機(jī)制進(jìn)行融合,并加入到對話生成模型之中,這兩種機(jī)制有效地提高了對話模型生成句子的質(zhì)量。然后,針對中文可以用漢語拼音表示這一特點(diǎn),提出了采用拼音降維的中文對話模型。模型以拼音作為輸入,將拼音分為聲母、韻母和聲調(diào)三個部分,以此減小輸入維度。之后以嵌入編碼的方法將拼音信息組合為拼音圖的形式,并通過全卷積神經(jīng)網(wǎng)絡(luò)和雙向LSTM網(wǎng)絡(luò)分別提取基于單個字的拼音特征和基于上下文的拼音特征。采用拼音降維的中文對話模型有效地降低了模型的空間復(fù)雜度和時間復(fù)雜度,對構(gòu)建大型中文對話模型有很大幫助。最后,提出了一種結(jié)合強(qiáng)化學(xué)習(xí)和生成式對抗網(wǎng)絡(luò)的對話生成模型。該模型將對話生成任務(wù)當(dāng)作一個強(qiáng)化學(xué)習(xí)過程,從而促...
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:71 頁
【學(xué)位級別】:碩士
【部分圖文】:
循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[56]
上海交通大學(xué)碩士學(xué)位論文第五章基于對抗的強(qiáng)化學(xué)習(xí)的對話生成模型36區(qū)分出回答句子是由生成器生成的還是人類生成的。在訓(xùn)練中交替地對生成器和判別器進(jìn)行參數(shù)更新,從而使生成器生成的句子越來越類似于人類生成的句子。生成式對抗網(wǎng)絡(luò)的結(jié)構(gòu)如圖5.1所示:圖5.2生成式對抗網(wǎng)絡(luò)框架[24]Figure5.2FrameworkofGenerativeAdversarialNetwork生成器的作用是根據(jù)輸入問題生成高質(zhì)量對話從而混淆判別器,當(dāng)?shù)玫絾栴}輸入}x,,x,{x1T21x時,生成器將會生成一個回答},,,{221Tyyyy,其中1T為輸入問題的長度,2T生成回答的長度。生成器模型的參數(shù)進(jìn)行更新如式(5.1)、(5.2)所示:ExxGD)15.()))],(,(1[log(min)2.5(},,,,{)(221TyyyxG上式中G為生成器模型,D為判別器模型,由式(5.1)可以看到,為了最小化損失函數(shù),生成器將盡可能生成可以混淆判別器判斷的句子。由于對話問題中輸入和輸出都是序列,采用第三章提到的Seq2Seq模型作為生成式對抗網(wǎng)絡(luò)中的生成器,該模型包含用于將輸入轉(zhuǎn)換為中間語義的編碼器,以及用于將中間語義解碼為輸出的解碼器。為了結(jié)合前后文信息,以一個雙向LSTM網(wǎng)絡(luò)作為Seq2Seq模型的編碼器,并將一個結(jié)合了注意力機(jī)制的多層GRU網(wǎng)絡(luò)作為Seq2Seq模型的解碼器。判別器的作用是區(qū)分出回答句子是由生成器生成的還是人類生成的。將判別器作為一個二分類器,在訓(xùn)練時以輸入問題},,,{121Txxxx和生成器生成的回答},,,{221Tyyyy組成的問答對},{yx作為負(fù)樣本,以輸入問題和人類生成的回答},,,{321Tyyyy組成的問答對},{yx作為正樣本對判別器模型的參數(shù)進(jìn)
上海交通大學(xué)碩士學(xué)位論文第五章基于對抗的強(qiáng)化學(xué)習(xí)的對話生成模型39模型的決策不斷生成詞匯,并最終采樣出多個完整的句子從而計算針對每一個詞匯的獎勵。N次(實(shí)驗(yàn)中設(shè)為5)蒙特卡洛搜索如式(5.8)所示:)5.8(}.,,{),(,1,:1NiiijCyyyNM上式中,當(dāng)給定一個不完整的句子ijy:1時,為了計算第j個單詞的獎勵,生成器將以不完整的句子作為前綴,不斷地生成單詞并將生成的單詞添加到句子中,直到生成了一個完整的句子為止。該過程會被重復(fù)N次,這樣通過蒙特卡洛搜索算法就得到了N個完整的句子。然后這N個完整的句子被輸入到判別器中,每個句子都對應(yīng)著一個獎勵。最后這N個句子的獎勵均值會被作為第j個單詞的獎勵,如式(5.9)所示:)9.5(),,(,),(1:1,1,,yxDrNyMyCNijniNnniihumanij蒙特卡洛搜索的流程如圖5.3所示:圖5.3蒙特卡洛搜索流程[36]Figure5.3ProcessofMonteCarloSearch5.2遞減真值替換率5.2.1exposurebias問題Bengio[37]等在2013年發(fā)表的論文指出Seq2Seq模型存在exposurebias問題。即解碼器在訓(xùn)練階段生成句子時以真值作為當(dāng)前時刻的輸入,而在測試階段生成句子時以上一時刻的輸出作為當(dāng)前時刻的輸入。這是因?yàn)镾eq2Seq模型在訓(xùn)練階段需要真值作為參數(shù)更新的指導(dǎo),從而使模型可以收斂。Exposurebias問題如圖5.4所示:
本文編號:3248441
【文章來源】:上海交通大學(xué)上海市 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:71 頁
【學(xué)位級別】:碩士
【部分圖文】:
循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)[56]
上海交通大學(xué)碩士學(xué)位論文第五章基于對抗的強(qiáng)化學(xué)習(xí)的對話生成模型36區(qū)分出回答句子是由生成器生成的還是人類生成的。在訓(xùn)練中交替地對生成器和判別器進(jìn)行參數(shù)更新,從而使生成器生成的句子越來越類似于人類生成的句子。生成式對抗網(wǎng)絡(luò)的結(jié)構(gòu)如圖5.1所示:圖5.2生成式對抗網(wǎng)絡(luò)框架[24]Figure5.2FrameworkofGenerativeAdversarialNetwork生成器的作用是根據(jù)輸入問題生成高質(zhì)量對話從而混淆判別器,當(dāng)?shù)玫絾栴}輸入}x,,x,{x1T21x時,生成器將會生成一個回答},,,{221Tyyyy,其中1T為輸入問題的長度,2T生成回答的長度。生成器模型的參數(shù)進(jìn)行更新如式(5.1)、(5.2)所示:ExxGD)15.()))],(,(1[log(min)2.5(},,,,{)(221TyyyxG上式中G為生成器模型,D為判別器模型,由式(5.1)可以看到,為了最小化損失函數(shù),生成器將盡可能生成可以混淆判別器判斷的句子。由于對話問題中輸入和輸出都是序列,采用第三章提到的Seq2Seq模型作為生成式對抗網(wǎng)絡(luò)中的生成器,該模型包含用于將輸入轉(zhuǎn)換為中間語義的編碼器,以及用于將中間語義解碼為輸出的解碼器。為了結(jié)合前后文信息,以一個雙向LSTM網(wǎng)絡(luò)作為Seq2Seq模型的編碼器,并將一個結(jié)合了注意力機(jī)制的多層GRU網(wǎng)絡(luò)作為Seq2Seq模型的解碼器。判別器的作用是區(qū)分出回答句子是由生成器生成的還是人類生成的。將判別器作為一個二分類器,在訓(xùn)練時以輸入問題},,,{121Txxxx和生成器生成的回答},,,{221Tyyyy組成的問答對},{yx作為負(fù)樣本,以輸入問題和人類生成的回答},,,{321Tyyyy組成的問答對},{yx作為正樣本對判別器模型的參數(shù)進(jìn)
上海交通大學(xué)碩士學(xué)位論文第五章基于對抗的強(qiáng)化學(xué)習(xí)的對話生成模型39模型的決策不斷生成詞匯,并最終采樣出多個完整的句子從而計算針對每一個詞匯的獎勵。N次(實(shí)驗(yàn)中設(shè)為5)蒙特卡洛搜索如式(5.8)所示:)5.8(}.,,{),(,1,:1NiiijCyyyNM上式中,當(dāng)給定一個不完整的句子ijy:1時,為了計算第j個單詞的獎勵,生成器將以不完整的句子作為前綴,不斷地生成單詞并將生成的單詞添加到句子中,直到生成了一個完整的句子為止。該過程會被重復(fù)N次,這樣通過蒙特卡洛搜索算法就得到了N個完整的句子。然后這N個完整的句子被輸入到判別器中,每個句子都對應(yīng)著一個獎勵。最后這N個句子的獎勵均值會被作為第j個單詞的獎勵,如式(5.9)所示:)9.5(),,(,),(1:1,1,,yxDrNyMyCNijniNnniihumanij蒙特卡洛搜索的流程如圖5.3所示:圖5.3蒙特卡洛搜索流程[36]Figure5.3ProcessofMonteCarloSearch5.2遞減真值替換率5.2.1exposurebias問題Bengio[37]等在2013年發(fā)表的論文指出Seq2Seq模型存在exposurebias問題。即解碼器在訓(xùn)練階段生成句子時以真值作為當(dāng)前時刻的輸入,而在測試階段生成句子時以上一時刻的輸出作為當(dāng)前時刻的輸入。這是因?yàn)镾eq2Seq模型在訓(xùn)練階段需要真值作為參數(shù)更新的指導(dǎo),從而使模型可以收斂。Exposurebias問題如圖5.4所示:
本文編號:3248441
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3248441.html
最近更新
教材專著