天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 信息工程論文 >

基于高層信息融合的短語音說話人識(shí)別方法研究

發(fā)布時(shí)間:2017-09-05 14:27

  本文關(guān)鍵詞:基于高層信息融合的短語音說話人識(shí)別方法研究


  更多相關(guān)文章: 篩選高斯分量 韻律特征 二次判決 特征降維 身份矢量


【摘要】:語音信號(hào)是人類情感交流和認(rèn)知分享的重要載體,也是人類最基本和最自然的交流方式。說話人識(shí)別是研究如何從語音波紋中提取能表征語者個(gè)性化特征的信息,進(jìn)而利用該個(gè)性化信息通過建模方式對(duì)語者的身份做出判決的技術(shù)。高斯混合模型憑借其出色的性能而被廣泛地應(yīng)用于說話人識(shí)別領(lǐng)域。為了解決測(cè)試環(huán)境與訓(xùn)練環(huán)境失配的問題,主流模型通常會(huì)引入一個(gè)非目標(biāo)人模型,非目標(biāo)說話人模型包括通用背景模型和競(jìng)爭(zhēng)模型,引入通用背景模型后構(gòu)成GMM-UBM系統(tǒng)。針對(duì)個(gè)人GMM與UBM音素空間不匹配的問題,Reynolds提出基于最大后驗(yàn)概率升級(jí)的UBM-MAP-GMM系統(tǒng)。與此同時(shí),隨著基于聲道信息的淺層特征參數(shù)的提取逐漸進(jìn)入了瓶頸期,學(xué)者們將注意力轉(zhuǎn)向了高層信息融合的新特征,如基于聲門信息的韻律特征。除此之外,針對(duì)通道失配等補(bǔ)償技術(shù)被不斷地提出,其中JFA和i-vector憑借其夯實(shí)的理論基礎(chǔ)而備受青睞,其將低維語音信號(hào)映射至高維超矢量空間后進(jìn)行分析;谏鲜龇治,本論文主要研究以下內(nèi)容:1、針對(duì)UBM-MAP-GMM系統(tǒng)中部分高斯分量具有低區(qū)分性甚至拉低系統(tǒng)得分,提出了一種基于篩選高斯分量的確認(rèn)方法。通常認(rèn)為GMM中各高斯分量代表空間音素類,而UBM代表普遍的聲學(xué)信息類。通過UBM自適應(yīng)得到的個(gè)人GMM中不僅具有語者個(gè)性化的信息,也包含了在訓(xùn)練階段完全不存在的非說話人信息。另外值得考慮的是,用于訓(xùn)練個(gè)人GMM的語音受限于時(shí)長(zhǎng)和文本內(nèi)容等,導(dǎo)致部分音素類信息不足,進(jìn)而導(dǎo)致對(duì)部分音素類信息的建模出現(xiàn)偏差。體現(xiàn)在自適應(yīng)后的個(gè)人GMM中就是有些高斯分量無法準(zhǔn)確地描述語者信息,即具有低區(qū)分性。實(shí)驗(yàn)結(jié)果表明,改進(jìn)后的系統(tǒng)識(shí)別性能得到改善。2、針對(duì)基于淺層聲道特性的特征參數(shù)對(duì)識(shí)別性能的提升乏力,提出了一種基于高層信息融合的確認(rèn)方法,該方法巧妙地將淺層短時(shí)特征參數(shù)和高層信息通過二次判決機(jī)制融合在了同一框架中。理論上,反映聲道特性的短時(shí)特征參數(shù)與反映聲門信息的韻律特征參數(shù)從不同角度刻畫了語者,故具有互補(bǔ)進(jìn)而提升系統(tǒng)性能的能力。實(shí)驗(yàn)結(jié)果表明,結(jié)合基頻和共振峰等高層信息的文本依賴的確認(rèn)系統(tǒng)能有效地降低等錯(cuò)誤率。3、針對(duì)降維后特定主成分中蘊(yùn)含說話人個(gè)性化信息,提出一種基于降維超矢量的說話人確認(rèn)算法。由最大后驗(yàn)概率算法得到的個(gè)人GMM的高斯超矢量,經(jīng)過特征降維處理后發(fā)現(xiàn)前兩維主成分中蘊(yùn)含的性別信息明顯,而前特定維主成分中則蘊(yùn)含的語者個(gè)性化信息明顯;谇罢,首先提出一種性別選擇策略和GMM-SUBM架構(gòu);诤笳,本文通過實(shí)驗(yàn)確定用于表征測(cè)試者身份的最佳維度。實(shí)驗(yàn)結(jié)果表明,該方法能通過低復(fù)雜度算法提取得到一個(gè)身份矢量來表征語者,同時(shí)在短語音時(shí)系統(tǒng)識(shí)別效果得到改善。
【關(guān)鍵詞】:篩選高斯分量 韻律特征 二次判決 特征降維 身份矢量
【學(xué)位授予單位】:杭州電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TN912.34
【目錄】:
  • 摘要5-6
  • ABSTRACT6-11
  • 第1章 緒論11-21
  • 1.1 研究背景及意義11
  • 1.2 說話人識(shí)別概述11-17
  • 1.2.1 說話人識(shí)別分類12-14
  • 1.2.2 說話人確認(rèn)系統(tǒng)基本原理14-15
  • 1.2.3 說話人確認(rèn)系統(tǒng)評(píng)價(jià)指標(biāo)15-17
  • 1.3 研究歷程與現(xiàn)狀17-19
  • 1.4 本文的主要內(nèi)容及結(jié)構(gòu)安排19-20
  • 1.5 本章小結(jié)20-21
  • 第2章 聲紋識(shí)別基礎(chǔ)概述21-38
  • 2.1 引言21
  • 2.2 聲紋特征概述21-24
  • 2.2.1 線性預(yù)測(cè)倒譜系數(shù)22
  • 2.2.2 梅爾頻率倒譜系數(shù)22-24
  • 2.2.3 伽馬通濾波倒譜系數(shù)24
  • 2.3 規(guī)整算法24-29
  • 2.3.1 倒譜均值方差規(guī)整25
  • 2.3.2 相關(guān)頻譜濾波器25-26
  • 2.3.3 特征彎折26-27
  • 2.3.4 基于聲門信息剝離的特征規(guī)整27-29
  • 2.4 聲紋識(shí)別中常用技術(shù)介紹29-33
  • 2.4.1 最大期望迭代算法29-31
  • 2.4.2 聯(lián)合因子算法31
  • 2.4.3 主成分分析算法31-32
  • 2.4.4 動(dòng)態(tài)時(shí)間規(guī)劃算法32-33
  • 2.5 高斯混合模型及其參數(shù)估計(jì)33-37
  • 2.5.1 高斯混合模型基本概念及其物理意義33-36
  • 2.5.2 基于高斯混合模型的確認(rèn)系統(tǒng)36-37
  • 2.6 本章小結(jié)37-38
  • 第3章 基于篩選高斯分量的說話人確認(rèn)方法38-52
  • 3.1 引言38-39
  • 3.2 基于自適應(yīng)模型的確認(rèn)算法39-44
  • 3.2.1 自適應(yīng)模型基本原理39-41
  • 3.2.2 自適應(yīng)模型參數(shù)更新41-44
  • 3.3 基于篩選高斯分量的確認(rèn)算法44-48
  • 3.3.1 高斯分量區(qū)分性能分析44-45
  • 3.3.2 基于挑選機(jī)制的確認(rèn)算法45-47
  • 3.3.3 算法流程47-48
  • 3.4 仿真實(shí)驗(yàn)與數(shù)據(jù)分析48-51
  • 3.4.1 實(shí)驗(yàn)數(shù)據(jù)庫介紹48-49
  • 3.4.2 實(shí)驗(yàn)仿真結(jié)果與分析49-51
  • 3.5 本章小結(jié)51-52
  • 第4章 基于高層信息融合的短語音確認(rèn)方法52-63
  • 4.1 引言52-53
  • 4.2 韻律特征53-55
  • 4.2.1 基音頻率53-54
  • 4.2.2 共振峰54-55
  • 4.3 基于高層信息融合的短語音確認(rèn)方法55-57
  • 4.4 實(shí)驗(yàn)仿真與性能分析57-62
  • 4.4.1 實(shí)驗(yàn)數(shù)據(jù)庫介紹57
  • 4.4.2 實(shí)驗(yàn)仿真結(jié)果與分析57-62
  • 4.5 文章小結(jié)62-63
  • 第5章 基于超矢量降維的說話人確認(rèn)方法63-73
  • 5.1 引言63-64
  • 5.2 基于分類與降維的確認(rèn)算法64-67
  • 5.2.1 基于分類的確認(rèn)方法65-66
  • 5.2.2 基于降維的確認(rèn)方法66-67
  • 5.3 仿真實(shí)驗(yàn)與結(jié)果分析67-72
  • 5.3.1 實(shí)驗(yàn)數(shù)據(jù)庫介紹67-68
  • 5.3.2 實(shí)驗(yàn)仿真結(jié)果與分析68-72
  • 5.4 小結(jié)72-73
  • 第6章 總結(jié)73-74
  • 致謝74-75
  • 參考文獻(xiàn)75-79
  • 附錄79

【相似文獻(xiàn)】

中國(guó)期刊全文數(shù)據(jù)庫 前10條

1 石艷;王曉曄;;新穎檢測(cè)法在說話人識(shí)別技術(shù)中的應(yīng)用[J];現(xiàn)代計(jì)算機(jī)(專業(yè)版);2008年07期

2 劉雪燕;張娜;袁寶玲;;說話人識(shí)別綜述[J];電腦知識(shí)與技術(shù);2009年01期

3 邱政權(quán);范小春;王俊年;;基于動(dòng)態(tài)環(huán)境下的說話人識(shí)別[J];科學(xué)技術(shù)與工程;2010年02期

4 單進(jìn);;說話人識(shí)別技術(shù)研究[J];科技資訊;2010年21期

5 申志生;于明;;說話人識(shí)別算法的定點(diǎn)DSP實(shí)現(xiàn)[J];單片機(jī)與嵌入式系統(tǒng)應(yīng)用;2011年03期

6 謝建勛;;淺談?wù)f話人識(shí)別技術(shù)[J];電腦知識(shí)與技術(shù);2011年11期

7 安茂波;劉建;;一個(gè)快速說話人識(shí)別系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn)[J];網(wǎng)絡(luò)新媒體技術(shù);2012年03期

8 楊迪;戚銀城;劉明軍;張華芳子;武軍娜;;說話人識(shí)別綜述[J];電子科技;2012年06期

9 武光利;;說話人識(shí)別方法概述[J];硅谷;2012年19期

10 曹業(yè)敏,侯風(fēng)雷,王炳錫;說話人識(shí)別技術(shù)現(xiàn)狀與進(jìn)展[J];河南科技;1998年09期

中國(guó)重要會(huì)議論文全文數(shù)據(jù)庫 前10條

1 鮑福良;方志剛;徐潔;;說話人識(shí)別綜述[A];第六屆全國(guó)信息獲取與處理學(xué)術(shù)會(huì)議論文集(2)[C];2008年

2 孫帆;遲惠生;;循環(huán)網(wǎng)絡(luò)說話人識(shí)別[A];第二屆全國(guó)人機(jī)語音通訊學(xué)術(shù)會(huì)議論文集[C];1992年

3 肖劍;歐貴文;;多層前饋神經(jīng)網(wǎng)絡(luò)組的文本無關(guān)說話人識(shí)別[A];第七屆全國(guó)人機(jī)語音通訊學(xué)術(shù)會(huì)議(NCMMSC7)論文集[C];2003年

4 張玲華;鄭寶玉;楊震;;模糊超橢球聚類算法及其在說話人識(shí)別中的應(yīng)用研究[A];第八屆全國(guó)人機(jī)語音通訊學(xué)術(shù)會(huì)議論文集[C];2005年

5 王宏;潘金貴;;基于矩陣正態(tài)分布的文本有關(guān)說話人識(shí)別[A];2007通信理論與技術(shù)新發(fā)展——第十二屆全國(guó)青年通信學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2007年

6 戴紅霞;趙力;;文本無關(guān)說話人識(shí)別系統(tǒng)的研究[A];2007’促進(jìn)西部發(fā)展聲學(xué)學(xué)術(shù)交流會(huì)論文集[C];2007年

7 陳聯(lián)武;郭武;戴禮榮;;說話人識(shí)別系統(tǒng)中多樣訓(xùn)練的應(yīng)用[A];第十一屆全國(guó)人機(jī)語音通訊學(xué)術(shù)會(huì)議論文集(一)[C];2011年

8 崔玉紅;胡光銳;;基于神經(jīng)網(wǎng)絡(luò)特征維數(shù)壓縮方法及其在說話人識(shí)別中的應(yīng)用[A];第十屆全國(guó)信號(hào)處理學(xué)術(shù)年會(huì)(CCSP-2001)論文集[C];2001年

9 吳麗麗;;基于仿生模式識(shí)別的說話人識(shí)別學(xué)習(xí)模型研究[A];第二屆中國(guó)科學(xué)院博士后學(xué)術(shù)年會(huì)暨高新技術(shù)前沿與發(fā)展學(xué)術(shù)會(huì)議程序冊(cè)[C];2010年

10 張晶;董金明;馮文全;;說話人識(shí)別系統(tǒng)研究與實(shí)現(xiàn)[A];全國(guó)第二屆信號(hào)處理與應(yīng)用學(xué)術(shù)會(huì)議專刊[C];2008年

中國(guó)重要報(bào)紙全文數(shù)據(jù)庫 前2條

1 汪永安;科大訊飛說話人識(shí)別技術(shù)世界領(lǐng)先[N];安徽日?qǐng)?bào);2008年

2 吳長(zhǎng)鋒;科大訊飛勇奪說話人識(shí)別國(guó)際大賽第一[N];科技日?qǐng)?bào);2008年

中國(guó)博士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 單振宇;情感說話人識(shí)別及其解決方法的研究[D];浙江大學(xué);2010年

2 別凡虎;說話人識(shí)別中區(qū)分性問題的研究[D];清華大學(xué);2015年

3 謝怡寧;基于稀疏編碼的魯棒說話人識(shí)別方法研究[D];哈爾濱理工大學(xué);2016年

4 安冬;噪聲背景下說話人識(shí)別的若干關(guān)鍵問題研究[D];東北大學(xué);2013年

5 吳迪;低信噪比環(huán)境下說話人識(shí)別研究[D];蘇州大學(xué);2016年

6 酆勇;基于深度學(xué)習(xí)的說話人識(shí)別建模研究[D];重慶大學(xué);2016年

7 陸偉;基于缺失特征的文本無關(guān)說話人識(shí)別魯棒性研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2008年

8 劉鏑;說話人識(shí)別中信息融合算法的研究[D];北京交通大學(xué);2011年

9 付中華;說話人識(shí)別系統(tǒng)魯棒性研究[D];西北工業(yè)大學(xué);2004年

10 林琳;基于模糊聚類與遺傳算法的說話人識(shí)別理論研究及應(yīng)用[D];吉林大學(xué);2007年

中國(guó)碩士學(xué)位論文全文數(shù)據(jù)庫 前10條

1 叢菡菡;基于支持相量機(jī)的穩(wěn)鍵說話人識(shí)別[D];電子科技大學(xué);2008年

2 任舒彬;面向手持應(yīng)用的說話人識(shí)別算法研究[D];浙江大學(xué);2006年

3 申志生;文本相關(guān)說話人識(shí)別嵌入式系統(tǒng)及其關(guān)鍵技術(shù)研究[D];河北工業(yè)大學(xué);2011年

4 汪q,

本文編號(hào):798542


資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/798542.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶497f3***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com