天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 信息工程論文 >

基于信號稀疏特性的語音增強算法研究

發(fā)布時間:2020-09-27 07:21
   語音增強是語音信號處理中的一個重要研究方向,在遠(yuǎn)程通信、助聽設(shè)備、智能家電、人機交互以及智能會議系統(tǒng)中有著廣泛的應(yīng)用。語音增強算法一般利用干凈信號與噪聲在結(jié)構(gòu)特性上的差異,采用數(shù)學(xué)方法將觀測到含有噪聲的語音信號變換到新的域。在這個新的域內(nèi),語音和噪聲的區(qū)分性變得更加明顯。具體而言,干凈語音對應(yīng)的系數(shù)往往是稀疏分布的,而噪聲對應(yīng)的系數(shù)則是隨機分布的。因而只需簡單的數(shù)學(xué)操作就可以實現(xiàn)語音和噪聲的分離。然而現(xiàn)行的語音增強系統(tǒng)仍然有諸多問題沒有解決。比如說,在很多算法中,噪聲通常被假設(shè)為近似平穩(wěn)的。這意味著與干凈語音相比,噪聲幅度的變化速度相對緩慢。在噪聲不滿足平穩(wěn)性假設(shè)時,很多語音增強算法會面臨性能損失,甚至?xí)䦟?dǎo)致明顯的語音失真。為此,研究者們提出將多個相同型號的麥克風(fēng)按照一定形狀組成麥克風(fēng)陣列,進(jìn)而發(fā)展出了豐富的多通道語音增強算法。此外,真實場景中往往還存在著混響和回聲等,這給多通道語音增強算法帶來嚴(yán)峻的考驗。本文基于干凈語音信號在不同變換域中體現(xiàn)的稀疏特性,提出了幾種行之有效的語音增強算法,主要工作可以概括如下:首先,針對在時域呈現(xiàn)稀疏和非平穩(wěn)特性,且在時間上隨機分布、幅度任意大的沖擊噪聲,提出一個基于單通道的魯棒的時頻分解模型,將受噪聲污染數(shù)據(jù)中的干凈語音成分投影到一個離散余弦變換字典上,將沖擊噪聲投影到一個單位矩陣字典上。通過控制兩組投影系數(shù)的稀疏度比例,并采用一種改進(jìn)的正交匹配追蹤算法,可以優(yōu)化得到兩種成分對應(yīng)的稀疏投影矢量,進(jìn)而實現(xiàn)對干凈語音成分的重構(gòu)。通過控制稀疏度的比例和重構(gòu)誤差的大小,可以控制語音失真和噪聲殘留之間的平衡,從而取得最佳的聽覺效果。其次,針對在實際環(huán)境中存在的方向性、無方向噪聲,提出對多通道音頻數(shù)據(jù)流做并行化處理。采用一個固定長和寬的矩形窗口,在多通道音頻流上按照一定的速度均勻滑動。在每個特定時刻,只針對窗口選取的數(shù)據(jù)矩陣的行、列作線性變換,從而實現(xiàn)空時協(xié)同濾波。我們采用迭代的方式分別更新時間濾波器矩陣和空間濾波器矩陣。基于最小均方誤差準(zhǔn)則,首先固定時間濾波器,更新空間濾波器;然后固定空間濾波器,更新時間濾波器;整個過程在兩到三個循環(huán)即可收斂。最終,可以一次性得到對應(yīng)所有通道的增強之后的語音數(shù)據(jù)。再次,為了充分利用多通道觀測數(shù)據(jù)中攜帶的時間和空間信息,先對每個通道輸出的音頻數(shù)據(jù)流進(jìn)行分幀,然后把這些幀重排為一個矩陣。更進(jìn)一步,將對應(yīng)于各通道音頻流的矩陣堆疊成一個三階張量,并設(shè)計三個濾波器(即幀內(nèi)濾波器,幀間濾波器,空間濾波器),對該觀測張量進(jìn)行空時協(xié)同濾波;谧钚【秸`差準(zhǔn)則,采用一種循環(huán)迭代的方式交替更新三個濾波器,直到整個過程收斂。該方法可以一次性地估計得到所有通道內(nèi)的干凈語音數(shù)據(jù)。最后,基于上述三階張量模型,我們提出將張量分解的方法用于多通道語音降噪。我們把含噪聲的觀測語音張量投影到設(shè)計好的正交基矩陣上,這包括通用基矩陣、有監(jiān)督基矩陣、無監(jiān)督基矩陣。通用基矩陣為三維離散余弦變換基矩陣,有監(jiān)督基矩陣可以從預(yù)先提供的干凈語音學(xué)習(xí)得到,無監(jiān)督基矩陣則從含噪聲的語音張量中自動推理獲得。投影系數(shù)被包含在一個具有同樣尺寸的核心張量內(nèi)。根據(jù)最小化統(tǒng)計風(fēng)險準(zhǔn)則,可以設(shè)計出一種最佳的門限閾值;將核心張量中幅度低于該閾值的元素全部置零,即可實現(xiàn)噪聲的抑制。
【學(xué)位單位】:中國科學(xué)技術(shù)大學(xué)
【學(xué)位級別】:博士
【學(xué)位年份】:2018
【中圖分類】:TN912.35
【部分圖文】:

過程圖,字典,非負(fù),鯨魚


其短時傅里葉變換(Short-Term邋Fourier邋Transform,邋STFT)的幅度譜來表示[見圖逡逑2.2(c)]。為了學(xué)習(xí)得到目標(biāo)源的字典,我們使用了預(yù)先提供的對干凈鯨魚歌聲逡逑的錄音。圖2.2(b)展示了我們學(xué)習(xí)得到的字典?梢钥吹剑值湓佑行Р蹲藉义系搅琐L魚歌聲中較為顯著的頻譜特征。重復(fù)同樣的過程,我們可以通過背景噪逡逑聲數(shù)據(jù)學(xué)習(xí)得到關(guān)于海雜波的較為顯著的特征。一般而言,我們只需要幾秒鐘逡逑22逡逑I逡逑

基于信號稀疏特性的語音增強算法研究


圖2.邋3邋DNN用于預(yù)測cIRM邋[71]逡逑26逡逑

波形,波形,基矩陣,唱片


或者這些模型的組合形式;镜脑肼曨愋桶ǜ咚乖肼暎ㄈ珉娫肼暤龋_擊逡逑噪聲(如短時click等)!案咚挂粵_擊”混合噪聲則有可能出現(xiàn)在VoIP系統(tǒng)和逡逑一些上世紀(jì)錄制的老舊唱片中。圖2.4展示了一段從78邋rpm老唱片上截取的波逡逑形?梢钥吹剑摮嬖诖罅肯∈璺植嫉碾x群點,也就是沖擊噪聲。這給音逡逑頻質(zhì)量帶來了較大的損傷,極大地降低了音樂愛好者對唱片的滿意度。本節(jié)我逡逑們將介紹時頻稀疏分解在數(shù)字語音修復(fù)中的具體應(yīng)用m。逡逑2.邋5.邋1基于稀疏性的分離技術(shù)逡逑首先考慮最基本的信號分離模型。假設(shè)混合信號s由V邋s2eRixl兩部分組逡逑成?紤]如下線性模型逡逑s邋=邋sI+s2+n.邐(2.66)逡逑此處n能量受限且服從零均值高斯分布,信號源81;邋s2分別可以被基矩陣逡逑A邋e邋和B邋e邐稀疏表示(A和&一般大于1邋)。不難有:逡逑s邋=邋Ax邋+邋By邋+邋n,邐(2.67)逡逑此處X和y分別為信號源S15邋82在基矩陣A、B上的稀疏投影矢量。一般而言,逡逑S和82的分離可以通過如下稀疏優(yōu)化問題來解決:逡逑min邋||s-Ax-Byg邋+邋A'||x||0邋+/l'||y||0邋.邐(2.68)逡逑此處/。范數(shù)被用來計算投影矢量中的非零元素個數(shù)。通過把字典A、B拼接起逡逑來,上述問題可以轉(zhuǎn)化為:逡逑呼1邋||S-Cz|丨+1’H。邐(2.69)逡逑27逡逑

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 石玲;;基于計算機聲卡的譜相減語音增強系統(tǒng)分析[J];信息與電腦(理論版);2010年02期

2 孫濤;;基于計算機聲卡的譜相減語音增強系統(tǒng)分析[J];南昌教育學(xué)院學(xué)報;2010年05期

3 薛慧君;李盛;路國華;張楊;焦騰;王健琪;荊西京;;提升小波用于非接觸語音增強算法的研究[J];醫(yī)療衛(wèi)生裝備;2013年05期

4 胡海波;劉柏森;許銀;;基于小波變換的語音增強研究[J];黑龍江工程學(xué)院學(xué)報(自然科學(xué)版);2011年01期

5 任濟生;任鵬;吉愛國;曹茂永;;基于小波變換的雙通道相干語音增強[J];電子器件;2008年04期

6 ;Soata III:E1高密度回音消除和StudioSound級語音增強系統(tǒng)[J];通訊世界;2003年02期

7 董胡;錢盛友;;基于小波變換的語音增強方法研究[J];計算機工程與應(yīng)用;2007年31期

8 柯健;徐志京;;基于生成對抗網(wǎng)絡(luò)的語音增強算法研究[J];信息技術(shù)與網(wǎng)絡(luò)安全;2018年05期

9 張小宇;劉云清;趙馨;;基于時域濾波多頻段譜減法的語音增強[J];長春理工大學(xué)學(xué)報(自然科學(xué)版);2017年04期

10 屈趙燕;;基于盲源分離的單通道語音增強算法探究[J];產(chǎn)業(yè)與科技論壇;2016年03期

相關(guān)會議論文 前10條

1 王世偉;胡笑滸;鄭成詩;李曉東;;一種改進(jìn)的基于能量差語音增強算法[A];中國聲學(xué)學(xué)會第九屆青年學(xué)術(shù)會議論文集[C];2011年

2 江峰;李曉東;;適用于抑制非平穩(wěn)背景噪聲的語音增強算法[A];中國聲學(xué)學(xué)會2003年青年學(xué)術(shù)會議[CYCA'03]論文集[C];2003年

3 閻兆立;杜利民;;維納后濾波語音增強算法研究[A];中國聲學(xué)學(xué)會2005年青年學(xué)術(shù)會議[CYCA'05]論文集[C];2005年

4 童峰;許肖梅;洪青陽;;一種帶階數(shù)估計的語音增強算法[A];第八屆全國人機語音通訊學(xué)術(shù)會議論文集[C];2005年

5 袁榕嶸;吳鳴;楊軍;;雙麥克風(fēng)語音增強快速算法[A];泛在信息社會中的聲學(xué)——中國聲學(xué)學(xué)會2010年全國會員代表大會暨學(xué)術(shù)會議論文集[C];2010年

6 國雁萌;;一種極低信噪比條件下的語音增強方法[A];第六屆全國人機語音通訊學(xué)術(shù)會議論文集[C];2001年

7 李海峰;韓紀(jì)慶;鄭鐵然;;元音、輔音粗判自適應(yīng)電話語音增強方法[A];第七屆全國人機語音通訊學(xué)術(shù)會議(NCMMSC7)論文集[C];2003年

8 樓廈廈;鄭成詩;李曉東;;濾波器權(quán)值約束對自適應(yīng)零限波束形成語音增強算法魯棒性影響分析[A];中國聲學(xué)學(xué)會2007年青年學(xué)術(shù)會議論文集(上)[C];2007年

9 丁沛;曹志剛;;基于語音增強失真補償?shù)目乖肼曊Z音識別技術(shù)[A];第七屆全國人機語音通訊學(xué)術(shù)會議(NCMMSC7)論文集[C];2003年

10 吳亞棟;吳旭輝;;一種基于自相關(guān)域動態(tài)噪聲估計方式的語音增強法[A];第六屆全國人機語音通訊學(xué)術(shù)會議論文集[C];2001年

相關(guān)重要報紙文章 前3條

1 ;NMS Sonata Ⅲ/Studio Sound級語音增強系統(tǒng)話音更清晰[N];中國計算機報;2003年

2 本報記者 馬楠;NMS市場目標(biāo)轉(zhuǎn)向無線服務(wù)提供商[N];通信產(chǎn)業(yè)報;2001年

3 ;VoIP服務(wù)不只是便宜的通話[N];網(wǎng)絡(luò)世界;2002年

相關(guān)博士學(xué)位論文 前10條

1 童仁杰;基于信號稀疏特性的語音增強算法研究[D];中國科學(xué)技術(shù)大學(xué);2018年

2 王冬霞;麥克風(fēng)陣列語音增強的若干方法研究[D];大連理工大學(xué);2007年

3 歐世峰;變換域語音增強算法的研究[D];吉林大學(xué);2008年

4 孫琦;基于子空間的低計算復(fù)雜度語音增強算法研究[D];吉林大學(xué);2017年

5 夏丙寅;面向移動通信的單通道語音增強方法研究[D];北京工業(yè)大學(xué);2014年

6 姚峰英;語音增強系統(tǒng)的研究與實現(xiàn)[D];中國科學(xué)院上海冶金研究所;2001年

7 張龍;有監(jiān)督學(xué)習(xí)條件下的單通道語音增強算法研究[D];中國科學(xué)技術(shù)大學(xué);2017年

8 劉威;單通道語音水印與語音增強算法研究[D];東南大學(xué);2017年

9 章雒霏;基于機器學(xué)習(xí)的雙麥克風(fēng)手機語音增強算法研究[D];南京師范大學(xué);2017年

10 江小平;艦載通信系統(tǒng)及其關(guān)鍵技術(shù)研究[D];華中科技大學(xué);2007年

相關(guān)碩士學(xué)位論文 前10條

1 倪忠;基于麥克風(fēng)陣列的語音增強方法研究[D];湖南大學(xué);2017年

2 李瑞;多通道語音增強方法的研究[D];大連理工大學(xué);2008年

3 郭俊歡;基于連續(xù)性約束的低秩稀疏分解語音增強方法研究[D];南昌航空大學(xué);2018年

4 劉建青;多管陣列定向語音增強系統(tǒng)的研制[D];浙江大學(xué);2012年

5 吳曉宇;VoIP系統(tǒng)中語音增強算法的研究與應(yīng)用[D];北京郵電大學(xué);2010年

6 蘆靖;單通道語音增強算法的研究與應(yīng)用[D];西安電子科技大學(xué);2009年

7 孔祥波;基于短時幅度譜估計的語音增強方法研究[D];大連理工大學(xué);2000年

8 劉鳳山;基于盲源分離的車載語音增強算法研究[D];安徽大學(xué);2017年

9 郭栗;特定人語音增強算法的研究[D];上海交通大學(xué);2015年

10 王琪;陣列語音增強算法的研究及實現(xiàn)[D];復(fù)旦大學(xué);2008年



本文編號:2827586

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/2827586.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶11675***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com