基于智能移動終端的音頻場景檢測方法研究
發(fā)布時間:2021-10-26 09:15
智能移動終端的場景識別是智能化機(jī)器研究的重要分支,在終端定位導(dǎo)航、路徑規(guī)劃和安防監(jiān)控等方面具有廣闊的應(yīng)用前景;谝纛l的場景識別不僅能解決圖像處理計算周期長和動態(tài)性能差等問題,還具有不受光線變化干擾的特點。智能移動終端配備高靈敏度傳感器、大容量內(nèi)存和高性能CPU,不僅可采集音頻信號,還能滿足存儲和處理音頻信號的需要,因此基于智能移動終端的音頻場景檢測方法研究具有重要意義。本研究首先在智能移動終端上設(shè)計了一個應(yīng)用程序,實現(xiàn)實時音頻信號采集、降噪和端點檢測。針對傳統(tǒng)小波軟閾值函數(shù)的系數(shù)存在恒定偏差和硬閾值函數(shù)容易在信號突變處出現(xiàn)偽吉布斯現(xiàn)象的問題,提出了一種新的小波閾值函數(shù)來提高降噪效果,新閾值函數(shù)在閾值點處連續(xù)并且引入了一個指數(shù)型收縮因子。采用信噪比作為降噪效果的評價指標(biāo),實驗證明表明采用新閾值函數(shù)對實時音頻信號降噪后信噪比可達(dá)19.47dB,比傳統(tǒng)軟硬閾值去噪法的信噪比提高了5dB。為判斷采集音頻信號的質(zhì)量和去除靜音段,對降噪后的音頻信號進(jìn)行端點檢測,采用端點標(biāo)記正確率作為端點檢測效果的評價指標(biāo)。實驗表明,基于改進(jìn)譜熵的端點檢測正確率為90.03%。在借助DCASE數(shù)據(jù)庫提供的音頻信號...
【文章來源】:西南科技大學(xué)四川省
【文章頁數(shù)】:67 頁
【學(xué)位級別】:碩士
【部分圖文】:
研究流程
音頻信號采集及檢測9圖2-1研究流程Figure2-1Researchprocess該款智能手機(jī)在頂部和底部各有一個麥克風(fēng)可以實現(xiàn)雙通道音頻信號采集。采集音頻時頂部和底部麥克風(fēng)距離音源的距離不同,所以兩個麥克風(fēng)的拾音量大小不同,并存在一定的時延。手機(jī)麥克風(fēng)位置如圖2-2所示。圖2-2手機(jī)麥克風(fēng)位置Figure2-2Mobilephonemicrophoneposition智能手機(jī)的配置情況會影響音頻信號的采集和處理效率,本研究采用基于Android9.0操作系統(tǒng)的智能手機(jī),內(nèi)存能滿足各種實驗數(shù)據(jù)存儲變化的需求。該手機(jī)的配置信息參見下表2-1所示。
西南科技大學(xué)碩士學(xué)位論文10表2-1實驗智能手機(jī)配置信息表Table2-1ExperimentalsmartphoneconfigurationRedmiNote8Pro主要配置信息內(nèi)存大小RAM:8GB;ROM:256GB操作系統(tǒng)Android9.0;MIUI10處理器CPU:MTKhelioG90T;GPU:Mali-G76MC4在本研究中手機(jī)終端作為音頻信號采集和前期處理的設(shè)備,在實驗過程中設(shè)計一個專門的手機(jī)應(yīng)用程序可以實現(xiàn)數(shù)據(jù)可視化和結(jié)果輸出,該應(yīng)用程序可以很大程度上方便用戶的使用。在智能移動終端設(shè)備上的APP用戶界面如圖2-3所示。(a)(b)(c)(d)(e)圖2-3手機(jī)終端上的APP用戶界面Figure2-3APPuserinterfaceonthemobileterminal
【參考文獻(xiàn)】:
期刊論文
[1]基于新閾值函數(shù)的小波閾值去噪方法研究[J]. 宿常鵬,王雪梅,許哲,李駿霄. 戰(zhàn)術(shù)導(dǎo)彈技術(shù). 2020(03)
[2]基于小波譜圖和深度卷積網(wǎng)絡(luò)的音頻場景識別新框架[J]. 陳航艇. 網(wǎng)絡(luò)新媒體技術(shù). 2019(02)
[3]深淺層特征及模型融合的說話人識別[J]. 仲偉峰,方祥,范存航,溫正棋,陶建華. 聲學(xué)學(xué)報. 2018(02)
[4]語音識別技術(shù)的發(fā)展[J]. 王致信,胡文東. 網(wǎng)友世界. 2013(13)
[5]公共場所典型異常聲音的特征提取[J]. 欒少文,龔衛(wèi)國. 計算機(jī)工程. 2010(07)
[6]基于MFCC和短時能量混合的異常聲音識別算法[J]. 呂霄云,王宏霞. 計算機(jī)應(yīng)用. 2010(03)
[7]語音識別技術(shù)的研究與發(fā)展[J]. 王敏妲. 微型機(jī)與應(yīng)用. 2009(23)
[8]語音識別技術(shù)研究進(jìn)展[J]. 詹新明,黃南山,楊燦. 現(xiàn)代計算機(jī)(專業(yè)版). 2008(09)
[9]語音識別技術(shù)研究進(jìn)展[J]. 柳春. 甘肅科技. 2008(09)
[10]語音識別技術(shù)的發(fā)展現(xiàn)狀及應(yīng)用前景[J]. 高新濤,陳乖麗. 甘肅科技縱橫. 2007(04)
碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的音頻場景分類方法研究[D]. 孫凌山.成都理工大學(xué) 2019
[2]音頻場景分析與識別方法研究[D]. 楊麗.南京大學(xué) 2013
[3]基于尺度噪聲能量估計的自適應(yīng)語音去噪算法及其軟件實現(xiàn)[D]. 謝巍盛.上海交通大學(xué) 2012
[4]基于DSP的語音信號識別系統(tǒng)的研究與實現(xiàn)[D]. 陳濤.成都理工大學(xué) 2010
[5]基于MFCC與IMFCC的說話人識別研究[D]. 劉麗巖.哈爾濱工程大學(xué) 2008
本文編號:3459246
【文章來源】:西南科技大學(xué)四川省
【文章頁數(shù)】:67 頁
【學(xué)位級別】:碩士
【部分圖文】:
研究流程
音頻信號采集及檢測9圖2-1研究流程Figure2-1Researchprocess該款智能手機(jī)在頂部和底部各有一個麥克風(fēng)可以實現(xiàn)雙通道音頻信號采集。采集音頻時頂部和底部麥克風(fēng)距離音源的距離不同,所以兩個麥克風(fēng)的拾音量大小不同,并存在一定的時延。手機(jī)麥克風(fēng)位置如圖2-2所示。圖2-2手機(jī)麥克風(fēng)位置Figure2-2Mobilephonemicrophoneposition智能手機(jī)的配置情況會影響音頻信號的采集和處理效率,本研究采用基于Android9.0操作系統(tǒng)的智能手機(jī),內(nèi)存能滿足各種實驗數(shù)據(jù)存儲變化的需求。該手機(jī)的配置信息參見下表2-1所示。
西南科技大學(xué)碩士學(xué)位論文10表2-1實驗智能手機(jī)配置信息表Table2-1ExperimentalsmartphoneconfigurationRedmiNote8Pro主要配置信息內(nèi)存大小RAM:8GB;ROM:256GB操作系統(tǒng)Android9.0;MIUI10處理器CPU:MTKhelioG90T;GPU:Mali-G76MC4在本研究中手機(jī)終端作為音頻信號采集和前期處理的設(shè)備,在實驗過程中設(shè)計一個專門的手機(jī)應(yīng)用程序可以實現(xiàn)數(shù)據(jù)可視化和結(jié)果輸出,該應(yīng)用程序可以很大程度上方便用戶的使用。在智能移動終端設(shè)備上的APP用戶界面如圖2-3所示。(a)(b)(c)(d)(e)圖2-3手機(jī)終端上的APP用戶界面Figure2-3APPuserinterfaceonthemobileterminal
【參考文獻(xiàn)】:
期刊論文
[1]基于新閾值函數(shù)的小波閾值去噪方法研究[J]. 宿常鵬,王雪梅,許哲,李駿霄. 戰(zhàn)術(shù)導(dǎo)彈技術(shù). 2020(03)
[2]基于小波譜圖和深度卷積網(wǎng)絡(luò)的音頻場景識別新框架[J]. 陳航艇. 網(wǎng)絡(luò)新媒體技術(shù). 2019(02)
[3]深淺層特征及模型融合的說話人識別[J]. 仲偉峰,方祥,范存航,溫正棋,陶建華. 聲學(xué)學(xué)報. 2018(02)
[4]語音識別技術(shù)的發(fā)展[J]. 王致信,胡文東. 網(wǎng)友世界. 2013(13)
[5]公共場所典型異常聲音的特征提取[J]. 欒少文,龔衛(wèi)國. 計算機(jī)工程. 2010(07)
[6]基于MFCC和短時能量混合的異常聲音識別算法[J]. 呂霄云,王宏霞. 計算機(jī)應(yīng)用. 2010(03)
[7]語音識別技術(shù)的研究與發(fā)展[J]. 王敏妲. 微型機(jī)與應(yīng)用. 2009(23)
[8]語音識別技術(shù)研究進(jìn)展[J]. 詹新明,黃南山,楊燦. 現(xiàn)代計算機(jī)(專業(yè)版). 2008(09)
[9]語音識別技術(shù)研究進(jìn)展[J]. 柳春. 甘肅科技. 2008(09)
[10]語音識別技術(shù)的發(fā)展現(xiàn)狀及應(yīng)用前景[J]. 高新濤,陳乖麗. 甘肅科技縱橫. 2007(04)
碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的音頻場景分類方法研究[D]. 孫凌山.成都理工大學(xué) 2019
[2]音頻場景分析與識別方法研究[D]. 楊麗.南京大學(xué) 2013
[3]基于尺度噪聲能量估計的自適應(yīng)語音去噪算法及其軟件實現(xiàn)[D]. 謝巍盛.上海交通大學(xué) 2012
[4]基于DSP的語音信號識別系統(tǒng)的研究與實現(xiàn)[D]. 陳濤.成都理工大學(xué) 2010
[5]基于MFCC與IMFCC的說話人識別研究[D]. 劉麗巖.哈爾濱工程大學(xué) 2008
本文編號:3459246
本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/3459246.html
最近更新
教材專著