基于OBSI和特征選擇的語音情感識別算法
本文關(guān)鍵詞:基于OBSI和特征選擇的語音情感識別算法 出處:《大連海事大學(xué)》2017年碩士論文 論文類型:學(xué)位論文
更多相關(guān)文章: 語音情感 OBSI 特征取值混淆度 特征選擇
【摘要】:語音情感識別利用語音信號中的情感信息識別人的不同情感狀態(tài),對解決因不良情緒造成的社會問題提供一種監(jiān)測手段。本文首先尋找能夠?qū)φZ音情感有效識別的關(guān)鍵特征,再利用特征選擇和區(qū)分不同情感的最優(yōu)特征子集差異性,研究語音情感識別算法。本文主要工作如下:(1)給出一種適用于語音情感識別的改進(jìn)頻帶劃分的OBSI特征提取算法。將樂器識別領(lǐng)域的OBSI及其衍生特征OBSIR引入到語音情感識別中,并根據(jù)人耳聽覺特性重新設(shè)計(jì)特征提取中間環(huán)節(jié)-倍頻程濾波器組子頻帶頻率范圍。通過在EmoDB、CASIA和SAVEE數(shù)據(jù)庫上的對比實(shí)驗(yàn),驗(yàn)證了 OBSI特征和OBSIR特征用于語音情感識別的有效性,相比MFCC等常見特征有較好的識別能力;也驗(yàn)證了 OBSI和OBSIR特征與常見特征組合可以進(jìn)一步提升語音情感識別效果。(2)給出一種基于樣本特征值分布混淆度和MRMR結(jié)合的改進(jìn)特征選擇算法。根據(jù)數(shù)據(jù)集樣本特征取值分布情況,首先定義并構(gòu)建特征值混淆度統(tǒng)計(jì)量,以評估特征的重要程度,然后給出一種聯(lián)合特征值混淆度和分類器的Wrapper式特征選擇算法,并給出了相應(yīng)的子集搜索策略,最后引入MRMR算法,對已選出的特征子集進(jìn)行適當(dāng)?shù)鼐S數(shù)約簡。通過對比實(shí)驗(yàn),驗(yàn)證了特征值混淆度統(tǒng)計(jì)量評估特征區(qū)分能力的有效性,也驗(yàn)證了本文給出特征選擇算法能夠選出較優(yōu)的特征子集。(3)給出一種利用最優(yōu)特征子集差異性的多級語音情感分類器的構(gòu)建算法。根據(jù)情感區(qū)分度,使用若干個(gè)一對多的二分類SVM,首先對較為容易區(qū)分的情感進(jìn)行區(qū)分,對于其中較難區(qū)分的情感使用隨機(jī)森林進(jìn)行識別。在多級語音情感分類器中,對用于訓(xùn)練子分類器的特征子集采取差異化策略,即子分類器用到的特征集合是從原始特征集合中選出針對特定情感類別的最優(yōu)特征子集,根據(jù)先易后難的原則構(gòu)建級聯(lián)SVM和隨機(jī)森林的改進(jìn)多級語音情感分類器。實(shí)驗(yàn)驗(yàn)證了本文基于最優(yōu)特征子集差異性來構(gòu)建多級語音情感分類器算法的合理性。
[Abstract]:Emotion recognition of speech emotion recognition by human speech signal in different emotional states, provides a means of monitoring to solve the social problems caused by the bad mood. Firstly, to find the key features of effective speech emotion recognition, the feature selection and distinguish the different emotion optimal feature subset difference of speech emotion recognition algorithm. The main work is as follows: (1) OBSI characters are suitable for speech emotion recognition improved frequency division extraction algorithm. The musical instrument recognition OBSI and its derivative OBSIR features into speech emotion recognition, and re design according to the characteristics of human auditory feature extraction of intermediate links - octave filter group sub band frequency range. The EmoDB, CASIA experiments and SAVEE database on the OBSI and OBSIR features for speech emotion recognition is verified Effect, have better recognition ability than MFCC and other common characteristics; it also confirmed the OBSI and OBSIR features and common feature combination can further enhance the effect of speech emotion recognition. (2) an algorithm based on the eigenvalue distribution of sample selection algorithm to improve confusion characteristics and combine MRMR. According to the sample data sets feature value distribution. We first define and construct characteristic value confusion degree statistics to important degree evaluation characteristics, and then presents a joint eigenvalue Wrapper feature confusion degree and classifier selection algorithm, and gives the corresponding subset search strategy, finally introduced the MRMR algorithm, due to the dimensionality reduction of the feature subset is selected. Through the contrast experiment and verify the validity of the confusion degree statistics feature distinguishing ability of eigenvalues, which confirmed the given feature selection algorithm to select the optimal feature subset (3). The algorithm constructs a multilevel speech emotion classifier is presented by using the optimal feature subset difference. According to the emotion discrimination, with several of the two classification SVM, first of all is easy to distinguish the emotion to distinguish, for which it is difficult to distinguish the emotion using random forest recognition. In the multilevel speech emotion classifier and take the differentiation strategy of feature subset training sub classifier for feature sub classifier used is set to select the most feature specific emotion category subset from the original feature set, according to the principle of constructing frompointtoarea cascade SVM and random forest improved multilevel speech emotion classifier. Experiment verifies the rationality of the feature subset difference to construct multi classifier algorithm based on speech emotion.
【學(xué)位授予單位】:大連海事大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:TN912.34
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 林奕琳;韋崗;楊康才;;語音情感識別的研究進(jìn)展[J];電路與系統(tǒng)學(xué)報(bào);2007年01期
2 趙力;黃程韋;;實(shí)用語音情感識別中的若干關(guān)鍵技術(shù)[J];數(shù)據(jù)采集與處理;2014年02期
3 陳建廈,李翠華;語音情感識別的研究進(jìn)展[J];計(jì)算機(jī)工程;2005年13期
4 王茜;;一個(gè)語音情感識別系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)[J];大眾科技;2006年08期
5 孫亞;;遠(yuǎn)程教學(xué)中語音情感識別系統(tǒng)的研究與實(shí)現(xiàn)[J];長春理工大學(xué)學(xué)報(bào)(高教版);2008年02期
6 章國寶;宋清華;費(fèi)樹岷;趙艷;;語音情感識別研究[J];計(jì)算機(jī)技術(shù)與發(fā)展;2009年01期
7 石瑛;胡學(xué)鋼;方磊;;基于決策樹的多特征語音情感識別[J];計(jì)算機(jī)技術(shù)與發(fā)展;2009年01期
8 趙臘生;張強(qiáng);魏小鵬;;語音情感識別研究進(jìn)展[J];計(jì)算機(jī)應(yīng)用研究;2009年02期
9 張石清;趙知?jiǎng)?;噪聲背景下的語音情感識別[J];西南交通大學(xué)學(xué)報(bào);2009年03期
10 黃程韋;金峗;王青云;趙艷;趙力;;基于特征空間分解與融合的語音情感識別[J];信號處理;2010年06期
相關(guān)會議論文 前8條
1 陳建廈;;語音情感識別綜述[A];第一屆中國情感計(jì)算及智能交互學(xué)術(shù)會議論文集[C];2003年
2 楊桃香;楊鑒;畢福昆;;基于模糊聚類的語音情感識別[A];第三屆和諧人機(jī)環(huán)境聯(lián)合學(xué)術(shù)會議(HHME2007)論文集[C];2007年
3 羅武駿;包永強(qiáng);趙力;;基于模糊支持向量機(jī)的語音情感識別方法[A];2012'中國西部聲學(xué)學(xué)術(shù)交流會論文集(Ⅱ)[C];2012年
4 王青;謝波;陳根才;;基于神經(jīng)網(wǎng)絡(luò)的漢語語音情感識別[A];第一屆中國情感計(jì)算及智能交互學(xué)術(shù)會議論文集[C];2003年
5 張鼎天;徐明星;;基于調(diào)制頻譜特征的自動語音情感識別[A];第十二屆全國人機(jī)語音通訊學(xué)術(shù)會議(NCMMSC'2013)論文集[C];2013年
6 童燦;;基于boosting HMM的語音情感識別[A];2008年中國高校通信類院系學(xué)術(shù)研討會論文集(下冊)[C];2009年
7 戴明洋;楊大利;徐明星;;語音情感識別中UBM訓(xùn)練集的組成研究[A];第十一屆全國人機(jī)語音通訊學(xué)術(shù)會議論文集(一)[C];2011年
8 張衛(wèi);張雪英;孫穎;;基于HHT邊際Teager能量譜的語音情感識別[A];第十二屆全國人機(jī)語音通訊學(xué)術(shù)會議(NCMMSC'2013)論文集[C];2013年
相關(guān)博士學(xué)位論文 前7條
1 孫亞新;語音情感識別中的特征提取與識別算法研究[D];華南理工大學(xué);2015年
2 王坤俠;語音情感識別方法研究[D];合肥工業(yè)大學(xué);2015年
3 韓文靜;語音情感識別關(guān)鍵技術(shù)研究[D];哈爾濱工業(yè)大學(xué);2013年
4 謝波;普通話語音情感識別關(guān)鍵技術(shù)研究[D];浙江大學(xué);2006年
5 尤鳴宇;語音情感識別的關(guān)鍵技術(shù)研究[D];浙江大學(xué);2007年
6 劉佳;語音情感識別的研究與應(yīng)用[D];浙江大學(xué);2009年
7 趙臘生;語音情感特征提取與識別方法研究[D];大連理工大學(xué);2010年
相關(guān)碩士學(xué)位論文 前10條
1 陳曉東;基于卷積神經(jīng)網(wǎng)絡(luò)的語音情感識別[D];華南理工大學(xué);2015年
2 孫志鋒;語音情感識別研究[D];陜西師范大學(xué);2015年
3 譚發(fā)曾;語音情感狀態(tài)模糊識別研究[D];電子科技大學(xué);2015年
4 陳鑫;相空間重構(gòu)在語音情感識別中的研究[D];長沙理工大學(xué);2014年
5 李昌群;基于特征選擇的語音情感識別[D];合肥工業(yè)大學(xué);2015年
6 陳文汐;基于核函數(shù)的語音情感識別技術(shù)的研究[D];東南大學(xué);2015年
7 薛文韜;基于深度學(xué)習(xí)和遷移學(xué)習(xí)的語音情感識別方法研究[D];江蘇大學(xué);2016年
8 宋明虎;電力行業(yè)電話電話客服語音情感識別[D];昆明理工大學(xué);2016年
9 陳肖;基于多粒度特征融合的維度語音情感識別方法研究[D];哈爾濱工業(yè)大學(xué);2016年
10 任浩;基于多級分類的語音情感識別[D];哈爾濱工業(yè)大學(xué);2016年
,本文編號:1386505
本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/1386505.html