天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于卷積神經(jīng)網(wǎng)絡(luò)的表情識(shí)別研究與應(yīng)用

發(fā)布時(shí)間:2021-11-10 14:13
  表情識(shí)別是一個(gè)橫跨人工智能、神經(jīng)學(xué)、計(jì)算機(jī)等學(xué)科的交叉領(lǐng)域,在心理分析、臨床醫(yī)學(xué)、車(chē)輛監(jiān)控等領(lǐng)域都有著廣泛的應(yīng)用。但由于表情識(shí)別特征提取難度、表情復(fù)雜度較高,傳統(tǒng)機(jī)器學(xué)習(xí)算法容易忽略對(duì)于分類(lèi)有重要作用的特征,導(dǎo)致表情識(shí)別的準(zhǔn)確率較低。近年來(lái)隨著深度學(xué)習(xí)和并行計(jì)算的發(fā)展,將基于深度學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用到表情分類(lèi)問(wèn)題引起了學(xué)者們的關(guān)注。這得益于深度學(xué)習(xí)的特征提取是通過(guò)反向傳播和誤差優(yōu)化來(lái)更新迭代權(quán)重,能夠提取出容易忽視的關(guān)鍵點(diǎn)和特征。但依然存在實(shí)現(xiàn)復(fù)雜、依賴(lài)大量數(shù)據(jù)集、計(jì)算量大等問(wèn)題。因此,本文主要針對(duì)以上問(wèn)題對(duì)優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)及其內(nèi)部結(jié)構(gòu)開(kāi)展研究。本文主要工作及創(chuàng)新點(diǎn)如下:1、目前的卷積神經(jīng)網(wǎng)絡(luò)對(duì)表情識(shí)別的細(xì)微特征提取程度不夠,且訓(xùn)練時(shí)間長(zhǎng)。為了解決這一問(wèn)題,本文對(duì)GoogLeNet網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行了優(yōu)化,提出了一種基于并行結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)。該算法的核心為兩個(gè)并行的卷積池化結(jié)構(gòu),通過(guò)對(duì)表情圖像提取不同的特征,之后再進(jìn)行特征融合。該結(jié)構(gòu)增加了網(wǎng)絡(luò)的寬度和對(duì)于尺度的適應(yīng)性,能夠從不同角度提取圖像的特征。2、雖然ReLU激活函數(shù)很好的保持了函數(shù)的稀疏性,但無(wú)法緩解均值偏移、神經(jīng)元死亡的問(wèn)題。針... 

【文章來(lái)源】:青島大學(xué)山東省

【文章頁(yè)數(shù)】:62 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于卷積神經(jīng)網(wǎng)絡(luò)的表情識(shí)別研究與應(yīng)用


LeNet-5網(wǎng)絡(luò)結(jié)構(gòu)圖

網(wǎng)絡(luò)結(jié)構(gòu)圖,激活函數(shù),訓(xùn)練集,特征模


圖 2.2 AlexNet 網(wǎng)絡(luò)結(jié)構(gòu)圖AlexNet 與 LeNet 不同點(diǎn)在于,一是使用了 ReLU 激活函數(shù)代替了傳統(tǒng)的線性激活函數(shù)。ReLU 將計(jì)算出來(lái)小于零的值強(qiáng)制等于零,保證了網(wǎng)絡(luò)適度的稀疏性,并且計(jì)算簡(jiǎn)單,大大提高了訓(xùn)練速度與準(zhǔn)確率。二是使用了 Dropout 和 DataAugmentation 來(lái)防止過(guò)擬合的現(xiàn)象。Dropout 以 0.5 的概率,將每個(gè)隱層神經(jīng)元的輸出設(shè)置為零。每次輸入一個(gè)樣本,都相當(dāng)于嘗試了一個(gè)新的結(jié)構(gòu)。Data Augmentation通過(guò)變換已有的訓(xùn)練集來(lái)生成新的數(shù)據(jù)集,從而擴(kuò)大訓(xùn)練集的數(shù)量。三是使用最大池化代替平均池化,避免平均池化造成的特征模糊。且提出的最大池化的步長(zhǎng)比池化核要小,這可以輸出有重疊和覆蓋的特征圖像,增加特征的多樣性。表 2.2 給出了 AlexNet 網(wǎng)絡(luò)的參數(shù)。表 2.2 GoogLeNet 網(wǎng)絡(luò)參數(shù)層 說(shuō)明 參數(shù)數(shù)量Input 輸入 224*224 的圖像 0

實(shí)驗(yàn)過(guò)程,卷積


圖 2.4 VGGNet 實(shí)驗(yàn)過(guò)程可以看出,從左到右網(wǎng)絡(luò)的整體結(jié)構(gòu)不變,分別有五的卷積特征提取。但每個(gè)階段用到的卷積層數(shù)不同。RN并沒(méi)有對(duì)分類(lèi)結(jié)果有實(shí)質(zhì)性的提升,因此在B之后的卷積層數(shù)目的增加,分類(lèi)準(zhǔn)確率逐漸上升,在 VGG-19。B、C 網(wǎng)絡(luò)的對(duì)比說(shuō)明了 1*1 卷積層引入的非線性確、D 網(wǎng)絡(luò)的對(duì)比說(shuō)明了 3*3 的卷積核確實(shí)比 1*1 的卷積*3 的卷積核能夠更好地捕捉到全局信息。 Residual Learning 模型idual Learning 模型是一種殘差網(wǎng)絡(luò)模型,在很大程度上問(wèn)題。該模型在 2015 ImageNet 分類(lèi)和檢測(cè)的比賽中均者們?cè)谠O(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)時(shí)不斷增加網(wǎng)絡(luò)的深度,想以此來(lái)

【參考文獻(xiàn)】:
期刊論文
[1]基于LBP卷積神經(jīng)網(wǎng)絡(luò)的面部表情識(shí)別[J]. 江大鵬,楊彪,鄒凌.  計(jì)算機(jī)工程與設(shè)計(jì). 2018(07)
[2]基于深度學(xué)習(xí)的人臉跟蹤自動(dòng)初始化方法[J]. 陳芷薇,陳姝.  計(jì)算機(jī)工程與科學(xué). 2017(04)
[3]基于張量的2D-PCA人臉識(shí)別算法[J]. 葉學(xué)義,王大安,宦天樞,夏經(jīng)文,顧亞風(fēng).  計(jì)算機(jī)工程與應(yīng)用. 2017(06)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別算法[J]. 李輝,石波.  軟件導(dǎo)刊. 2017(03)
[5]受限局部模型在人臉特征點(diǎn)定位中應(yīng)用綜述[J]. 金鑫,譚曉陽(yáng).  小型微型計(jì)算機(jī)系統(tǒng). 2017(02)
[6]基于深度時(shí)空域卷積神經(jīng)網(wǎng)絡(luò)的表情識(shí)別模型[J]. 楊格蘭,鄧曉軍,劉琮.  中南大學(xué)學(xué)報(bào)(自然科學(xué)版). 2016(07)
[7]基于改進(jìn)LBP算子的紋理圖像分類(lèi)方法[J]. 李春利,沈魯娟.  計(jì)算機(jī)工程與設(shè)計(jì). 2016(01)
[8]基于LBP/VAR與DBN模型的人臉表情識(shí)別[J]. 何俊,蔡建峰,房靈芝,何忠文.  計(jì)算機(jī)應(yīng)用研究. 2016(08)
[9]基于并行卷積神經(jīng)網(wǎng)絡(luò)的人臉關(guān)鍵點(diǎn)定位方法研究[J]. 楊海燕,蔣新華,聶作先.  計(jì)算機(jī)應(yīng)用研究. 2015(08)
[10]基于神經(jīng)網(wǎng)絡(luò)的人臉識(shí)別系統(tǒng)[J]. 李文琴,曾廣樸,文俊浩.  激光雜志. 2015(03)

碩士論文
[1]基于Caffe平臺(tái)深度學(xué)習(xí)的人臉識(shí)別研究與實(shí)現(xiàn)[D]. 魏正.西安電子科技大學(xué) 2015
[2]基于Gabor和條件隨機(jī)場(chǎng)的人臉表情識(shí)別[D]. 張博.山東大學(xué) 2015
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的人臉檢測(cè)和性別識(shí)別研究[D]. 汪濟(jì)民.南京理工大學(xué) 2015
[4]基于MLBP-TOP與光流多特征的人臉表情融合識(shí)別研究[D]. 孔健.江蘇大學(xué) 2009



本文編號(hào):3487413

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3487413.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9e8fe***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com