基于卷積神經(jīng)網(wǎng)絡(luò)的多姿態(tài)人臉識(shí)別方法研究
發(fā)布時(shí)間:2021-10-29 00:43
隨著科學(xué)水平不斷提升,人臉識(shí)別技術(shù)已經(jīng)被廣泛的應(yīng)用于安防、考勤、門禁、ATM等方面。目前,人臉識(shí)別算法的研究也延伸到復(fù)雜環(huán)境進(jìn)行人臉識(shí)別。姿態(tài)變化,面部遮擋,年齡變化是影響人臉識(shí)別系統(tǒng)性能的主要因素。卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)的人臉識(shí)別方法相比:直接作用于原始圖像,具有局部感受野、權(quán)值共享和下采樣等特點(diǎn)。此外,對(duì)于圖像的平移、比例縮放、傾斜形式具有不變性。本文對(duì)卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于多角度的姿態(tài)人臉識(shí)別系統(tǒng)中進(jìn)行了研究。首先,研究了傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)的組成與特點(diǎn),然后研究了卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)特點(diǎn),對(duì)經(jīng)典的卷積神經(jīng)網(wǎng)絡(luò)模型Le Net-5的卷積核尺寸和數(shù)目進(jìn)行改進(jìn),提高提取特征的能力。改進(jìn)池化層的池化方式,減少參數(shù)和計(jì)算量。在卷積神經(jīng)網(wǎng)絡(luò)中加入正則化方法,減少過擬合,增強(qiáng)網(wǎng)絡(luò)的泛化性和稀疏性。其次,針對(duì)改進(jìn)后的卷積神經(jīng)網(wǎng)絡(luò)提取到的特征維數(shù)較高,采用PCA算法對(duì)提取到的特征向量做降維處理,生成不同維度的特征向量庫,然后采用余弦相似度度量算法進(jìn)行目標(biāo)人臉識(shí)別。最后,對(duì)于本文提出的多角度的姿態(tài)人臉識(shí)別方法進(jìn)行仿真實(shí)驗(yàn),通過在CAS-PEAL人臉庫進(jìn)行的實(shí)驗(yàn)結(jié)果表明,改進(jìn)的卷積神經(jīng)網(wǎng)絡(luò)人臉識(shí)別算法在多姿態(tài)的條件...
【文章來源】:哈爾濱理工大學(xué)黑龍江省
【文章頁數(shù)】:64 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
Sigmoid函數(shù)圖像
哈爾濱理工大學(xué)工學(xué)碩士學(xué)位論文-20-圖2-10Tanh函數(shù)圖像Fig.2-10Tanhfunction對(duì)Tanh進(jìn)行求導(dǎo)得到下式(2-34)為。()()"2"1zzzzeegzgzee==+(2-34)2.3.3ReLU激活函數(shù)ReLU函數(shù)又被稱為分段線性函數(shù),它的特點(diǎn)是能夠把所有的負(fù)值都變成0,而正值不變,也就是說當(dāng)輸入為負(fù)值時(shí),輸出為0,那么神經(jīng)元就不會(huì)被激活,從而使得網(wǎng)絡(luò)結(jié)構(gòu)變得稀疏,收斂速度快,能夠更好的挖掘相關(guān)特征,擬合訓(xùn)練數(shù)據(jù)。由于它比Sigmoid函數(shù)和Tanh函數(shù)更符合生物學(xué)機(jī)制,所以在實(shí)際中應(yīng)用比較廣泛,例如:后面的LeNet-5網(wǎng)絡(luò)就使用到了ReLU激活函數(shù)。ReLU函數(shù)的數(shù)學(xué)表達(dá)形式如下式(2-35)為:(),(z0)0,(z0)zifgzif=(2-35)ReLU函數(shù)的圖像如下圖2-11所示。
哈爾濱理工大學(xué)工學(xué)碩士學(xué)位論文-21-圖2-11ReLU函數(shù)圖像Fig.2-11ReLUfunction對(duì)ReLU函數(shù)求導(dǎo)得到下式(2-36)為。()"1,(z0)0,(z0)ifgzif=(2-36)2.4卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練詳細(xì)步驟如圖2-12所示。
本文編號(hào):3463631
【文章來源】:哈爾濱理工大學(xué)黑龍江省
【文章頁數(shù)】:64 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
Sigmoid函數(shù)圖像
哈爾濱理工大學(xué)工學(xué)碩士學(xué)位論文-20-圖2-10Tanh函數(shù)圖像Fig.2-10Tanhfunction對(duì)Tanh進(jìn)行求導(dǎo)得到下式(2-34)為。()()"2"1zzzzeegzgzee==+(2-34)2.3.3ReLU激活函數(shù)ReLU函數(shù)又被稱為分段線性函數(shù),它的特點(diǎn)是能夠把所有的負(fù)值都變成0,而正值不變,也就是說當(dāng)輸入為負(fù)值時(shí),輸出為0,那么神經(jīng)元就不會(huì)被激活,從而使得網(wǎng)絡(luò)結(jié)構(gòu)變得稀疏,收斂速度快,能夠更好的挖掘相關(guān)特征,擬合訓(xùn)練數(shù)據(jù)。由于它比Sigmoid函數(shù)和Tanh函數(shù)更符合生物學(xué)機(jī)制,所以在實(shí)際中應(yīng)用比較廣泛,例如:后面的LeNet-5網(wǎng)絡(luò)就使用到了ReLU激活函數(shù)。ReLU函數(shù)的數(shù)學(xué)表達(dá)形式如下式(2-35)為:(),(z0)0,(z0)zifgzif=(2-35)ReLU函數(shù)的圖像如下圖2-11所示。
哈爾濱理工大學(xué)工學(xué)碩士學(xué)位論文-21-圖2-11ReLU函數(shù)圖像Fig.2-11ReLUfunction對(duì)ReLU函數(shù)求導(dǎo)得到下式(2-36)為。()"1,(z0)0,(z0)ifgzif=(2-36)2.4卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練詳細(xì)步驟如圖2-12所示。
本文編號(hào):3463631
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3463631.html
最近更新
教材專著