基于深度學(xué)習(xí)的人眼檢測及應(yīng)用研究
發(fā)布時間:2021-03-01 00:15
眼睛為人類提供了感知外界事物最主要和最直接的視覺能力,其有效傳遞了重要的身份和狀態(tài)信息。人眼檢測即在圖像中確定人眼的存在性、位置和尺度等。人眼檢測作為模式識別中的一個分支,具有重要的研究意義和應(yīng)用價值。傳統(tǒng)人眼檢測算法由于精度低且魯棒性差,已經(jīng)無法適應(yīng)如今復(fù)雜場景下的應(yīng)用需求。因此,本文著重研究了基于深度學(xué)習(xí)的復(fù)雜場景下人眼檢測算法,并將其應(yīng)用到人眼身份識別和疲勞駕駛檢測研究之中。所做具體工作如下:(1)以傳統(tǒng)Adaboost方法作為人眼檢測研究的出發(fā)點(diǎn),分析了影響基于Adaboost級聯(lián)分類器的人眼檢測性能的因素即正負(fù)樣本集選取規(guī)則和不同的特征模板,并通過對比實(shí)驗(yàn)總結(jié)最佳人眼檢測模型訓(xùn)練方案。依據(jù)傳統(tǒng)檢測模型在復(fù)雜場景下的實(shí)際表現(xiàn)論證了其應(yīng)對目前的人眼檢測還存在不足之處,進(jìn)而引出基于深度學(xué)習(xí)方法的人眼檢測研究方案。(2)提出了基于改進(jìn)YOLOv3的人眼檢測算法。針對復(fù)雜場景下傳統(tǒng)人眼檢測方法的局限性,提出了一種不依賴于人臉檢測的直接人眼檢測算法,解決了復(fù)雜場景下多尺度尤其是小尺度人眼檢測問題。該算法通過減少骨干網(wǎng)絡(luò)中下采樣因子并且加入了擴(kuò)張殘差單元以提升小尺度人眼的檢測能力,對多尺度...
【文章來源】:北方工業(yè)大學(xué)北京市
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【部分圖文】:
積分圖示意圖
第二章基于Adaboost的人眼檢測初探9值,所以Adaboost算法的訓(xùn)練耗時會受到每一個待檢目標(biāo)區(qū)域所含特征數(shù)量多少的影響。輸入檢測圖像大小以及檢測窗口中特征模板的縮放、平移和旋轉(zhuǎn)都是造成大量特征計算的直接因素,而獲取這些特征并計算其特征值是訓(xùn)練分類器的必要前提。在一幅的30×30像素圖像中,大約需要描述的邊緣特征有5萬個,線性特征的數(shù)量則更多,如果采用基本Haar特征表征該圖像,在訓(xùn)練分類器時需要大約40萬個Haar特征,換言之就是求解特征值需要經(jīng)過40萬余次運(yùn)算。通過表2-1能夠直接看出不同大小待檢圖像窗口中Haar特征數(shù)量的多少[41]。表2-1窗口大小與Haar特征數(shù)量的關(guān)系窗口尺寸16×1620×2024×2430×3036×36特征數(shù)量3238478460162336394725816264隨著待檢窗口尺寸的增大,其窗口內(nèi)需要計算的特征數(shù)量基本呈現(xiàn)指數(shù)級增長,如此龐大的特征計算量勢必會直接導(dǎo)致分類器的訓(xùn)練效率和檢測速度大幅下降,導(dǎo)致算法無法被實(shí)際應(yīng)用。因此Viola在特征計算中使用積分圖的思想以加快計算速度[42]。如圖2-2所示,一幅圖像I(x,y)中某一個像素點(diǎn)A(x,y)處的積分圖表示為i(x,y)即圖像左上端點(diǎn)與該點(diǎn)A組成的矩形區(qū)域內(nèi)全部像素值的和,定義為公式(2-1):i(x,y)=∑I(x,,y,)x,≤x,y,≤y(2-1)圖2-2積分圖示意圖圖2-3積分圖計算示例按照積分圖的定義,圖2-3中像素點(diǎn)1處的積分圖為A矩形的像素值之和,像素點(diǎn)2處的積分圖為A矩形和B矩形的像素值之和,同理可得3、4、5、6四個像素點(diǎn)的積分圖,那么計算矩形D、F區(qū)域內(nèi)像素值之和如公式(2-2)和(2-3):Sum(D)=i(1)+i(4)-(i(2)+i(3))(2-2)Sum(F)=i(3)+i(6)-(i(4)+i(5))(2-3)
第二章基于Adaboost的人眼檢測初探16圖2-9不包含人眼的任意圖像(2)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本仍然為不包含人眼的任意圖像。訓(xùn)練正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像2430張,同樣選擇不包含人眼區(qū)域的任意圖像7300張作為負(fù)樣本,采用MB-LBP特征訓(xùn)練分類器并對正樣本歸一化大小為48×24。樣本選取如圖2-10所示。圖2-10擴(kuò)展到眉毛邊緣的矩形人眼區(qū)域圖像(3)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本去除人眼后的其他面部區(qū)域圖像。正樣本數(shù)量和(2)保持一致,負(fù)樣本集為7300張去除人眼后的其他面部區(qū)域圖像。同樣選擇MB-LBP特征訓(xùn)練分類器并歸一化正樣本大小為48×24。負(fù)樣本選取如圖2-11所示。圖2-11去除人眼后的其他面部區(qū)域圖像表2-2為三組不同訓(xùn)練集上測試的誤檢率及檢測率,從表中可以看出組合3是最佳人眼檢測方案,其檢測率明顯高于另外兩者,誤檢及漏檢也明顯較低。由此可以得出,正樣本數(shù)據(jù)中只包含特征信息較少的眼睛輪廓區(qū)域會導(dǎo)致分類器的檢測性能下降。負(fù)樣本中存在大部分與眼睛相似性很低的自然背景圖像時,由于這些相關(guān)度較低的數(shù)據(jù)在訓(xùn)練時作為易于區(qū)分的樣本無法通過前幾層強(qiáng)分類器的判決,而主要負(fù)責(zé)對不易區(qū)分的樣本進(jìn)行決策的后幾層強(qiáng)分類器所需訓(xùn)練負(fù)樣本數(shù)量過少,從而導(dǎo)致分類器的檢測精度下降。
【參考文獻(xiàn)】:
期刊論文
[1]深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵技術(shù)及其在自動駕駛領(lǐng)域的應(yīng)用[J]. 李升波,關(guān)陽,侯廉,高洪波,段京良,梁爽,汪玉,成波,李克強(qiáng),任偉,李駿. 汽車安全與節(jié)能學(xué)報. 2019(02)
[2]混合Boost算法實(shí)現(xiàn)的行人檢測技術(shù)[J]. 陳超. 計算機(jī)應(yīng)用與軟件. 2019(06)
[3]基于積分投影和差分投影的人眼定位[J]. 侯向丹,趙丹,劉洪普,顧軍華. 計算機(jī)工程與科學(xué). 2017(03)
[4]基于面部特征識別的管制員疲勞監(jiān)測方法研究[J]. 汪磊,孫瑞山. 中國安全科學(xué)學(xué)報. 2012(07)
[5]基于Hough變換圓檢測的人眼精確定位方法[J]. 張杰,楊曉飛,趙瑞蓮. 計算機(jī)工程與應(yīng)用. 2005(27)
博士論文
[1]人眼檢測與跟蹤的方法及應(yīng)用研究[D]. 孟春寧.南開大學(xué) 2013
碩士論文
[1]多波段紅外圖像差異特征形成機(jī)理研究[D]. 朱小紅.中北大學(xué) 2016
[2]基于駕駛操作及車輛狀態(tài)的疲勞駕駛行為檢測研究[D]. 黃皓.東南大學(xué) 2016
[3]快速人眼檢測若干關(guān)鍵技術(shù)的研究[D]. 黃程.南昌大學(xué) 2015
本文編號:3056660
【文章來源】:北方工業(yè)大學(xué)北京市
【文章頁數(shù)】:66 頁
【學(xué)位級別】:碩士
【部分圖文】:
積分圖示意圖
第二章基于Adaboost的人眼檢測初探9值,所以Adaboost算法的訓(xùn)練耗時會受到每一個待檢目標(biāo)區(qū)域所含特征數(shù)量多少的影響。輸入檢測圖像大小以及檢測窗口中特征模板的縮放、平移和旋轉(zhuǎn)都是造成大量特征計算的直接因素,而獲取這些特征并計算其特征值是訓(xùn)練分類器的必要前提。在一幅的30×30像素圖像中,大約需要描述的邊緣特征有5萬個,線性特征的數(shù)量則更多,如果采用基本Haar特征表征該圖像,在訓(xùn)練分類器時需要大約40萬個Haar特征,換言之就是求解特征值需要經(jīng)過40萬余次運(yùn)算。通過表2-1能夠直接看出不同大小待檢圖像窗口中Haar特征數(shù)量的多少[41]。表2-1窗口大小與Haar特征數(shù)量的關(guān)系窗口尺寸16×1620×2024×2430×3036×36特征數(shù)量3238478460162336394725816264隨著待檢窗口尺寸的增大,其窗口內(nèi)需要計算的特征數(shù)量基本呈現(xiàn)指數(shù)級增長,如此龐大的特征計算量勢必會直接導(dǎo)致分類器的訓(xùn)練效率和檢測速度大幅下降,導(dǎo)致算法無法被實(shí)際應(yīng)用。因此Viola在特征計算中使用積分圖的思想以加快計算速度[42]。如圖2-2所示,一幅圖像I(x,y)中某一個像素點(diǎn)A(x,y)處的積分圖表示為i(x,y)即圖像左上端點(diǎn)與該點(diǎn)A組成的矩形區(qū)域內(nèi)全部像素值的和,定義為公式(2-1):i(x,y)=∑I(x,,y,)x,≤x,y,≤y(2-1)圖2-2積分圖示意圖圖2-3積分圖計算示例按照積分圖的定義,圖2-3中像素點(diǎn)1處的積分圖為A矩形的像素值之和,像素點(diǎn)2處的積分圖為A矩形和B矩形的像素值之和,同理可得3、4、5、6四個像素點(diǎn)的積分圖,那么計算矩形D、F區(qū)域內(nèi)像素值之和如公式(2-2)和(2-3):Sum(D)=i(1)+i(4)-(i(2)+i(3))(2-2)Sum(F)=i(3)+i(6)-(i(4)+i(5))(2-3)
第二章基于Adaboost的人眼檢測初探16圖2-9不包含人眼的任意圖像(2)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本仍然為不包含人眼的任意圖像。訓(xùn)練正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像2430張,同樣選擇不包含人眼區(qū)域的任意圖像7300張作為負(fù)樣本,采用MB-LBP特征訓(xùn)練分類器并對正樣本歸一化大小為48×24。樣本選取如圖2-10所示。圖2-10擴(kuò)展到眉毛邊緣的矩形人眼區(qū)域圖像(3)正樣本為擴(kuò)展到眉毛邊緣的矩形區(qū)域圖像,負(fù)樣本去除人眼后的其他面部區(qū)域圖像。正樣本數(shù)量和(2)保持一致,負(fù)樣本集為7300張去除人眼后的其他面部區(qū)域圖像。同樣選擇MB-LBP特征訓(xùn)練分類器并歸一化正樣本大小為48×24。負(fù)樣本選取如圖2-11所示。圖2-11去除人眼后的其他面部區(qū)域圖像表2-2為三組不同訓(xùn)練集上測試的誤檢率及檢測率,從表中可以看出組合3是最佳人眼檢測方案,其檢測率明顯高于另外兩者,誤檢及漏檢也明顯較低。由此可以得出,正樣本數(shù)據(jù)中只包含特征信息較少的眼睛輪廓區(qū)域會導(dǎo)致分類器的檢測性能下降。負(fù)樣本中存在大部分與眼睛相似性很低的自然背景圖像時,由于這些相關(guān)度較低的數(shù)據(jù)在訓(xùn)練時作為易于區(qū)分的樣本無法通過前幾層強(qiáng)分類器的判決,而主要負(fù)責(zé)對不易區(qū)分的樣本進(jìn)行決策的后幾層強(qiáng)分類器所需訓(xùn)練負(fù)樣本數(shù)量過少,從而導(dǎo)致分類器的檢測精度下降。
【參考文獻(xiàn)】:
期刊論文
[1]深度神經(jīng)網(wǎng)絡(luò)的關(guān)鍵技術(shù)及其在自動駕駛領(lǐng)域的應(yīng)用[J]. 李升波,關(guān)陽,侯廉,高洪波,段京良,梁爽,汪玉,成波,李克強(qiáng),任偉,李駿. 汽車安全與節(jié)能學(xué)報. 2019(02)
[2]混合Boost算法實(shí)現(xiàn)的行人檢測技術(shù)[J]. 陳超. 計算機(jī)應(yīng)用與軟件. 2019(06)
[3]基于積分投影和差分投影的人眼定位[J]. 侯向丹,趙丹,劉洪普,顧軍華. 計算機(jī)工程與科學(xué). 2017(03)
[4]基于面部特征識別的管制員疲勞監(jiān)測方法研究[J]. 汪磊,孫瑞山. 中國安全科學(xué)學(xué)報. 2012(07)
[5]基于Hough變換圓檢測的人眼精確定位方法[J]. 張杰,楊曉飛,趙瑞蓮. 計算機(jī)工程與應(yīng)用. 2005(27)
博士論文
[1]人眼檢測與跟蹤的方法及應(yīng)用研究[D]. 孟春寧.南開大學(xué) 2013
碩士論文
[1]多波段紅外圖像差異特征形成機(jī)理研究[D]. 朱小紅.中北大學(xué) 2016
[2]基于駕駛操作及車輛狀態(tài)的疲勞駕駛行為檢測研究[D]. 黃皓.東南大學(xué) 2016
[3]快速人眼檢測若干關(guān)鍵技術(shù)的研究[D]. 黃程.南昌大學(xué) 2015
本文編號:3056660
本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3056660.html
最近更新
教材專著