天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 法律論文 > 治安法論文 >

基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的毛發(fā)顯微圖像自動(dòng)分類

發(fā)布時(shí)間:2021-04-08 02:20
  利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)毛發(fā)物證顯微圖像進(jìn)行自動(dòng)分類,為進(jìn)一步提高顯微檢驗(yàn)技術(shù)的自動(dòng)化程度和毛發(fā)物證檢驗(yàn)提供技術(shù)參考。采用徠卡DVM6數(shù)碼顯微鏡在1400倍放大條件下采集6類毛發(fā)共60000張樣本圖像,構(gòu)建毛發(fā)分類數(shù)據(jù)集;诰矸e神經(jīng)網(wǎng)絡(luò)搭建Hair-Net模型,通過該模型對(duì)毛發(fā)分類數(shù)據(jù)集進(jìn)行樣本訓(xùn)練和測(cè)試驗(yàn)證。實(shí)驗(yàn)研究表明,經(jīng)過參數(shù)調(diào)試和優(yōu)化手段的改進(jìn)后,新的Hair-Net分類精度最高可達(dá)97.82%,成功實(shí)現(xiàn)了毛發(fā)物證顯微圖像的自動(dòng)分類,增強(qiáng)了穩(wěn)健性。 

【文章來源】:激光與光電子學(xué)進(jìn)展. 2019,56(23)北大核心CSCD

【文章頁(yè)數(shù)】:8 頁(yè)

【部分圖文】:

基于改進(jìn)卷積神經(jīng)網(wǎng)絡(luò)的毛發(fā)顯微圖像自動(dòng)分類


卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)

實(shí)驗(yàn)圖,樣本,數(shù)據(jù)集,示例


使用Matlab對(duì)所有樣本數(shù)據(jù)圖像進(jìn)行定點(diǎn)切割,利用坐標(biāo)代碼確定切割起始點(diǎn),以固定區(qū)域大小截取樣本圖像中的毛發(fā)特征區(qū)域,去除與毛發(fā)內(nèi)容無關(guān)的背景部分,防止丟失部分毛發(fā)特征,排除背景干擾。切割時(shí)注意保持所有毛發(fā)圖像的長(zhǎng)寬比相同。為方便實(shí)驗(yàn)操作及樣本訓(xùn)練需對(duì)實(shí)驗(yàn)圖像進(jìn)行順序命名,并利用雙線性插值法對(duì)樣本數(shù)據(jù)進(jìn)行幾何縮放,根據(jù)不同神經(jīng)網(wǎng)絡(luò)要求對(duì)圖像尺寸的大小進(jìn)行處理。給每一類樣本數(shù)據(jù)生成類別標(biāo)簽,并隨機(jī)抽取每類實(shí)驗(yàn)圖像的80%作為訓(xùn)練集進(jìn)行網(wǎng)絡(luò)學(xué)習(xí),剩余的20%作為驗(yàn)證集來考察網(wǎng)絡(luò)性能。樣本數(shù)據(jù)集轉(zhuǎn)換為具有較高讀寫速度的LMDB格式文件。預(yù)處理后的部分樣本數(shù)據(jù)集圖像示例如圖2所示。3.4 實(shí)驗(yàn)環(huán)境配置

結(jié)構(gòu)設(shè)計(jì)圖,結(jié)構(gòu)設(shè)計(jì),毛發(fā),卷積


針對(duì)建立的毛發(fā)顯微圖像數(shù)據(jù)集,提出一種新的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)Hair-Net,具體網(wǎng)絡(luò)配置如圖3和表2所示。第一卷積層采用9×9的卷積核,便于提取細(xì)節(jié)特征,再使用兩層3×3卷積核增加網(wǎng)絡(luò)深度,在不增添計(jì)算量的同時(shí)保證網(wǎng)絡(luò)訓(xùn)練速度,模型在每層卷積后連上ReLU激活函數(shù);由于毛發(fā)顯微圖像的分類需要依靠毛發(fā)細(xì)節(jié)紋理形狀,因此池化層全部采用最大池化,利于訓(xùn)練過程中對(duì)毛發(fā)特征的提取,將第二個(gè)全連接層(FC)的節(jié)點(diǎn)數(shù)設(shè)置為1024,能控制網(wǎng)絡(luò)寬度,可一定程度地提升性能;最后運(yùn)用解決多分類問題的Softmax回歸函數(shù),結(jié)合Center-loss中心損失度量學(xué)習(xí)[26]作為輔助損失函數(shù)[27]得到分類值結(jié)果,將Center-loss的權(quán)重系數(shù)λ設(shè)為0.001。3.6 實(shí)驗(yàn)算法流程設(shè)計(jì)

【參考文獻(xiàn)】:
期刊論文
[1]基于改進(jìn)視覺背景提取算法的運(yùn)動(dòng)目標(biāo)檢測(cè)方法[J]. 王旭,劉毅,李國(guó)燕.  激光與光電子學(xué)進(jìn)展. 2019(01)
[2]中心損失與Softmax損失聯(lián)合監(jiān)督下的人臉識(shí)別[J]. 余成波,田桐,熊遞恩,許琳英.  重慶大學(xué)學(xué)報(bào). 2018(05)
[3]基于融合卷積神經(jīng)網(wǎng)絡(luò)模型的手寫數(shù)字識(shí)別[J]. 陳玄,朱榮,王中元.  計(jì)算機(jī)工程. 2017(11)
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的車牌字符識(shí)別[J]. 董峻妃,鄭伯川,楊澤靜.  計(jì)算機(jī)應(yīng)用. 2017(07)
[5]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 周飛燕,金林鵬,董軍.  計(jì)算機(jī)學(xué)報(bào). 2017(06)
[6]改進(jìn)的基于卷積神經(jīng)網(wǎng)絡(luò)的圖像超分辨率算法[J]. 肖進(jìn)勝,劉恩雨,朱力,雷俊鋒.  光學(xué)學(xué)報(bào). 2017(03)
[7]基于卷積神經(jīng)網(wǎng)絡(luò)的軍事圖像分類[J]. 高惠琳.  計(jì)算機(jī)應(yīng)用研究. 2017(11)
[8]卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 李彥冬,郝宗波,雷航.  計(jì)算機(jī)應(yīng)用. 2016(09)
[9]毛發(fā)槍彈損傷的環(huán)境掃描電鏡研究[J]. 鄒友,權(quán)養(yǎng)科,朱永春,鄭明,劉貴明,甘斌,王攀,唐敏,陶克明.  中國(guó)法醫(yī)學(xué)雜志. 2006(06)
[10]毛發(fā)常見機(jī)械性損傷形態(tài)的環(huán)境掃描電鏡研究[J]. 鄒友,陶克明,李立新,朱永春,劉貴明,甘斌,郭洪玲,王攀,孫廣勝,唐敏.  刑事技術(shù). 2006(01)

碩士論文
[1]基于三維卷積神經(jīng)網(wǎng)絡(luò)步態(tài)識(shí)別方法的研究[D]. 李影.北京交通大學(xué) 2018
[2]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別[D]. 蔣帥.吉林大學(xué) 2017
[3]基于改進(jìn)神經(jīng)網(wǎng)絡(luò)的離線簽名筆跡識(shí)別[D]. 梁曦璐.中國(guó)政法大學(xué) 2017



本文編號(hào):3124656

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/falvlunwen/fanzuizhian/3124656.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶73976***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com