天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于身體特征圖像及深度學(xué)習(xí)的奶牛身份識(shí)別方法的研究

發(fā)布時(shí)間:2021-07-17 11:13
  奶牛身份識(shí)別技術(shù)是自動(dòng)化養(yǎng)殖的重要組成部分,對(duì)保障奶牛健康和減少疫情極為有效,F(xiàn)階段普遍使用的奶牛身份識(shí)別技術(shù)是給奶牛佩戴帶有標(biāo)號(hào)的電子耳標(biāo),該方法會(huì)對(duì)奶牛造成物理?yè)p傷,且標(biāo)簽容易丟失。為此,本文提出基于身體特征圖像和深度學(xué)習(xí)的奶牛身份識(shí)別方法。本文的主要工作如下:(1)搭建奶牛圖像采集平臺(tái),包括在擠奶廳安置網(wǎng)絡(luò)攝像頭并傳輸視頻和配置運(yùn)行環(huán)境。制作奶牛圖像數(shù)據(jù)集,其中包括提取奶牛視頻幀、樣本集預(yù)處理、手動(dòng)標(biāo)注圖像和采用不同方式進(jìn)行數(shù)據(jù)集增強(qiáng)等操作。(2)對(duì)奶牛身份識(shí)別系統(tǒng)的整體框架和功能進(jìn)行分析,并設(shè)計(jì)了系統(tǒng)整體檢測(cè)流程。選用YOLOv3檢測(cè)算法對(duì)自制的奶牛數(shù)據(jù)集進(jìn)行訓(xùn)練和測(cè)試,同時(shí)對(duì)奶牛視頻進(jìn)行了測(cè)試,并分析和總結(jié)了實(shí)驗(yàn)結(jié)果。使用其它YOLO系列算法對(duì)同樣的奶牛數(shù)據(jù)集進(jìn)行測(cè)試,比較不同YOLO算法的實(shí)驗(yàn)結(jié)果和檢測(cè)性能。(3)為提升系統(tǒng)檢測(cè)準(zhǔn)確度,本文從數(shù)據(jù)樣本增強(qiáng)和YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)改進(jìn)兩方面進(jìn)行補(bǔ)充,提出加入空間金字塔池化層的多尺度目標(biāo)檢測(cè)算法,測(cè)試結(jié)果表明,優(yōu)化后的模型更適合本文的奶牛身份識(shí)別。另外,基于WAMP設(shè)計(jì)了系統(tǒng)展示平臺(tái),實(shí)現(xiàn)完整的奶牛個(gè)體身份識(shí)別系統(tǒng)。 

【文章來(lái)源】:內(nèi)蒙古大學(xué)內(nèi)蒙古自治區(qū) 211工程院校

【文章頁(yè)數(shù)】:60 頁(yè)

【學(xué)位級(jí)別】:碩士

【部分圖文】:

基于身體特征圖像及深度學(xué)習(xí)的奶牛身份識(shí)別方法的研究


卷積過(guò)程示意圖

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),圖片


圖 2.3 LeNet5 網(wǎng)絡(luò)結(jié)構(gòu)Figure 2.3 LeNet5 network structure(2)VGGNet 是首個(gè)通過(guò)加深網(wǎng)絡(luò)深度來(lái)改善網(wǎng)絡(luò)性能的模型[32],準(zhǔn)確率也隨著深度的加深而改善,并且在 ILSVRC2014 比賽中獲得冠軍。常用的深度有 16 層和 19 層,VGGNet在 AlexNet 網(wǎng)絡(luò)基礎(chǔ)上使用更小的卷積核,加深了網(wǎng)絡(luò)層數(shù),使得網(wǎng)絡(luò)參數(shù)減小,數(shù)據(jù)擬合度增加,收斂速度也比 AlexNet 快[33]。網(wǎng)絡(luò)的通道數(shù)從輸入的224×224×3三通道 RGB 圖像,經(jīng)過(guò)多個(gè)卷積層后,輸出層不斷增加到 512,因此可以提取更多的特征。VGGNet 在測(cè)試階段可以使用不同尺度大小的圖片,可以提高識(shí)別準(zhǔn)確度。VGG16 的網(wǎng)絡(luò)結(jié)構(gòu)如圖 2.4 所示:可以看到一共使用四次池化,圖片的大小不斷減小、通道數(shù)不斷增加。VGGNet 的改進(jìn)之處在于可以多尺度圖片輸入,然后網(wǎng)絡(luò)初始化圖片為同一大小。訓(xùn)練時(shí)按照級(jí)別簡(jiǎn)單的順序優(yōu)先訓(xùn)練,然后將訓(xùn)練權(quán)重傳給后面的網(wǎng)絡(luò),提高訓(xùn)練速度、減少訓(xùn)練時(shí)間。

網(wǎng)絡(luò)結(jié)構(gòu)圖,網(wǎng)絡(luò)結(jié)構(gòu),圖片


圖 2.3 LeNet5 網(wǎng)絡(luò)結(jié)構(gòu)Figure 2.3 LeNet5 network structure(2)VGGNet 是首個(gè)通過(guò)加深網(wǎng)絡(luò)深度來(lái)改善網(wǎng)絡(luò)性能的模型[32],準(zhǔn)確率也隨著深度的加深而改善,并且在 ILSVRC2014 比賽中獲得冠軍。常用的深度有 16 層和 19 層,VGGNet在 AlexNet 網(wǎng)絡(luò)基礎(chǔ)上使用更小的卷積核,加深了網(wǎng)絡(luò)層數(shù),使得網(wǎng)絡(luò)參數(shù)減小,數(shù)據(jù)擬合度增加,收斂速度也比 AlexNet 快[33]。網(wǎng)絡(luò)的通道數(shù)從輸入的224×224×3三通道 RGB 圖像,經(jīng)過(guò)多個(gè)卷積層后,輸出層不斷增加到 512,因此可以提取更多的特征。VGGNet 在測(cè)試階段可以使用不同尺度大小的圖片,可以提高識(shí)別準(zhǔn)確度。VGG16 的網(wǎng)絡(luò)結(jié)構(gòu)如圖 2.4 所示:可以看到一共使用四次池化,圖片的大小不斷減小、通道數(shù)不斷增加。VGGNet 的改進(jìn)之處在于可以多尺度圖片輸入,然后網(wǎng)絡(luò)初始化圖片為同一大小。訓(xùn)練時(shí)按照級(jí)別簡(jiǎn)單的順序優(yōu)先訓(xùn)練,然后將訓(xùn)練權(quán)重傳給后面的網(wǎng)絡(luò),提高訓(xùn)練速度、減少訓(xùn)練時(shí)間。

【參考文獻(xiàn)】:
期刊論文
[1]圖像物體檢測(cè)深度學(xué)習(xí)算法綜述[J]. 郭澤方.  機(jī)械工程與自動(dòng)化. 2019(01)
[2]基于Faster RCNN的行人檢測(cè)方法[J]. 張匯,杜煜,寧淑榮,張永華,楊碩,杜晨.  傳感器與微系統(tǒng). 2019(02)
[3]基于SSD的改進(jìn)目標(biāo)精定位檢測(cè)算法[J]. 陳傳華,侯志強(qiáng),余旺盛,李軍,廖秀峰,王姣堯.  空軍工程大學(xué)學(xué)報(bào)(自然科學(xué)版). 2018(06)
[4]遙感圖像中飛機(jī)的改進(jìn)YOLOv3實(shí)時(shí)檢測(cè)算法[J]. 戴偉聰,金龍旭,李國(guó)寧,鄭志強(qiáng).  光電工程. 2018(12)
[5]基于YOLO模型的紅外圖像行人檢測(cè)方法[J]. 譚康霞,平鵬,秦文虎.  激光與紅外. 2018(11)
[6]論YOLO算法在機(jī)器視覺(jué)中應(yīng)用原理[J]. 李茂暉,吳傳平,鮑艷,房卓群.  教育現(xiàn)代化. 2018(41)
[7]基于改進(jìn)的VGGNet算法的人臉識(shí)別[J]. 喻麗春,劉金清.  長(zhǎng)春工業(yè)大學(xué)學(xué)報(bào). 2018(04)
[8]基于卷積神經(jīng)網(wǎng)絡(luò)的圖像識(shí)別研究[J]. 謝慧芳,劉藝航,王梓,王迎港.  無(wú)線互聯(lián)科技. 2018(14)
[9]基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)研究綜述[J]. 李旭冬,葉茂,李濤.  計(jì)算機(jī)應(yīng)用研究. 2017(10)
[10]基于改進(jìn)特征袋模型的奶牛識(shí)別算法[J]. 陳娟娟,劉財(cái)興,高月芳,梁云.  計(jì)算機(jī)應(yīng)用. 2016(08)

博士論文
[1]奶牛數(shù)字化管理關(guān)鍵技術(shù)的研究[D]. 郭衛(wèi).河北農(nóng)業(yè)大學(xué) 2010

碩士論文
[1]基于深度學(xué)習(xí)的無(wú)人機(jī)遙感圖像目標(biāo)識(shí)別方法研究[D]. 祝思君.北京建筑大學(xué) 2018
[2]基于B/S架構(gòu)的網(wǎng)絡(luò)學(xué)習(xí)平臺(tái)研究與實(shí)現(xiàn)[D]. 史亞慶.西安理工大學(xué) 2018
[3]基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)研究[D]. 楊俊.蘭州理工大學(xué) 2018
[4]基于深度學(xué)習(xí)的昆蟲圖像識(shí)別研究[D]. 秦放.西南交通大學(xué) 2018
[5]基于深度學(xué)習(xí)的圖像目標(biāo)識(shí)別研究[D]. 陳志韜.哈爾濱工程大學(xué) 2018
[6]基于深度學(xué)習(xí)的人臉檢測(cè)算法研究[D]. 蔣少?gòu)?qiáng).哈爾濱工程大學(xué) 2018
[7]基于深度學(xué)習(xí)與稀疏表示的模式識(shí)別研究及牛臉識(shí)別應(yīng)用[D]. 呂昌偉.北方民族大學(xué) 2018
[8]基于卷積神經(jīng)網(wǎng)絡(luò)的光場(chǎng)圖像深度估計(jì)[D]. 潘志偉.浙江工商大學(xué) 2018
[9]基于STM32的奶牛動(dòng)態(tài)稱重系統(tǒng)研究[D]. 董小寧.山東農(nóng)業(yè)大學(xué) 2017
[10]牛臉特征點(diǎn)檢測(cè)的研究與實(shí)現(xiàn)[D]. 宋肖肖.西北農(nóng)林科技大學(xué) 2017



本文編號(hào):3288067

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/yixuelunwen/dongwuyixue/3288067.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶fb5ca***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com