天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學(xué)習(xí)的仿生復(fù)眼目標識別系統(tǒng)設(shè)計

發(fā)布時間:2021-08-15 05:05
  隨著人工智能技術(shù)的不斷提高,具有視覺能力的機器人在軍、民用領(lǐng)域的需求不斷增多。目前的機器視覺平臺以單目探測系統(tǒng)構(gòu)架為主導(dǎo),這種結(jié)構(gòu)的探測系統(tǒng)視場范圍較小,無法對大范圍環(huán)境進行完整的視場覆蓋與全面的圖像捕捉,導(dǎo)致其探測靈活度較低。同時現(xiàn)階段配合機器視覺平臺的目標識別算法主要由人工目標特征定義與匹配法實現(xiàn),該方法在定義目標特征環(huán)節(jié)經(jīng)常會因人為誤差導(dǎo)致識別精度下降,且對于復(fù)雜目標幾乎無法進行精準定義。所以單目探測系統(tǒng)與人工定義特征匹配目標識別算法均不適用于現(xiàn)代機器視覺的使用環(huán)境中。為解決以上問題,同時提高機器視覺系統(tǒng)的探測范圍與目標識別能力,通過對昆蟲復(fù)眼結(jié)構(gòu)的研究與神經(jīng)網(wǎng)絡(luò)的搭建,設(shè)計了一種基于深度學(xué)習(xí)的仿生復(fù)眼目標識別探測系統(tǒng)。系統(tǒng)通過多孔徑拼接成像的方法在大范圍內(nèi)采集目標物圖像信息,整合信息后利用以壓縮的YOLO V3深度卷積神經(jīng)網(wǎng)絡(luò)為主體算法進行目標識別,同時采用KCF目標跟蹤算法對識別的目標物進行鎖定,完成對目標物的實時識別與跟蹤。通過實驗證明,系統(tǒng)能夠在較大的視場范圍內(nèi)對目標進行識別與追蹤,解決了以往單目探測系統(tǒng)圖像捕捉范圍窄、靈活性差的問題。同時將圖像特征匹配算法與卷積神經(jīng)網(wǎng)絡(luò)... 

【文章來源】:沈陽理工大學(xué)遼寧省

【文章頁數(shù)】:100 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度學(xué)習(xí)的仿生復(fù)眼目標識別系統(tǒng)設(shè)計


圖1.1百度測繪車載激光全景相機??Fig.?1.1?Mapping?vehicle?mounted?laser?panoramic?camera?form?Baidu??

平面,微透鏡,復(fù)眼,隔離層


微透鏡的光軸互相平行、光學(xué)結(jié)構(gòu)相同。日本大阪大學(xué)JunTanida等人W于2001??年研制了?TOMBO?(Thin?Observation?Modu丨e?by?Bound?Optics)仿生復(fù)眼,該系??統(tǒng)由微透鏡陣列、光線隔離層與光電探測器陣列組成,其結(jié)構(gòu)如圖1.2所示。系??統(tǒng)中每個微透鏡與其正下方的光線隔離層和對應(yīng)的光電探測器組合為一組子眼,??圖像光信號經(jīng)過微透鏡成像在光電探測器上,光線隔離層對相鄰子眼間的干擾光??信號進行阻斷,以防止信號間串擾造成成像偏差,TOMBO系統(tǒng)雖然具有結(jié)構(gòu)緊??湊、組裝方便與大視場角的特點,但由于每個微透鏡直徑較小,導(dǎo)致系統(tǒng)通光量??較低,衍射現(xiàn)象嚴重,成像分辨率較差。??_r??辟濾光片??¥?笟透梗e列??光線渦離蕓??光電探59S這列??圖1.2?TOMBO平面仿生復(fù)眼結(jié)構(gòu)??Fig.?1.2?Structure?of?TOMBO?planar?bionic?compound?eye??德國的Fraunhofer?qū)嶒炇以谄矫娣律鷱?fù)眼領(lǐng)域做出了大量的研究。早期階段,??Duparre等人利用光刻法制作了?AACE仿生復(fù)眼W。該復(fù)眼系統(tǒng)以透明玻璃為襯??底,利用光刻技術(shù)在其正反兩面分別加工出透光孔與微透鏡陣列。圖像光信號通??過微透鏡后

復(fù)眼,微透鏡,平面,實驗室


▼.、ff?’??..?-???■.?,?'??.?.?.?.?.:'?.?.???I??\光‘接收器??圖1.3?ANSE平面仿生復(fù)眼結(jié)構(gòu)??Fig.?1.3?Structure?of?ANSE?planar?bionic?compound?eye??為優(yōu)化成像問題,Fraunhofer?qū)嶒炇以谠谢A(chǔ)上研制了?oCley仿生復(fù)眼[4],??該系統(tǒng)由三層的啁啾微透鏡和光闌陣列組成。其中每個獨立的子眼由三個來自不??同層的啁啾微透鏡組成,且每個透鏡光軸存在一定夾角,使得子眼能夠同時接收??不同方向的光信號,最終將整個系統(tǒng)接受到的全部圖像信息進行拼接,得到最終??成像結(jié)果。該系統(tǒng)視場角為70°?><10°,分辨率為711p/mm。隨后Fraunhofer?qū)??驗室又對oCley平面仿生復(fù)眼系統(tǒng)作出改進,設(shè)計出了結(jié)構(gòu)更為簡單且成像質(zhì)量??更好的eCley【5]。??目前,Fraunhofer?qū)嶒炇矣冢玻埃保纺昙耗軌蚶迷撛碓O(shè)計出可量產(chǎn)的平面??仿生復(fù)眼系統(tǒng)facetVISION,該系統(tǒng)厚度僅為2毫米,分辨率能夠達到百萬像素??級

【參考文獻】:
期刊論文
[1]基于Zemax的消球差非球面透鏡的優(yōu)化設(shè)計[J]. 靳伍銀,高姣林,剡昌峰.  蘭州理工大學(xué)學(xué)報. 2018(05)
[2]基于改進的TLD目標跟蹤算法[J]. 胡欣,高佳麗.  計算機應(yīng)用研究. 2019(05)
[3]基于機器視覺的TLD目標跟蹤算法改進[J]. 劉雪飛,蔣蓁.  工業(yè)控制計算機. 2018(08)
[4]改進YOLO V3遙感圖像飛機識別應(yīng)用[J]. 鄭志強,劉妍妍,潘長城,李國寧.  電光與控制. 2019(04)
[5]基于YOLO的車輛信息檢測和跟蹤系統(tǒng)[J]. 王福建,張俊,盧國權(quán),李翔,羅鵬.  工業(yè)控制計算機. 2018(07)
[6]基于Faster RCNN的智能車道路前方車輛檢測方法[J]. 史凱靜,鮑泓,徐冰心,潘衛(wèi)國,鄭穎.  計算機工程. 2018(07)
[7]改進的Faster RCNN煤礦井下行人檢測算法[J]. 李偉山,衛(wèi)晨,王琳.  計算機工程與應(yīng)用. 2019(04)
[8]解析CMOS圖像傳感器技術(shù)及未來發(fā)展[J].   電子元器件與信息技術(shù). 2018(03)
[9]改進的KCF紅外空中目標跟蹤方法[J]. 鄭武興,王春平,付強.  激光與紅外. 2017(12)
[10]基于Faster RCNN以及多部件結(jié)合的機場場面靜態(tài)飛機檢測[J]. 戴陳卡,李毅.  計算機應(yīng)用. 2017(S2)

博士論文
[1]仿生曲面復(fù)眼系統(tǒng)設(shè)計及其圖像處理研究[D]. 史成勇.中國科學(xué)院大學(xué)(中國科學(xué)院長春光學(xué)精密機械與物理研究所) 2017
[2]仿生復(fù)眼全景立體成像關(guān)鍵技術(shù)研究[D]. 王玉偉.中國科學(xué)技術(shù)大學(xué) 2017

碩士論文
[1]基于卷積神經(jīng)網(wǎng)絡(luò)的目標檢測研究[D]. 楊俊.蘭州理工大學(xué) 2018
[2]基于ZEMAX的非球面遠心系統(tǒng)優(yōu)化設(shè)計研究[D]. 羅迪.廣東工業(yè)大學(xué) 2018
[3]基于人臉檢測YOLO算法的專用型卷積神經(jīng)網(wǎng)絡(luò)推理加速器的研究與設(shè)計[D]. 羅聰.華南理工大學(xué) 2018
[4]基于卷積神經(jīng)網(wǎng)絡(luò)的小目標行人檢測研究[D]. 蔣家俊.蘭州理工大學(xué) 2018
[5]基于卷積神經(jīng)網(wǎng)絡(luò)的行人檢測和識別研究[D]. 郝旭政.天津工業(yè)大學(xué) 2018
[6]基于特征約束的視頻目標跟蹤算法研究[D]. 陸徐行.南京郵電大學(xué) 2017
[7]基于深度學(xué)習(xí)的室外車輛跟蹤算法研究[D]. 杜省.西安理工大學(xué) 2017
[8]交通事故現(xiàn)場圖像處理仿生復(fù)眼陣列設(shè)計研究[D]. 劉丹.吉林大學(xué) 2017
[9]基于KCF和視覺注意的多特征動態(tài)融合視覺目標跟蹤研究[D]. 陳佳興.西南交通大學(xué) 2017
[10]基于Faster RCNN的視頻動作檢測[D]. 賈川川.北京工業(yè)大學(xué) 2017



本文編號:3343909

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3343909.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3818c***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com