基于正交雙目視覺的菜粉蝶3D運(yùn)動信息獲取技術(shù)研究
本文選題:菜粉蝶 切入點(diǎn):運(yùn)動軌跡 出處:《西北農(nóng)林科技大學(xué)》2017年碩士論文 論文類型:學(xué)位論文
【摘要】:隨著農(nóng)業(yè)的快速發(fā)展,昆蟲行為分析的重要性愈發(fā)凸顯。隨著對昆蟲行為分析方法研究的逐漸深入,計(jì)算機(jī)視覺技術(shù)已經(jīng)成為此方面研究的重要方法。本研究針對昆蟲行為學(xué)研究定量、精確地獲取昆蟲三維運(yùn)動軌跡及運(yùn)動參數(shù)的需要,根據(jù)風(fēng)洞實(shí)驗(yàn)環(huán)境和菜粉蝶運(yùn)動特征,以農(nóng)業(yè)常見害蟲菜粉蝶為研究對象,設(shè)計(jì)了頂視和側(cè)視攝像機(jī)正交配置的雙目視覺測量系統(tǒng),利用KCF(Kernelized Correlation Filters)算法,提出了一種昆蟲三維軌跡及飛行參數(shù)獲取方法。本研究可以較為準(zhǔn)確地獲取昆蟲飛行軌跡及運(yùn)動參數(shù),可以滿足對昆蟲行為分析的應(yīng)用要求。論文的研究內(nèi)容和取得的成果如下:(1)設(shè)計(jì)了一種正交雙目視覺昆蟲視頻采集系統(tǒng)。通過分析風(fēng)洞的安裝位置、尺寸規(guī)格和昆蟲行為實(shí)驗(yàn)室的實(shí)際空間環(huán)境,以及獲取高質(zhì)量菜粉蝶活動視頻數(shù)據(jù)的應(yīng)用需求,選擇了適于本研究的攝像機(jī)型號,設(shè)計(jì)了正交雙目視覺支架和攝像機(jī)安裝托板,通過分析及試驗(yàn)確定并設(shè)計(jì)了同步觸發(fā)方式,對計(jì)算機(jī)硬件升級。測試結(jié)果表明,實(shí)際幀數(shù)可以達(dá)到理論幀數(shù)的99.93%~100%,該系統(tǒng)能夠滿足對菜粉蝶飛行視頻的流暢、無丟幀的采集需求。(2)對比分析了正交雙目視覺與傳統(tǒng)平行雙目視覺的攝像機(jī)標(biāo)定方法。平行雙目視覺需要利用2個(gè)攝像機(jī)的內(nèi)外參數(shù)進(jìn)行雙目校正與視差圖的獲取,正交雙目視覺沒有復(fù)雜的雙目校正過程,只需要通過攝像機(jī)標(biāo)定得到2個(gè)攝像機(jī)各自的內(nèi)部參數(shù)即可。根據(jù)研究需求以及試驗(yàn)的場地等外界因素,選擇張正友的棋盤格標(biāo)定法,對2個(gè)攝像機(jī)進(jìn)行標(biāo)定得到內(nèi)部參數(shù),結(jié)果表明,俯視攝像機(jī)和頂視攝像機(jī)的標(biāo)定像素誤差均小于0.52,可以滿足標(biāo)定需求。(3)研究了菜粉蝶目標(biāo)的跟蹤方法,得出KCF算法的最佳參數(shù)選擇為線性核函數(shù)和灰度特征。根據(jù)菜粉蝶圖像序列的特點(diǎn)和菜粉蝶本身的飛行特性,選取3種非常具有代表性的視覺目標(biāo)跟蹤方法進(jìn)行分析,并對3種算法進(jìn)行跟蹤試驗(yàn),對比分析表明,STC(Spatio Temporal Context Learning)算法和KCF算法跟蹤丟幀率均為0,平均像素誤差分別為12.47和7.12,后者更適用于菜粉蝶目標(biāo)識別與跟蹤。設(shè)計(jì)KCF跟蹤算法不同核函數(shù)和特征試驗(yàn),結(jié)果表明,采用線性核函數(shù)和灰度特征,KCF跟蹤算法的平均像素誤差為5.58,能有效地跟蹤菜粉蝶目標(biāo)。(4)研究分析了正交雙目視覺的立體匹配方法。通過與傳統(tǒng)的平行雙目視覺進(jìn)行對比,在保證正交性的基礎(chǔ)上,正交匹配利用2個(gè)攝像機(jī)拍攝平面的正交關(guān)系可直接得到菜粉蝶目標(biāo)的三維空間坐標(biāo),有效地降低了立體匹配算法復(fù)雜度,大大提高了獲取運(yùn)動目標(biāo)的空間三維軌跡的效率,且跟蹤丟幀率為0,能夠滿足本研究的系統(tǒng)要求。測試結(jié)果表明,本文方法可對菜粉蝶目標(biāo)進(jìn)行跟蹤、獲取其飛行3維運(yùn)動軌跡,并可方便地測定菜粉蝶飛行的速度、加速度等參數(shù),檢測的三維空間對象距離相對誤差小于3.44%。
[Abstract]:With the rapid development of agriculture, the importance of insect behavior analysis becomes more and more important. Computer vision technology has become an important research method in this field. In this study, according to the experimental environment of wind tunnel and the movement characteristics of rapeseed butterflies, according to the needs of quantitative analysis of insect behavior research and accurate acquisition of three-dimensional motion trajectories and parameters of insects, In this paper, the binocular vision measurement system with the orthogonal configuration of top and side view cameras is designed, and the algorithm of KCF(Kernelized Correlation filters is used to design a binocular vision measurement system, which is a common agricultural pest, rapeseed butterfly. In this paper, a method for obtaining flight parameters and flight trajectory of insects is proposed, and the flight trajectory and motion parameters of insects can be obtained more accurately in this study. The research contents and results of this paper are as follows: 1) an orthogonal binocular visual insect video acquisition system is designed. By analyzing the installation position of wind tunnel, The dimension specification and the actual space environment of insect behavior laboratory, as well as the application requirement of obtaining high-quality video data of rapeseed butterfly activity, selected the camera model suitable for this study, designed the orthogonal binocular visual support and camera mounting plate. Through analysis and experiment, the synchronous trigger mode is determined and designed, and the computer hardware is upgraded. The test results show that the actual frame number can reach 99.933% of the theoretical frame count, and the system can satisfy the fluency of flying video of rapeseed butterfly. The camera calibration method of orthogonal binocular vision and traditional parallel binocular vision is compared and analyzed. Parallel binocular vision needs to use the internal and external parameters of two cameras for binocular correction and parallax image acquisition. Orthogonal binocular vision has no complicated binocular correction process. It only needs to get the internal parameters of two cameras by camera calibration. According to the external factors such as research demand and experimental site, Zhang Zhengyou's checkerboard calibration method is selected. The internal parameters are obtained by calibrating the two cameras. The results show that the calibration pixel errors of both overhead and overhead cameras are less than 0.52, which can meet the calibration requirements. (3) the tracking method of rapeseed butterfly target is studied. The optimal parameters of KCF algorithm are linear kernel function and gray feature. According to the characteristics of image sequence and flight characteristics of rapeseed butterfly, three very representative visual target tracking methods are selected to analyze. And the tracking experiments of three algorithms are carried out. The comparative analysis shows that the tracking frame loss rate of Spatio Temporal Context learning) algorithm and KCF algorithm are both 0, and the average pixel error is 12.47 and 7.12 respectively. The latter is more suitable for target recognition and tracking of rapeseed butterfly. Different kernel functions and feature tests of KCF tracking algorithm are designed, and the results show that, Using linear kernel function and gray feature KCF tracking algorithm, the average pixel error is 5.58, which can effectively track the target of rapeseed butterfly. The stereo matching method of orthogonal binocular vision is studied and analyzed. The method is compared with the traditional parallel binocular vision. Based on the guarantee of orthogonality, orthogonal matching can directly obtain the three-dimensional coordinates of the target of rapeseed butterfly by using the orthogonal relation of two cameras, which effectively reduces the complexity of stereo matching algorithm. The efficiency of acquiring 3D trajectory of moving target is greatly improved, and the tracking frame loss rate is 0, which can meet the system requirements of this study. The test results show that the method can track the target of rapeseed butterfly. The 3D motion trajectory is obtained, and the parameters such as velocity and acceleration of rapeseed butterfly flying can be measured conveniently. The relative error of the measured 3D object distance is less than 3.44.
【學(xué)位授予單位】:西北農(nóng)林科技大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2017
【分類號】:S433;TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前5條
1 胡天翔;鄭加強(qiáng);周宏平;;基于雙目視覺的樹木圖像測距方法[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2010年11期
2 王輝;毛文華;劉剛;胡小安;李樹君;;基于視覺組合的蘋果作業(yè)機(jī)器人識別與定位[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2012年12期
3 侯鑫新;譚月勝;;基于雙目視覺的測樹方法研究[J];中國農(nóng)業(yè)信息;2013年09期
4 付為森;滕光輝;;基于雙目視覺技術(shù)的豬生長監(jiān)測系統(tǒng)標(biāo)定模式[J];農(nóng)業(yè)機(jī)械學(xué)報(bào);2009年S1期
5 李斌;王海峰;黃文倩;張弛;;菠蘿采收機(jī)械低成本雙目視覺平臺搭建與田間試驗(yàn)(英文)[J];農(nóng)業(yè)工程學(xué)報(bào);2012年S2期
相關(guān)會議論文 前7條
1 孟環(huán)標(biāo);楊興強(qiáng);李雪梅;;基于雙目視覺的測量系統(tǒng)誤差分析[A];第五屆全國幾何設(shè)計(jì)與計(jì)算學(xué)術(shù)會議論文集[C];2011年
2 朱宗磊;殷福亮;;基于雙目視覺的目標(biāo)檢測與跟蹤系統(tǒng)[A];2010年通信理論與信號處理學(xué)術(shù)年會論文集[C];2010年
3 王榮本;張明恒;毛曉燕;;雙目視覺技術(shù)在環(huán)境探測中的應(yīng)用[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第二屆學(xué)術(shù)會議論文集[C];2005年
4 張靜;李琳;劉曉平;;基于雙目視覺的虛擬手的實(shí)現(xiàn)[A];計(jì)算機(jī)技術(shù)與應(yīng)用進(jìn)展——全國第17屆計(jì)算機(jī)科學(xué)與技術(shù)應(yīng)用(CACIS)學(xué)術(shù)會議論文集(上冊)[C];2006年
5 吳濤;劉欣;;基于單雙目視覺信息融合的障礙檢測方法[A];中國宇航學(xué)會深空探測技術(shù)專業(yè)委員會第二屆學(xué)術(shù)會議論文集[C];2005年
6 孫明;;基于雙目視覺的移動機(jī)器人避障研究[A];中國農(nóng)業(yè)工程學(xué)會2011年學(xué)術(shù)年會論文集[C];2011年
7 杜英魁;韓建達(dá);唐延?xùn)|;;基于雙目重建不確定性的動態(tài)特征濾除[A];第七屆全國信息獲取與處理學(xué)術(shù)會議論文集[C];2009年
相關(guān)博士學(xué)位論文 前4條
1 許杰;基于雙目視覺和二維熵樹木信息點(diǎn)提取及生長量反演研究[D];東北林業(yè)大學(xué);2015年
2 陳學(xué)惠;基于移動機(jī)器人雙目視覺的井下三維場景重建方法研究[D];中國礦業(yè)大學(xué)(北京);2012年
3 馬子昂;基于稀疏學(xué)習(xí)的視覺目標(biāo)跟蹤[D];浙江大學(xué);2017年
4 陳希章;基于雙目視覺的弧焊機(jī)器人焊縫三維信息獲取研究[D];上海交通大學(xué);2007年
相關(guān)碩士學(xué)位論文 前10條
1 麥樹彬;基于雙目視覺的色盲輔助技術(shù)的研究[D];華南理工大學(xué);2015年
2 徐宏;基于雙目視覺和稀疏表示的智能倒車控制研究[D];西南交通大學(xué);2015年
3 李輝;田間機(jī)器人的雙目視覺系統(tǒng)誤差分析研究[D];內(nèi)蒙古大學(xué);2015年
4 逯沛龍;基于FPGA的雙目視覺圖像預(yù)處理系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)[D];南京理工大學(xué);2015年
5 王婷婷;基于GPU的雙目視覺運(yùn)動目標(biāo)檢測跟蹤算法研究[D];哈爾濱工業(yè)大學(xué);2015年
6 王昌盛;基于ORB算法的雙目視覺測量研究[D];哈爾濱工業(yè)大學(xué);2015年
7 趙程;具有圓面特征的非合作目標(biāo)雙目視覺位姿測量[D];哈爾濱工業(yè)大學(xué);2015年
8 路研研;在軌航天器雙目視覺圖像采集與處理系統(tǒng)研制[D];哈爾濱工業(yè)大學(xué);2015年
9 曹之樂;基于雙目視覺的焦點(diǎn)定位方法研究與應(yīng)用[D];重慶理工大學(xué);2015年
10 王洪偉;基于雙目視覺的紅綠燈路口安全距離預(yù)警研究[D];安徽工程大學(xué);2015年
,本文編號:1588099
本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/1588099.html