天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于目標丟失判別機制的視覺跟蹤算法及應(yīng)用研究

發(fā)布時間:2021-03-05 13:24
  視覺跟蹤算法能準確、穩(wěn)定、快速地判別目標并定位目標位置,對于提高視覺跟蹤系統(tǒng)的整體性能十分重要,但在背景雜亂、相似物體干擾、目標被遮擋、目標出鏡頭等場景下跟蹤算法容易丟失目標。本文針對視覺跟蹤算法丟失目標后無法找回目標的難題,提出了基于目標丟失判別機制的視覺跟蹤算法(YOLORTM),并在移動機器人視覺跟蹤系統(tǒng)上驗證算法的可行性。本文進行研究如下:(1)為了在復(fù)雜場景下,特別是目標被嚴重遮擋或出鏡頭時實現(xiàn)準確跟蹤,本文設(shè)計了基于目標丟失判別機制的視覺跟蹤算法(YOLO-RTM)。YOLO-RTM算法首先通過實時檢測算法(An incremental improvement of Real-Time Object Detection,YOLOv3)檢測視頻第一幀中的目標,之后利用實時多域卷積神經(jīng)網(wǎng)絡(luò)跟蹤算法(Real-time learning multi-domain convolutional neural networks for visual tracking,RT-MDNet)預(yù)測目標邊框的變化,最后計算檢測算法和跟蹤算法預(yù)測邊框的重疊度,根據(jù)重疊度與預(yù)設(shè)閾值的比較結(jié)果判斷目標... 

【文章來源】:湘潭大學(xué)湖南省

【文章頁數(shù)】:63 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于目標丟失判別機制的視覺跟蹤算法及應(yīng)用研究


常用激活函數(shù)圖像

對比圖,檢測精度,對比圖,目標


湘潭大學(xué)碩士學(xué)位論文25圖3-3YOLOv1、YOLOv2、YOLOv3第一幀檢測精度對比圖表3-1YOLOv1、YOLOv2、YOLOv3第一幀檢測精度對比表算法視頻YOLOv1YOLOv2YOLOv3Walker128.84%88.82%99.71%Walker259.39%90.99%99.98%Walker343.65%90.66%99.97%YOLOv1、YOLOv2、YOLOv3算法的檢測精度如表3-1所示、精度圖對比如圖3-3所示,可以看出YOLOv3檢測精度相比于YOLOv1和YOLOv2高出較多。YOLOv3模型性能如此優(yōu)秀,這一方面得益于模型的設(shè)計,利用Darknet-53更深的網(wǎng)絡(luò)、ResNet殘差結(jié)構(gòu)更好地提取卷積特征,另外一方面也得益于利用3個不同尺度下3個不同長寬比的先驗邊框,即共9個先驗邊框檢測,能夠檢測出不同大小的物體,且檢測精度較高。雖然實時檢測算法YOLOv3在檢測目標時,可以分類目標并定位目標位置,但是檢測算法的目地在于找到目標、分類目標,并不能判斷視頻幀圖像與幀圖像之間出現(xiàn)的目標是否為同一個目標,對于同一目標的位置如何變化、目標運動情況等并不能給出有效信息。下一節(jié)中,實時跟蹤算法能對視頻幀圖像與幀圖像之間的同一目標實現(xiàn)定位跟隨。

工具箱,視頻


湘潭大學(xué)碩士學(xué)位論文263.2基于實時多域卷積神經(jīng)網(wǎng)絡(luò)的視覺跟蹤算法3.2.1視頻標注工具箱本章使用vatic視頻標注工具箱,制作視頻數(shù)據(jù)集,Github官網(wǎng)地址為如下:https://github.com/cvondrick/vatic.官網(wǎng)上有詳細安裝與使用過程,其具體安裝、使用過程如表3-2、3-3所示為:表3-2vatic安裝過程步驟安裝過程1安裝cython:sudopipinstallcython==0.202下載文件:wgethttp://mit.edu/vondrick/vatic/vatic-install.sh3授予權(quán)限:chmod+xvatic-install.sh4運行vatic-install.sh文件:./vatic-install.sh5進入vatic文件目錄下:cdvatic6配置HTTPServer7配置SQL數(shù)據(jù)庫8初始化數(shù)據(jù)庫:turkicsetup–database9允許vatic訪問turkic:turkicsetup--public-symlink10驗證是否安裝正確:turkicstatus–verify,如圖3-4所示圖3-4Vatic工具箱安裝成功表3-3Vatic使用過程(其中“/home/xtu”為用戶目錄)步驟使用過程1建立存儲文件夾:mkdir/home/xtu/output2提取視頻幀:turkicextract/home/xtu/video.mp4/home/xtu/output/3導(dǎo)入離線視頻:turkicloadidentifier/path/to/output/directoryLabel1--offline(Label1為視頻標簽)4pulish離線視頻:turkicpublish--offline5打開pulish后網(wǎng)址:顯示如圖3-5,可開始標注

【參考文獻】:
期刊論文
[1]基于深度學(xué)習(xí)的飛機目標跟蹤應(yīng)用研究[J]. 趙春梅,陳忠碧,張建林.  光電工程. 2019(09)
[2]一種適用于多彈聯(lián)合攻擊機動目標的協(xié)同制導(dǎo)策略[J]. 田源,宿敬亞,孫月光,王俊波.  航空兵器. 2019(04)
[3]基于視覺的移動機器人目標跟蹤方法[J]. 余鐸,王耀南,毛建旭,鄭海華,周顯恩.  儀器儀表學(xué)報. 2019(01)
[4]旋翼飛行機器人的行人視覺跟蹤方法及系統(tǒng)[J]. 王耀南,羅瓊?cè)A,毛建旭,陳彥杰,周顯恩.  電子測量與儀器學(xué)報. 2018(11)
[5]視覺目標跟蹤方法研究綜述[J]. 葛寶義,左憲章,胡永江.  中國圖象圖形學(xué)報. 2018(08)
[6]室內(nèi)單目機器人視覺目標發(fā)現(xiàn)與跟隨[J]. 駱頗.  計算機系統(tǒng)應(yīng)用. 2018(01)
[7]移動機器人實時目標跟蹤系統(tǒng)設(shè)計與實現(xiàn)[J]. 趙德超,彭力.  傳感器與微系統(tǒng). 2017(12)
[8]深度學(xué)習(xí)在視頻目標跟蹤中的應(yīng)用進展與展望[J]. 管皓,薛向陽,安志勇.  自動化學(xué)報. 2016(06)
[9]彈道目標實時跟蹤中的濾波方法綜述[J]. 劉也,余安喜,朱炬波,唐歌實.  宇航學(xué)報. 2013(11)

博士論文
[1]復(fù)雜交通視頻場景中的車輛軌跡提取及行為分析[D]. 盧勝男.長安大學(xué) 2016
[2]基于視覺的微小型無人直升機位姿估計與目標跟蹤研究[D]. 徐偉杰.浙江大學(xué) 2012

碩士論文
[1]基于圖像分割的細胞序列跟蹤方法研究[D]. 張哲.吉林大學(xué) 2017



本文編號:3065274

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/shengwushengchang/3065274.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c611f***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com