基于無(wú)人機(jī)平臺(tái)的動(dòng)態(tài)目標(biāo)檢測(cè)系統(tǒng)開(kāi)發(fā)
【學(xué)位授予單位】:浙江大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2018
【分類號(hào)】:V279
【圖文】:
隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,許多深度學(xué)習(xí)開(kāi)發(fā)框架得到了眾多研究者的逡逑認(rèn)可,典型的代表有邋T0rch[2"、Theano[22]、Caffe[23]、Pyleam2[24]、TensorF丨ow[25]、逡逑0龜也[26]等。這些框架極大方便了研究者的學(xué)習(xí)與開(kāi)發(fā),部分框架如圖1.2所示。逡逑Caffe邋Pylearn2逡逑PYT6RCH逡逑IT邋Tensor邋Ho逡逑圖1.2深度學(xué)習(xí)開(kāi)發(fā)框架逡逑伴隨著深度學(xué)習(xí)的浪潮,國(guó)內(nèi)外各大公司都早已開(kāi)始進(jìn)行相關(guān)研究。早在逡逑2012年,Google就開(kāi)展了一個(gè)利用深度學(xué)習(xí)技術(shù)來(lái)識(shí)別視頻中貓臉的項(xiàng)目,利逡逑用16000個(gè)CPU服務(wù)器在1000萬(wàn)個(gè)YouTube視頻上進(jìn)行訓(xùn)練,最終使得程序逡逑可以自己識(shí)別貓臉。2014年,Google在ILSVRC競(jìng)賽中利用GoogleNet將分類逡逑的錯(cuò)誤率降低至6.66%。谷歌早期使用的是深度學(xué)習(xí)平臺(tái)是基于大規(guī)模CPU集逡逑群的DistBelief,現(xiàn)在已經(jīng)發(fā)展為超過(guò)8000個(gè)GPU組成的Tesorflow上。谷歌的逡逑深度學(xué)習(xí)研究領(lǐng)域主要包括:語(yǔ)音識(shí)別、圖像識(shí)別、圖像搜索、自然語(yǔ)言理解、逡逑谷歌翻譯等。著名的社交網(wǎng)站公司Facebook,于2016年公開(kāi)了其深度學(xué)習(xí)平臺(tái)逡逑Torchnet以及自然語(yǔ)言理解引擎DeepText。Torchnet是建立在Torch上的外層框逡逑架,它提供模塊化設(shè)計(jì),提高代碼的重用性,使得深度學(xué)習(xí)的實(shí)驗(yàn)和應(yīng)用變得更逡逑加簡(jiǎn)單、快速、高效。Torchnet可以用于圖像識(shí)別、自然語(yǔ)言處理等。此外
無(wú)人機(jī)的飛行姿態(tài),以便掌握無(wú)人機(jī)當(dāng)前飛行狀況;搭載地理坐標(biāo)定位傳感器,逡逑可以將發(fā)現(xiàn)車輛目標(biāo)的地理位置進(jìn)行保存,形成數(shù)據(jù)報(bào)表,以供后期數(shù)據(jù)分析。逡逑總體方案架構(gòu)如圖2.1所示。逡逑邐.邋?邐邐總~#統(tǒng)■姞邐逡逑#機(jī).云臺(tái)is性傳感器逡逑邐iz邐\7逡逑i邐嵌入式移動(dòng)端平臺(tái)逡逑i邐邐邐邐邐邐:邐逡逑j邐^邐USB、IIC、UART通信協(xié)議邐|逡逑目標(biāo)檢測(cè)逡逑;邐軟f邋數(shù)據(jù)曰志邋Q邋|逡逑地理坐標(biāo)提取逡逑圖2.1系統(tǒng)整體框架逡逑根據(jù)系統(tǒng)的功能需求將其分為硬件系統(tǒng)部分與軟件系統(tǒng)部分,兩者通過(guò)通訊逡逑協(xié)議相互聯(lián)系,組成冤整的系統(tǒng)。逡逑8逡逑
【參考文獻(xiàn)】
相關(guān)期刊論文 前10條
1 路成強(qiáng);曾潔;李千振;;基于卡爾曼濾波的兩輪自平衡遙控小車設(shè)計(jì)[J];自動(dòng)化儀表;2017年09期
2 張慧;王坤峰;王飛躍;;深度學(xué)習(xí)在目標(biāo)視覺(jué)檢測(cè)中的應(yīng)用進(jìn)展與展望[J];自動(dòng)化學(xué)報(bào);2017年08期
3 周俊宇;趙艷明;;卷積神經(jīng)網(wǎng)絡(luò)在圖像分類和目標(biāo)檢測(cè)應(yīng)用綜述[J];計(jì)算機(jī)工程與應(yīng)用;2017年13期
4 蔡漢明;趙振興;韓露;曾祥永;;基于SSD網(wǎng)絡(luò)模型的多目標(biāo)檢測(cè)算法[J];機(jī)電工程;2017年06期
5 任洪梅;;基于深度學(xué)習(xí)的路面交通標(biāo)志識(shí)別[J];信息通信;2017年04期
6 宋煥生;張向清;鄭寶峰;嚴(yán)騰;;基于深度學(xué)習(xí)方法的復(fù)雜場(chǎng)景下車輛目標(biāo)檢測(cè)[J];計(jì)算機(jī)應(yīng)用研究;2018年04期
7 李旭冬;葉茂;李濤;;基于卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)研究綜述[J];計(jì)算機(jī)應(yīng)用研究;2017年10期
8 黃斌;盧金金;王建華;吳星明;陳偉海;;基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法[J];計(jì)算機(jī)應(yīng)用;2016年12期
9 王宇寧;龐智恒;袁德明;;基于YOLO算法的車輛實(shí)時(shí)檢測(cè)[J];武漢理工大學(xué)學(xué)報(bào);2016年10期
10 牛新;竇勇;張鵬;曹玉社;;基于深度學(xué)習(xí)的光學(xué)遙感機(jī)場(chǎng)與飛行器目標(biāo)識(shí)別技術(shù)[J];大數(shù)據(jù);2016年05期
相關(guān)博士學(xué)位論文 前3條
1 鄭偉;基于視覺(jué)的微小型四旋翼飛行機(jī)器人位姿估計(jì)與導(dǎo)航研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2014年
2 史思琦;基于輪廓特征的目標(biāo)識(shí)別研究[D];西安電子科技大學(xué);2012年
3 曾鵬鑫;動(dòng)態(tài)場(chǎng)景下多運(yùn)動(dòng)目標(biāo)檢測(cè)及跟蹤方法研究[D];東北大學(xué);2005年
相關(guān)碩士學(xué)位論文 前10條
1 劉金羊;基于上下文的目標(biāo)檢測(cè)算法研究[D];南京大學(xué);2017年
2 于洋;基于Arduino的自動(dòng)避障及通信控制智能小車系統(tǒng)的研究與設(shè)計(jì)[D];吉林大學(xué);2017年
3 王震;基于深度學(xué)習(xí)的快速目標(biāo)檢測(cè)技術(shù)研究[D];天津理工大學(xué);2017年
4 于學(xué)鑫;基于MPU6050的微小型無(wú)人機(jī)AHRS設(shè)計(jì)研究[D];內(nèi)蒙古工業(yè)大學(xué);2016年
5 劉念;基于視覺(jué)機(jī)器人的目標(biāo)定位技術(shù)研究[D];華南農(nóng)業(yè)大學(xué);2016年
6 李萍;運(yùn)動(dòng)車輛目標(biāo)識(shí)別及跟蹤技術(shù)研究[D];中北大學(xué);2016年
7 王立;基于北斗/GPS導(dǎo)航的視覺(jué)著陸四旋翼飛行器設(shè)計(jì)[D];武漢科技大學(xué);2016年
8 楊楠;基于Caffe深度學(xué)習(xí)框架的卷積神經(jīng)網(wǎng)絡(luò)研究[D];河北師范大學(xué);2016年
9 萬(wàn)維;基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法研究及應(yīng)用[D];電子科技大學(xué);2015年
10 楊楠;基于Arduino的智能產(chǎn)品原型設(shè)計(jì)研究[D];江南大學(xué);2014年
本文編號(hào):2741512
本文鏈接:http://www.sikaile.net/kejilunwen/hangkongsky/2741512.html