基于深度神經(jīng)網(wǎng)絡的實時多物體檢測
發(fā)布時間:2021-10-22 03:29
目標檢測是計算機視覺領(lǐng)域的經(jīng)典問題,它集成了圖像處理、模式識別、人工智能等領(lǐng)域的知識。相比圖像識別和圖像分類,需要解決目標定位和目標分類的任務。近年來,深度學習的快速發(fā)展極大的刺激了目標檢測算法領(lǐng)域的研究。但是目標檢測的實時性一直以來都是一大難題。YOLO系列算法在目標檢測實時性方面做的很不錯,YOLO的一個精簡快速版的檢測速度最高可以達到150FPS。但是速度的提升卻帶來了檢測精度的嚴重下降。另一方面,R-CNN目標檢測系列的最高之作Faster R-CNN在檢測的準確性方面表現(xiàn)優(yōu)異,在PASCAL VOC數(shù)據(jù)集上20類目標的平均檢測精度達到了73.2m AP,但是在實時性方面卻一直達不到令人滿意的效果。針對以上問題,本文主要進行了以下內(nèi)容的研究:模型的最終性能與效果不僅僅取決于模型的結(jié)構(gòu)與訓練的方法技巧,很大程度上依賴于數(shù)據(jù)集的質(zhì)量。在目標檢測領(lǐng)域,存在許多高質(zhì)量的公開數(shù)據(jù)集,如PASCAL VOC數(shù)據(jù)集。不過大多數(shù)公開數(shù)據(jù)集都只包含靜態(tài)的圖片,不包括視頻數(shù)據(jù)集。本文針對實時多物體檢測的最終目標,針對性的自制了部分數(shù)據(jù)集,主要是各種場景下的視頻數(shù)據(jù)集。本文識別的目標物體為常見的五類...
【文章來源】:哈爾濱工業(yè)大學黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:66 頁
【學位級別】:碩士
【部分圖文】:
目標分類與目標定位它是計算機視覺領(lǐng)域和多媒體領(lǐng)域的一個基礎(chǔ)性課題,也是機器學習目前最火
哈爾濱工業(yè)大學工學碩士學位論文第 2 章 神經(jīng)網(wǎng)絡與深度學習絡的演變過程網(wǎng)絡(Artificial Neural Network,ANN)的靈感來自于生物一種近似模擬,多個神經(jīng)元之間的相互連接可以組成系統(tǒng)結(jié)構(gòu)。神經(jīng)元解剖學家 McCulloch 和數(shù)學家 Pitts 在出了神經(jīng)元的結(jié)構(gòu)并給出了它的數(shù)學描述[27]。他們還的情況下,將它們按照一定的方式連接,就能夠近似Culloch 和 Pitts 二人完成的工作被一致認為是 ANN 的起
圖 2-2 多層感知機(MLP)不過很快地,人們在 1991 年發(fā)現(xiàn) BP 算法存在梯度消失問題,隨著神經(jīng)網(wǎng)絡層數(shù)的加深,在損失函數(shù)的梯度反向傳播的過程中,后層的梯度層層疊乘于前層當中,使得越靠近前面的層數(shù)梯度越小,最后導致前面網(wǎng)絡層的參數(shù)無法獲得更新。由于 Sigmoid 函數(shù)的飽和特性,后層梯度本來就小,更加劇了梯度消失現(xiàn)象,該發(fā)現(xiàn)再次將神經(jīng)網(wǎng)絡拉至冰點。2006 年,Hinton 再次提出了新的神經(jīng)網(wǎng)絡研究觀點,并給出了深層網(wǎng)絡訓練中反向傳播導致梯度消失問題的解決方案:通過“逐層預訓練”的方法來解決多隱含層神經(jīng)網(wǎng)絡在訓練上的復雜度。并且在 2010 年 Vinod Nair 和 Geoffrey Hinton提出了使用新的激活函數(shù)——線性修正單元(Rectified Linear Units,ReLU)[32]來代替Sigmoid 激活函數(shù)。
本文編號:3450293
【文章來源】:哈爾濱工業(yè)大學黑龍江省 211工程院校 985工程院校
【文章頁數(shù)】:66 頁
【學位級別】:碩士
【部分圖文】:
目標分類與目標定位它是計算機視覺領(lǐng)域和多媒體領(lǐng)域的一個基礎(chǔ)性課題,也是機器學習目前最火
哈爾濱工業(yè)大學工學碩士學位論文第 2 章 神經(jīng)網(wǎng)絡與深度學習絡的演變過程網(wǎng)絡(Artificial Neural Network,ANN)的靈感來自于生物一種近似模擬,多個神經(jīng)元之間的相互連接可以組成系統(tǒng)結(jié)構(gòu)。神經(jīng)元解剖學家 McCulloch 和數(shù)學家 Pitts 在出了神經(jīng)元的結(jié)構(gòu)并給出了它的數(shù)學描述[27]。他們還的情況下,將它們按照一定的方式連接,就能夠近似Culloch 和 Pitts 二人完成的工作被一致認為是 ANN 的起
圖 2-2 多層感知機(MLP)不過很快地,人們在 1991 年發(fā)現(xiàn) BP 算法存在梯度消失問題,隨著神經(jīng)網(wǎng)絡層數(shù)的加深,在損失函數(shù)的梯度反向傳播的過程中,后層的梯度層層疊乘于前層當中,使得越靠近前面的層數(shù)梯度越小,最后導致前面網(wǎng)絡層的參數(shù)無法獲得更新。由于 Sigmoid 函數(shù)的飽和特性,后層梯度本來就小,更加劇了梯度消失現(xiàn)象,該發(fā)現(xiàn)再次將神經(jīng)網(wǎng)絡拉至冰點。2006 年,Hinton 再次提出了新的神經(jīng)網(wǎng)絡研究觀點,并給出了深層網(wǎng)絡訓練中反向傳播導致梯度消失問題的解決方案:通過“逐層預訓練”的方法來解決多隱含層神經(jīng)網(wǎng)絡在訓練上的復雜度。并且在 2010 年 Vinod Nair 和 Geoffrey Hinton提出了使用新的激活函數(shù)——線性修正單元(Rectified Linear Units,ReLU)[32]來代替Sigmoid 激活函數(shù)。
本文編號:3450293
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3450293.html
最近更新
教材專著