改進Darknet框架的多目標檢測與識別方法研究
【文章頁數(shù)】:67 頁
【學位級別】:碩士
【部分圖文】:
圖2-1深度學習工作原理
淺層人工神經(jīng)網(wǎng)絡只能用于線性分類,并且和計算機能力的限制,訓練一個多層感知機所需的時間神經(jīng)網(wǎng)絡的發(fā)展。直到1974年,PaulWerbos[38]等人深練機制,并提出了改進方案—誤差反向傳播算法,推動新的熱潮。而機器學習也從淺層學習模型階段發(fā)展到了階段。習是將輸入映射到目標....
圖2-2神經(jīng)元模型
圖2-2神經(jīng)元模型該神經(jīng)元由多個輸入(1,2,...)ixin和一個輸出y組成,輸入的權值與定了中間狀態(tài)的表達與輸出,輸出可表示為:()iiyfwxb,iw是權重項,b是偏置12(,,...,|)nixxxx....
圖2-3Sigmoid函數(shù)
圖2-3Sigmoid函數(shù)圖2-4ReLU函數(shù)ReLU函數(shù)是目前使用最多的激活函數(shù),其在保持同樣效果的同時收也是Darknet框架中所采用的激活函數(shù),其優(yōu)勢在于:(1)處理速度快,比Sigmoid函數(shù)需要算指數(shù)、倒數(shù)代價小很多;(2)減輕了梯度消失問題....
圖2-4ReLU函數(shù)ReLU函數(shù)是目前使用最多的激活函數(shù),其在保持同樣效果的同時收斂更
圖2-3Sigmoid函數(shù)圖2-4ReLU函數(shù)ReLU函數(shù)是目前使用最多的激活函數(shù),其在保持同樣效果的同時收也是Darknet框架中所采用的激活函數(shù),其優(yōu)勢在于:(1)處理速度快,比Sigmoid函數(shù)需要算指數(shù)、倒數(shù)代價小很多;(2)減輕了梯度消失問題....
本文編號:4028926
本文鏈接:http://www.sikaile.net/kejilunwen/daoluqiaoliang/4028926.html