天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 自動化論文 >

基于深度學習的火災(zāi)視頻實時智能檢測研究

發(fā)布時間:2021-10-25 23:49
  火災(zāi)作為一種發(fā)生頻率較高的多發(fā)性災(zāi)害,蔓延速度快,破壞性強。隨著視頻監(jiān)控的大量普及,基于圖像視頻的火災(zāi)自動檢測與預(yù)警則十分有研究意義和使用價值。傳統(tǒng)火焰檢測通常是根據(jù)先驗知識設(shè)計特征提取算法,人工提取火焰動態(tài)或靜態(tài)特征,然后進行火焰識別。此類基于計算機視覺的傳統(tǒng)火焰檢測方法,其根據(jù)先驗知識設(shè)計人工特征提取算法比較困難和耗時,在面對不同的復(fù)雜環(huán)境和多變的火焰類型時,其泛化能力往往不足。近年來隨著基于深度學習的計算機視覺快速發(fā)展,利用卷積神經(jīng)網(wǎng)絡(luò)能夠自動學習和獲取圖像特征,目標檢測技術(shù)有了很大的發(fā)展革新。針對復(fù)雜環(huán)境下的火災(zāi)視頻檢測問題,本文提出一種結(jié)合注意力機制的RetinaNet火焰圖像檢測算法。RetinaNet在殘差網(wǎng)絡(luò)之上使用特征金字塔網(wǎng)絡(luò)作為骨干網(wǎng)計算和生成豐富的卷積特征金字塔,然后通過分類子網(wǎng)絡(luò)和邊框預(yù)測子網(wǎng)絡(luò)分別對骨干網(wǎng)的輸出進行分類和回歸。注意力機制則使網(wǎng)絡(luò)更有效定位到感興趣的信息,提升網(wǎng)絡(luò)模型的特征表達能力。改進算法比原RetinaNet算法的火焰檢測率提高了4.5個百分點,實現(xiàn)了實時的端到端火焰識別與定位,對復(fù)雜目標背景下的小火點檢測也保持較高的檢測準確率。針對火災(zāi)視... 

【文章來源】:海南大學海南省 211工程院校

【文章頁數(shù)】:65 頁

【學位級別】:碩士

【部分圖文】:

基于深度學習的火災(zāi)視頻實時智能檢測研究


卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

示意圖,卷積,示意圖,卷積核


使用的卷積核的個數(shù)。卷積操作是一個加權(quán)求和的過程,利用卷積核在輸入圖片上以一定的步長(Stride)滑動,每次滑動均計算卷積核與該輸入?yún)^(qū)域的對應(yīng)元素的點積,該點積作為特征圖上的一個像素點,直到滑動覆蓋整個輸入圖片,生成特征圖。卷積神經(jīng)網(wǎng)絡(luò)每一層輸出的特征圖上的像素點在輸入圖像上映射的區(qū)域大小叫做感受野,步長越大,生成的特征映射越校感受野越大,其對應(yīng)的原始輸入圖像范圍就越大,這也表示神經(jīng)元可能學到更加全局,更高語義層次的特征;相反,感受野越小則表示可能學到更加局部和細節(jié)的特征。一個卷積操作如圖2所示,用3×3的卷積核在5×5的輸入上以1的步長滑動,每次卷積計算輸入與卷積核對應(yīng)位置像素值的點積,9次滑動可以覆蓋全部輸入,最終得到3×3的特征圖。圖2卷積操作示意圖Fig.2DiagramofConvolutionoperation卷積核的計算結(jié)果還需要通過激活函數(shù)確定圖像給定位置是否存在特征。卷積方式對像素點賦予權(quán)值的操作是線性的,而線性模型表達能力不夠強,通過激活函數(shù)可以引入非線性因素,彌補了線性模型的缺點。激活函數(shù)通常應(yīng)該具有以下幾個性質(zhì):非線性,線性激活層對于深層神經(jīng)網(wǎng)絡(luò)幾乎沒有作用,因為線性激活仍是對輸入的各種線性變換;連續(xù)可微性,這是神經(jīng)網(wǎng)絡(luò)學習所使用的梯度下降算法的要求;范圍非飽和性,若存在飽和區(qū)間,當系統(tǒng)優(yōu)化進入到該區(qū)間時,梯度近似為0,參數(shù)無法繼續(xù)更新,導(dǎo)致網(wǎng)絡(luò)的學習停止;單調(diào)性,當激活函數(shù)是單調(diào)時,單層神經(jīng)網(wǎng)絡(luò)可以保證是凸函數(shù),使分布規(guī)律不發(fā)生大的改變,這樣網(wǎng)絡(luò)會相對好優(yōu)化;在原點處是近似

函數(shù)圖像,函數(shù)


海南大學碩士學位論文7線性的,當網(wǎng)絡(luò)權(quán)值隨機初始化為接近0的隨機值時,網(wǎng)絡(luò)相對學習的更快,而不用手動調(diào)節(jié)網(wǎng)絡(luò)的初始值,減少超參數(shù)的設(shè)置。常用的激活函數(shù)有Sigmoid函數(shù),ReLU函數(shù)及其變種。①Sigmoid函數(shù)的表達式如下:()=11+(2-1)函數(shù)圖像如圖3所示。Sigmoid函數(shù)可以將輸出映射在(0,1)內(nèi),單調(diào)連續(xù),易于求導(dǎo),適合用作輸出層。但是Sigmoid函數(shù)也因為其軟飽和性,在更新模型參數(shù)時采用鏈式求導(dǎo)法則反向求導(dǎo),容易導(dǎo)致梯度消失。圖3Sigmoid函數(shù)Fig.3SigmoidFunction②ReLU函數(shù)的表達式如下:()=max(0,)(2-2)函數(shù)圖像如圖4所示。ReLU函數(shù)在x<0時值為0,屬于硬飽和,在x>0時導(dǎo)數(shù)值為1,因此ReLU函數(shù)在x>0時可以保持梯度不衰減,這有效緩解了梯度消失問題,還能夠更好地收斂,并提供了神經(jīng)網(wǎng)絡(luò)的稀疏表達能力。但是,隨著訓練的持續(xù)進行,會有部分輸入進入硬飽和區(qū)導(dǎo)致相應(yīng)的權(quán)重無法更新,即“神經(jīng)元死亡”,因此需要對學習率進行一個好的設(shè)置。ReLU函數(shù)是目前卷積神經(jīng)網(wǎng)絡(luò)中最受歡迎的激活函數(shù)。圖4ReLU函數(shù)Fig.4ReLUFunction


本文編號:3458404

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3458404.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶d61dd***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com