基于遷移學(xué)習(xí)的火災(zāi)實時檢測
發(fā)布時間:2021-04-14 15:53
在深度學(xué)習(xí)中,多數(shù)基于視頻圖像處理的火災(zāi)檢測技術(shù)在提取特征時存在著精度低、無法實時檢測的缺點。因此,提出了一種基于YOLOv3遷移學(xué)習(xí)的目標(biāo)檢測方法。首先,在進行特征提取的卷積層加入了殘差網(wǎng)絡(luò)中的快捷鏈路避免梯度消失。其次,采用了多尺度的先驗框檢測目標(biāo)物體。最后,使用了Sigmoid與交叉熵函數(shù)相結(jié)合的損失函數(shù)來進行多目標(biāo)預(yù)測。實驗結(jié)果表明,該算法的平均精度的均值為0.75,并且可以實時檢測。
【文章來源】:江蘇海洋大學(xué)學(xué)報(自然科學(xué)版). 2020,29(03)
【文章頁數(shù)】:5 頁
【部分圖文】:
基于CNNs的圖像火災(zāi)檢測算法流程圖
圖2展示了Inception Resnet v2的第1、第3和第6卷積層中卷積核的樣本,這表明網(wǎng)絡(luò)在以后的層中提取更復(fù)雜的特征。這里需要一個深度網(wǎng)絡(luò)來提取復(fù)雜的圖像特征。本文選取Inception Resnet v2[14]和Darknet-53[15]作為具有235和53個卷積層的特征提取網(wǎng)絡(luò)。選擇具有良好檢測精度和檢測速度的圖像目標(biāo)檢測網(wǎng)絡(luò)(YOLOv3)來開發(fā)圖像火災(zāi)檢測算法。該算法的結(jié)構(gòu)如圖3所示。
選擇具有良好檢測精度和檢測速度的圖像目標(biāo)檢測網(wǎng)絡(luò)(YOLOv3)來開發(fā)圖像火災(zāi)檢測算法。該算法的結(jié)構(gòu)如圖3所示。早期特征圖中的特征不夠復(fù)雜,導(dǎo)致較小對象的檢測性能較差。YOLOv3借鑒殘差網(wǎng)絡(luò)的思路,提高了檢測對象的精度。單步策略在檢測速度上性能較好。YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)使用無最后3層的Darknet-53生成一個小尺度特征圖,其在原始圖像的基礎(chǔ)上下采樣32倍,例如:如果原始圖像的大小為416×416,則特征圖的大小為13×13,使小規(guī)模特征圖用于檢測大目標(biāo)。YOLOv3通過對小規(guī)模特征圖進行上采樣并與前一層的特征圖連接,生成大比例特征圖。大規(guī)模特征圖用來檢測小物體,具有淺層神經(jīng)網(wǎng)絡(luò)的位置信息和深層網(wǎng)絡(luò)的復(fù)雜特征信息。特征圖的3個尺度分別是原始圖像的8倍、16倍和32倍。
本文編號:3137593
【文章來源】:江蘇海洋大學(xué)學(xué)報(自然科學(xué)版). 2020,29(03)
【文章頁數(shù)】:5 頁
【部分圖文】:
基于CNNs的圖像火災(zāi)檢測算法流程圖
圖2展示了Inception Resnet v2的第1、第3和第6卷積層中卷積核的樣本,這表明網(wǎng)絡(luò)在以后的層中提取更復(fù)雜的特征。這里需要一個深度網(wǎng)絡(luò)來提取復(fù)雜的圖像特征。本文選取Inception Resnet v2[14]和Darknet-53[15]作為具有235和53個卷積層的特征提取網(wǎng)絡(luò)。選擇具有良好檢測精度和檢測速度的圖像目標(biāo)檢測網(wǎng)絡(luò)(YOLOv3)來開發(fā)圖像火災(zāi)檢測算法。該算法的結(jié)構(gòu)如圖3所示。
選擇具有良好檢測精度和檢測速度的圖像目標(biāo)檢測網(wǎng)絡(luò)(YOLOv3)來開發(fā)圖像火災(zāi)檢測算法。該算法的結(jié)構(gòu)如圖3所示。早期特征圖中的特征不夠復(fù)雜,導(dǎo)致較小對象的檢測性能較差。YOLOv3借鑒殘差網(wǎng)絡(luò)的思路,提高了檢測對象的精度。單步策略在檢測速度上性能較好。YOLOv3網(wǎng)絡(luò)結(jié)構(gòu)使用無最后3層的Darknet-53生成一個小尺度特征圖,其在原始圖像的基礎(chǔ)上下采樣32倍,例如:如果原始圖像的大小為416×416,則特征圖的大小為13×13,使小規(guī)模特征圖用于檢測大目標(biāo)。YOLOv3通過對小規(guī)模特征圖進行上采樣并與前一層的特征圖連接,生成大比例特征圖。大規(guī)模特征圖用來檢測小物體,具有淺層神經(jīng)網(wǎng)絡(luò)的位置信息和深層網(wǎng)絡(luò)的復(fù)雜特征信息。特征圖的3個尺度分別是原始圖像的8倍、16倍和32倍。
本文編號:3137593
本文鏈接:http://www.sikaile.net/kejilunwen/anquangongcheng/3137593.html
最近更新
教材專著