天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于語義分割的行人屬性識別技術(shù)的研究與實現(xiàn)

發(fā)布時間:2024-02-24 00:41
  智慧城市是科技賦予給社會的一個新的名詞,而攝像頭是建設(shè)智慧城市一個重要的基礎(chǔ)設(shè)備。高效,有效的利用好攝像頭信息能夠在人們?nèi)粘I詈途S護(hù)社會秩序中發(fā)揮重要的作用。行人信息在攝像頭信息中占有很大的比例,通過攝像頭中的行人信息,可以進(jìn)行行人檢索,行人識別和行人重識別。因此,對于行人信息的研究有著很強(qiáng)的現(xiàn)實意義。本文是對自然場景下行人屬性信息進(jìn)行識別。通過總結(jié)之前對于行人屬性的研究工作,本文發(fā)現(xiàn)之前工作主要是探討行人屬性信息的存在性。然而,行人屬性的位置信息在行人重識別等領(lǐng)域也有重要的作用,因此本文主要對如何獲取行人屬性位置信息進(jìn)行研究。本文利用語義分割模型進(jìn)行行人屬性位置信息的獲取。面對當(dāng)前無可用行人屬性語義分割數(shù)據(jù)集的狀況,本文制作了第一個行人屬性語義分割數(shù)據(jù)集。在此數(shù)據(jù)集基礎(chǔ)上,本文利用不同語義分割框架進(jìn)行實驗,首先利用簡單的語義分割模型進(jìn)行可行性驗證,驗證了可以利用語義分割獲取到行人屬性的位置信息,之后利用精度更高更復(fù)雜的模型訓(xùn)練得出此數(shù)據(jù)集的miou基準(zhǔn)值。針對得到的miou基準(zhǔn)值,本文從屬性類別、準(zhǔn)確率、圖片清晰度三個方面與miou進(jìn)行了相關(guān)性分析,得出miou與屬性數(shù)量占比、準(zhǔn)確...

【文章頁數(shù)】:68 頁

【學(xué)位級別】:碩士

【部分圖文】:

圖2.2注意力模型網(wǎng)絡(luò)拓?fù)? src=

圖2.2注意力模型網(wǎng)絡(luò)拓?fù)?br>
上部分模型由三個1*1的卷積構(gòu)成(每一個卷積都帶有batch?normalization??和ReLU層),最后的輸出為1*1*C?(C為屬性的個數(shù))。文中將該輸出稱作屬??性注意力映射w,之后忒,w進(jìn)行一個空間softmax運(yùn)算,這步運(yùn)算使得模型將??資源集中于圖片中最相關(guān)的區(qū)....


圖3-1全卷積網(wǎng)絡(luò)實現(xiàn)圖??將全連接層變?yōu)槿矸e層一定程度上提升了運(yùn)算效率

圖3-1全卷積網(wǎng)絡(luò)實現(xiàn)圖??將全連接層變?yōu)槿矸e層一定程度上提升了運(yùn)算效率

北京郵電大學(xué)工學(xué)碩士學(xué)位論文的創(chuàng)新:(1)將原始網(wǎng)絡(luò)中最后幾層全連接層全部變成了卷躍結(jié)構(gòu),進(jìn)一步提升了識別準(zhǔn)確率。??層??卷積神經(jīng)網(wǎng)絡(luò)包括AlexNet、VGG等網(wǎng)絡(luò),這些網(wǎng)絡(luò)對于圖的要求,這是因為卷積神經(jīng)網(wǎng)絡(luò)在判斷圖片物體類型時,需幾層全連接層,以達(dá)到最后一層是一個大小為分類....


圖3-3?deep】abv3+模型框架圖??1)?Atrous?convolution?原理??

圖3-3?deep】abv3+模型框架圖??1)?Atrous?convolution?原理??

%?2x?conv?7??圖3-2?FCN跳躍結(jié)構(gòu)??圖中將C〇nv7使用二進(jìn)制插值法進(jìn)行二倍的上采樣,之后與P〇〇14的特征矩??陣進(jìn)行融合,FCN稱這種結(jié)構(gòu)為16s。同理,FCN將conv7和pool4的特征分別??使用二進(jìn)制插值法做4倍和2倍的上采樣,將結(jié)果與pool3進(jìn)行....


圖3-2?FCN跳躍結(jié)構(gòu)??圖中將C〇nv7使用二進(jìn)制插值法進(jìn)行二倍的上采樣,之后與P〇〇14的特征矩??

圖3-2?FCN跳躍結(jié)構(gòu)??圖中將C〇nv7使用二進(jìn)制插值法進(jìn)行二倍的上采樣,之后與P〇〇14的特征矩??

基于?Atrous?convolution?的?Atrous?Spatial?Pyramid?Pooling?(ASPP)。在此基礎(chǔ)上,??為了提升運(yùn)算效率,deeplabv3+米取了?encoder-decoder結(jié)構(gòu),并且將Xception模??型加入到encoder結(jié)構(gòu)中。....



本文編號:3908241

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3908241.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶985ea***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com