基于深度學(xué)習(xí)的智能視頻監(jiān)控中的關(guān)鍵技術(shù)研究
發(fā)布時(shí)間:2020-12-10 02:39
計(jì)算機(jī)視覺是人工智能領(lǐng)域一個(gè)重要的研究方向,通過各種傳感器設(shè)備來記錄真實(shí)世界并通過圖像、視頻等原始形式進(jìn)行信息表達(dá),利用計(jì)算機(jī)從原始的視頻數(shù)據(jù)中提取出符合人類認(rèn)知的語義理解,即讓計(jì)算機(jī)能和人一樣自動(dòng)分析和理解視頻數(shù)據(jù)。比如,判斷場(chǎng)景中有哪些感興趣目標(biāo),通過物體歷史運(yùn)動(dòng)軌跡預(yù)測(cè)未來行走方向,識(shí)別危險(xiǎn)目標(biāo)和動(dòng)作,以及分析目標(biāo)之間的關(guān)系等。智能視頻監(jiān)控技術(shù)是利用計(jì)算機(jī)視覺和數(shù)字圖像處理相關(guān)的方法對(duì)各種設(shè)備拍攝的圖像或者視頻序列進(jìn)行處理、分析和理解。智能視頻監(jiān)控技術(shù)在民用和軍事領(lǐng)域都有極大的應(yīng)用背景,如智慧城市建設(shè)、公共安全管理以及軍事建設(shè)等。單目標(biāo)視頻跟蹤是智能視頻監(jiān)控中的關(guān)鍵環(huán)節(jié),在一些安全系數(shù)高的場(chǎng)合,能夠?qū)M(jìn)入場(chǎng)景中的人員進(jìn)行實(shí)時(shí)跟蹤,并在跟蹤過程中識(shí)別目標(biāo)的行為,這就引出了多場(chǎng)景下的行為識(shí)別這一技術(shù)。多場(chǎng)景下的行為識(shí)別技術(shù)能夠?qū)Σ蹲降降娜宋锏男袨檫M(jìn)行類別判定,提示系統(tǒng)在必要情況下進(jìn)行警報(bào)處理。對(duì)于不同攝像機(jī)記錄的行人,多攝像頭下的行人再識(shí)別技術(shù)能夠準(zhǔn)確定位到每一個(gè)待查詢目標(biāo)行人,在一定程度上避免了誤判和漏判。為了進(jìn)一步提高智能視頻監(jiān)控的可靠性和實(shí)時(shí)性,本文對(duì)智能視頻監(jiān)控中的單目標(biāo)視頻...
【文章來源】:上海大學(xué)上海市 211工程院校
【文章頁(yè)數(shù)】:82 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
AMDNet算法模型的網(wǎng)絡(luò)結(jié)構(gòu)
大學(xué)碩士學(xué)位論文中每個(gè)分支都包含一個(gè)二分類器,通過學(xué)習(xí)不同組的視頻序列獲景的能力。了進(jìn)一步了解本章設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型,使用 DeepDraw 工中的兩個(gè)卷積層進(jìn)行可視化操作。結(jié)果如圖 2-3 所示,(a)圖已經(jīng),形狀和輪廓,(b)圖比(a)圖具有更加清晰的輪廓,在特征表達(dá)上映了后續(xù)卷積層比前面的卷積層在表達(dá)上更加細(xì)致,對(duì)圖像的把
認(rèn)為是有效聚類簇。在有效聚類簇中,選擇靠近聚類簇中心的幀作為候選視頻關(guān)鍵幀。然而,即使從有效聚類簇中選擇候選幀,仍存在冗余問題。為了避免關(guān)鍵幀的內(nèi)容相似度過高,使用1 2{f ,f ,...,f }n描述候選關(guān)鍵幀,如果if 和i1f 的相似度小于設(shè)定的閾值 ,則移除第 i 1幀。2.3.2 基于相似度的視頻分組算法AMDNet 模型的主干層學(xué)習(xí)視頻序列的共性特征,分支層對(duì)同一類別的目標(biāo)和背景進(jìn)行識(shí)別。在訓(xùn)練時(shí),為了區(qū)別不同類別的目標(biāo)和背景,對(duì)視頻訓(xùn)練集分組,每組對(duì)應(yīng)一個(gè)分支。本章提出基于相似度的視頻分組算法,利用 2.3.1 得到的關(guān)鍵幀表達(dá)各個(gè)視頻序列,算法流程如圖 2-5 所示,主要步驟總結(jié)為算法 2-1。使用1 2 3{q ,q ,q ,...,q }n表示一個(gè)訓(xùn)練視頻集,首先進(jìn)行分組的初始化操作。設(shè)置組內(nèi)最大視頻成員數(shù)量為 M ,將第一個(gè)訓(xùn)練視頻序列1q 置入第一組即1g ,定義組成員數(shù)量1| g |,且初始化其值為 1,組別數(shù)目total= 1。
本文編號(hào):2907937
【文章來源】:上海大學(xué)上海市 211工程院校
【文章頁(yè)數(shù)】:82 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
AMDNet算法模型的網(wǎng)絡(luò)結(jié)構(gòu)
大學(xué)碩士學(xué)位論文中每個(gè)分支都包含一個(gè)二分類器,通過學(xué)習(xí)不同組的視頻序列獲景的能力。了進(jìn)一步了解本章設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)模型,使用 DeepDraw 工中的兩個(gè)卷積層進(jìn)行可視化操作。結(jié)果如圖 2-3 所示,(a)圖已經(jīng),形狀和輪廓,(b)圖比(a)圖具有更加清晰的輪廓,在特征表達(dá)上映了后續(xù)卷積層比前面的卷積層在表達(dá)上更加細(xì)致,對(duì)圖像的把
認(rèn)為是有效聚類簇。在有效聚類簇中,選擇靠近聚類簇中心的幀作為候選視頻關(guān)鍵幀。然而,即使從有效聚類簇中選擇候選幀,仍存在冗余問題。為了避免關(guān)鍵幀的內(nèi)容相似度過高,使用1 2{f ,f ,...,f }n描述候選關(guān)鍵幀,如果if 和i1f 的相似度小于設(shè)定的閾值 ,則移除第 i 1幀。2.3.2 基于相似度的視頻分組算法AMDNet 模型的主干層學(xué)習(xí)視頻序列的共性特征,分支層對(duì)同一類別的目標(biāo)和背景進(jìn)行識(shí)別。在訓(xùn)練時(shí),為了區(qū)別不同類別的目標(biāo)和背景,對(duì)視頻訓(xùn)練集分組,每組對(duì)應(yīng)一個(gè)分支。本章提出基于相似度的視頻分組算法,利用 2.3.1 得到的關(guān)鍵幀表達(dá)各個(gè)視頻序列,算法流程如圖 2-5 所示,主要步驟總結(jié)為算法 2-1。使用1 2 3{q ,q ,q ,...,q }n表示一個(gè)訓(xùn)練視頻集,首先進(jìn)行分組的初始化操作。設(shè)置組內(nèi)最大視頻成員數(shù)量為 M ,將第一個(gè)訓(xùn)練視頻序列1q 置入第一組即1g ,定義組成員數(shù)量1| g |,且初始化其值為 1,組別數(shù)目total= 1。
本文編號(hào):2907937
本文鏈接:http://www.sikaile.net/kejilunwen/wltx/2907937.html
最近更新
教材專著