視頻監(jiān)控中的目標(biāo)計數(shù)方法研究
發(fā)布時間:2020-09-17 17:25
隨著社會經(jīng)濟的飛速發(fā)展,公共安全已經(jīng)成為全民關(guān)注的熱點問題,視頻監(jiān)控技術(shù)隨之得到了廣泛的普及。如今,智能視頻監(jiān)控系統(tǒng)已經(jīng)大量應(yīng)用在交通路口、火車站、機場、大型商場、廣場等公共場所。作為智能視頻監(jiān)控領(lǐng)域中的重要內(nèi)容,目標(biāo)計數(shù)在實際生活中有著大量的應(yīng)用場景,準(zhǔn)確的估計出目標(biāo)在圖像中的具體數(shù)目是相關(guān)任務(wù)的關(guān)鍵。在智能交通系統(tǒng)中,準(zhǔn)確的估計出交通場景中的車輛數(shù)目可以為交通管理部門進行公共交通管理提供重要依據(jù);統(tǒng)計商場的客流量信息可以幫助商家進行科學(xué)的資源分配;對大型公共場所的人群密度進行監(jiān)控可以及時發(fā)現(xiàn)安全隱患并提供預(yù)警。計數(shù)任務(wù)的目標(biāo)是讓計算機準(zhǔn)確的估計出圖像中的相關(guān)物體數(shù)量。根據(jù)應(yīng)用數(shù)據(jù)來源的不同,可以將目標(biāo)計數(shù)任務(wù)分為視頻中的目標(biāo)計數(shù)和單一圖片中的目標(biāo)計數(shù)。本文分別針對這兩方面進行了深入研究,根據(jù)實際應(yīng)用場景的不同特性,分析了已有算法所存在的問題,提出了具有針對性的目標(biāo)計數(shù)算法。本文的主要研究工作和貢獻可概括如下:1)針對視頻中的目標(biāo)計數(shù)問題,本文重點考慮交通視頻中的車輛計數(shù)問題。目前,基于視頻圖像的目標(biāo)計數(shù)算法大多是在像素域中進行的,像素域中包含豐富的可提取信息,可以取得較為精確的計數(shù)結(jié)果。然而,在實際監(jiān)控系統(tǒng)中,監(jiān)控視頻數(shù)據(jù)一般是以壓縮的形式進行傳輸和儲存的,像素域處理方法需要先將壓縮域數(shù)據(jù)完全解壓之后才能進行,算法復(fù)雜度高。對此,本文提出了一種直接在壓縮域視頻中進行車輛計數(shù)的方法。首先,為了解決壓縮域中的信息不足和噪聲干擾問題,提出了多樣化的豐富特征提取方法,充分利用了壓縮視頻流中的運動矢量和宏塊編碼模式信息。其次,針對實際交通場景復(fù)雜多變的特性,提出了一種基于分層分類的回歸模型來進行車輛計數(shù),將復(fù)雜場景逐步細(xì)化,并采用特定模型實現(xiàn)精確計數(shù)。最后,在實際交通數(shù)據(jù)集上的結(jié)果表明,所提壓縮域算法不僅能達到更高的運行效率,同時在精度上與傳統(tǒng)像素域方法也有著相當(dāng)?shù)谋憩F(xiàn)。2)相比于像素域處理,壓縮域本身存在著信息量不足以及噪聲干擾的問題,僅在單獨一幀上進行回歸計數(shù)難以保證結(jié)果的穩(wěn)定性。為了解決這個問題,本文提出了 一種基于空間與時間回歸的壓縮域車輛計數(shù)模型。具體來說,先通過空間維度回歸在單一視頻幀上進行車輛數(shù)目估計,再利用目標(biāo)數(shù)量在時間維度上的連續(xù)性約束信息建立時間維度上的回歸模型,學(xué)習(xí)車輛密度在局部時間序列上的變化模式,對空間回歸的計數(shù)結(jié)果進一步優(yōu)化,實現(xiàn)更加精確的壓縮域計數(shù)。在實際交通數(shù)據(jù)集上的結(jié)果證明了所提壓縮域算法的有效性。3)針對單一圖片中的目標(biāo)計數(shù)問題,本文提出了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)計數(shù)框架,利用卷積神經(jīng)網(wǎng)絡(luò)模型強大的非線性建模能力進行目標(biāo)計數(shù)。該方法直接學(xué)習(xí)從原始圖片到目標(biāo)密度分布圖的映射,為每個像素點分配一個對應(yīng)的密度值,圖片中各個區(qū)域的目標(biāo)數(shù)目可以通過對密度圖直接積分得到。為了提高模型的魯棒性,提出采用空間金字塔池化方法對提取的深度模型特征進行魯棒性增強,得到了更好的特征表示。此外,為了生成更好的目標(biāo)密度分布圖,提出了一種金字塔分層計數(shù)模型,充分利用了卷積神經(jīng)網(wǎng)絡(luò)模型中固有的多層級金字塔結(jié)構(gòu),進一步提高了模型性能。在多個代表性數(shù)據(jù)集上的實驗結(jié)果驗證了所提算法的有效性?偨Y(jié)起來,本文針對視頻監(jiān)控場景中的目標(biāo)計數(shù)問題進行了深入探索和研究,結(jié)合實際應(yīng)用場景的具體特性,提出了兩類目標(biāo)計數(shù)框架,即壓縮域視頻中的目標(biāo)計數(shù)框架和基于卷積神經(jīng)網(wǎng)絡(luò)的金字塔計數(shù)網(wǎng)絡(luò)框架。多個典型數(shù)據(jù)集上的實驗證明,本文在提高目標(biāo)計數(shù)方法的實時性和魯棒性等方面取得了很好的效果,相較于已有算法均取得了明顯進步,展示了其實際應(yīng)用價值。
【學(xué)位單位】:中國科學(xué)技術(shù)大學(xué)
【學(xué)位級別】:博士
【學(xué)位年份】:2018
【中圖分類】:TN948.6
【部分圖文】:
Lempitsky等[23]在2010年開創(chuàng)性地提出了基于密度估計的目標(biāo)計數(shù)算法逡逑框架。該方法首先利用手工標(biāo)注的目標(biāo)中心點圖生成目標(biāo)密度分布真值圖像集。邐’逡逑如圖1.2a和1.2c所示,在行人的身體中間部位或者頭部用點標(biāo)記行人位置,將標(biāo)逡逑注的二值點圖中目標(biāo)中心位置作為高斯核的中心,通過高斯濾波賦予周邊像素逡逑相應(yīng)的密度值,當(dāng)目標(biāo)分布比較密集時,其周邊像素的密度值為多個高斯核對應(yīng)逡逑值的疊加。二值點圖經(jīng)過高斯濾波后,生成如圖1.2b和1.2d所示的密度分布圖。逡逑然后以密度分布真值圖像集為訓(xùn)練集,在原圖像各像素點位置提取圖片特征,訓(xùn)逡逑練回歸模型,直接學(xué)習(xí)從像素點特征到圖像密度分布圖的映射關(guān)系。最后,得到逡逑的密度分布圖反應(yīng)了場景中的目標(biāo)分布情況,且通過區(qū)域密度求和就能得到任逡逑意區(qū)域的目標(biāo)數(shù)目。該方法有效的利用了目標(biāo)在圖像中的空間分布特性,從而實逡逑現(xiàn)很好的預(yù)測。在此基礎(chǔ)上
基于區(qū)域回歸的計數(shù)方法并不要求精確檢測出每個待統(tǒng)計目標(biāo)在圖像中的逡逑具體位置,這類方法更關(guān)心的是場景中的目標(biāo)總數(shù),通過建立區(qū)域圖像特征與區(qū)逡逑域目標(biāo)數(shù)量的回歸模型來直接估計場景中的目標(biāo)總數(shù)。如圖2.1所示,本文對基逡逑于區(qū)域回歸的計數(shù)模型采用的經(jīng)典框架進行了總結(jié)和概括。典型的區(qū)域回歸方逡逑法主要包括四個核心部分:前景區(qū)域分割、透視校正、區(qū)域特征提取、基于特征逡逑的回歸計數(shù)。逡逑給定一張計數(shù)場景圖像,一般首先分割出場景中的前景部分,并根據(jù)場景視逡逑角對分割后的前景區(qū)域進行透視校正,然后提取與目標(biāo)數(shù)目相關(guān)的區(qū)域特征,例逡逑如前景區(qū)域像素統(tǒng)計特征、邊緣特征、紋理特征和特征點等,最后通過回歸模型逡逑學(xué)習(xí)區(qū)域特征到區(qū)域目標(biāo)總數(shù)之間的映射關(guān)系。接下來將在各節(jié)中總結(jié)各模塊逡逑的典型處理思路和方法。逡逑r邋成:逡逑'1邐°o邋—?<) ̄ ̄*00 ̄?00 ̄eoo邋ioco邋i.xo^ixT邋iboo邋tsar:邋?000逡逑I邐^邋預(yù)灥逡逑pp^j邐?邋~|逡逑圖2.1基于區(qū)域回歸的計數(shù)算法總體框架逡逑2.4.2前景區(qū)域分割逡逑前景分割的主要目的是在給定的圖像中將前景區(qū)域從背景中分離出來。前逡逑景提取的準(zhǔn)確性和完整性會直接影響到計數(shù)結(jié)果的準(zhǔn)確率,是后續(xù)進一步處理的逡逑重要基礎(chǔ)。在目標(biāo)計數(shù)方法中,前景分割的常用算法有兩種:混合高斯模型[49]逡逑和混合動態(tài)紋理模型[50]。逡逑2.4.2.1混合高斯模型逡逑混合高斯模型(Gaussian邋Mixture邋Model,邋GMM)邋[49]是一^t"非常經(jīng)典的背景逡逑建模算法,能夠描述復(fù)雜的場景,且算法復(fù)雜度
(b)逡逑圖2.2邐(a)動態(tài)紋理模型,(b)混合動態(tài)紋理模型逡逑K邋?iV(0,邋Q),岣?7V(0,邋i?),<5邋e/2mx'邋i?邋#嶝浚恚
本文編號:2821002
【學(xué)位單位】:中國科學(xué)技術(shù)大學(xué)
【學(xué)位級別】:博士
【學(xué)位年份】:2018
【中圖分類】:TN948.6
【部分圖文】:
Lempitsky等[23]在2010年開創(chuàng)性地提出了基于密度估計的目標(biāo)計數(shù)算法逡逑框架。該方法首先利用手工標(biāo)注的目標(biāo)中心點圖生成目標(biāo)密度分布真值圖像集。邐’逡逑如圖1.2a和1.2c所示,在行人的身體中間部位或者頭部用點標(biāo)記行人位置,將標(biāo)逡逑注的二值點圖中目標(biāo)中心位置作為高斯核的中心,通過高斯濾波賦予周邊像素逡逑相應(yīng)的密度值,當(dāng)目標(biāo)分布比較密集時,其周邊像素的密度值為多個高斯核對應(yīng)逡逑值的疊加。二值點圖經(jīng)過高斯濾波后,生成如圖1.2b和1.2d所示的密度分布圖。逡逑然后以密度分布真值圖像集為訓(xùn)練集,在原圖像各像素點位置提取圖片特征,訓(xùn)逡逑練回歸模型,直接學(xué)習(xí)從像素點特征到圖像密度分布圖的映射關(guān)系。最后,得到逡逑的密度分布圖反應(yīng)了場景中的目標(biāo)分布情況,且通過區(qū)域密度求和就能得到任逡逑意區(qū)域的目標(biāo)數(shù)目。該方法有效的利用了目標(biāo)在圖像中的空間分布特性,從而實逡逑現(xiàn)很好的預(yù)測。在此基礎(chǔ)上
基于區(qū)域回歸的計數(shù)方法并不要求精確檢測出每個待統(tǒng)計目標(biāo)在圖像中的逡逑具體位置,這類方法更關(guān)心的是場景中的目標(biāo)總數(shù),通過建立區(qū)域圖像特征與區(qū)逡逑域目標(biāo)數(shù)量的回歸模型來直接估計場景中的目標(biāo)總數(shù)。如圖2.1所示,本文對基逡逑于區(qū)域回歸的計數(shù)模型采用的經(jīng)典框架進行了總結(jié)和概括。典型的區(qū)域回歸方逡逑法主要包括四個核心部分:前景區(qū)域分割、透視校正、區(qū)域特征提取、基于特征逡逑的回歸計數(shù)。逡逑給定一張計數(shù)場景圖像,一般首先分割出場景中的前景部分,并根據(jù)場景視逡逑角對分割后的前景區(qū)域進行透視校正,然后提取與目標(biāo)數(shù)目相關(guān)的區(qū)域特征,例逡逑如前景區(qū)域像素統(tǒng)計特征、邊緣特征、紋理特征和特征點等,最后通過回歸模型逡逑學(xué)習(xí)區(qū)域特征到區(qū)域目標(biāo)總數(shù)之間的映射關(guān)系。接下來將在各節(jié)中總結(jié)各模塊逡逑的典型處理思路和方法。逡逑r邋成:逡逑'1邐°o邋—?<) ̄ ̄*00 ̄?00 ̄eoo邋ioco邋i.xo^ixT邋iboo邋tsar:邋?000逡逑I邐^邋預(yù)灥逡逑pp^j邐?邋~|逡逑圖2.1基于區(qū)域回歸的計數(shù)算法總體框架逡逑2.4.2前景區(qū)域分割逡逑前景分割的主要目的是在給定的圖像中將前景區(qū)域從背景中分離出來。前逡逑景提取的準(zhǔn)確性和完整性會直接影響到計數(shù)結(jié)果的準(zhǔn)確率,是后續(xù)進一步處理的逡逑重要基礎(chǔ)。在目標(biāo)計數(shù)方法中,前景分割的常用算法有兩種:混合高斯模型[49]逡逑和混合動態(tài)紋理模型[50]。逡逑2.4.2.1混合高斯模型逡逑混合高斯模型(Gaussian邋Mixture邋Model,邋GMM)邋[49]是一^t"非常經(jīng)典的背景逡逑建模算法,能夠描述復(fù)雜的場景,且算法復(fù)雜度
(b)逡逑圖2.2邐(a)動態(tài)紋理模型,(b)混合動態(tài)紋理模型逡逑K邋?iV(0,邋Q),岣?7V(0,邋i?),<5邋e/2mx'邋i?邋#嶝浚恚
本文編號:2821002
本文鏈接:http://www.sikaile.net/kejilunwen/xinxigongchenglunwen/2821002.html
最近更新
教材專著