天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁(yè) > 科技論文 > 搜索引擎論文 >

漸進(jìn)式行人重識(shí)別關(guān)鍵技術(shù)研究

發(fā)布時(shí)間:2020-08-21 00:24
【摘要】:行人重識(shí)別是指給定目標(biāo)行人的圖像序列,在拍攝區(qū)域不重疊的多攝像頭監(jiān)控網(wǎng)絡(luò)中搜索與其身份相同的行人。它能夠提供目標(biāo)行人在城市中出現(xiàn)的位置和對(duì)應(yīng)時(shí)間,進(jìn)而可以構(gòu)建其活動(dòng)軌跡和理解其行為表現(xiàn),逐漸成為國(guó)內(nèi)外的研究熱點(diǎn)。由于受到行人行為的動(dòng)態(tài)變化、監(jiān)控環(huán)境的復(fù)雜多變、設(shè)備配置的參差不齊和監(jiān)控視頻的數(shù)量巨大等因素影響,行人重識(shí)別面臨以下四個(gè)方面的挑戰(zhàn):1)如何獲取區(qū)分能力強(qiáng)的行人外觀特征快速過(guò)濾掉不相關(guān)行人;2)如何減輕拍攝視角變化對(duì)步態(tài)識(shí)別準(zhǔn)確率的影響;3)如何直接從不規(guī)則步態(tài)序列中自動(dòng)學(xué)習(xí)顯著的周期性時(shí)空信息對(duì)步態(tài)序列進(jìn)行特征表示;4)如何融合行人外觀和步態(tài)特征對(duì)大規(guī)模行人進(jìn)行快速高效的重識(shí)別。因此,針對(duì)上述挑戰(zhàn),本文圍繞行人多級(jí)外觀特征融合、行人步態(tài)的視角不變性特征提取、不規(guī)則步態(tài)的顯著周期性時(shí)空信息學(xué)習(xí)三個(gè)方面提出了一系列模型和方法,構(gòu)建了一種漸進(jìn)式行人重識(shí)別框架,并在公開(kāi)數(shù)據(jù)集上進(jìn)行了驗(yàn)證。本文的主要貢獻(xiàn)總結(jié)如下:(1)行人多級(jí)外觀特征融合。本文提出了孿生靈感結(jié)構(gòu)網(wǎng)絡(luò)模型來(lái)學(xué)習(xí)行人外觀的高級(jí)語(yǔ)義特征。對(duì)于行人外觀的低、中級(jí)特征,提取了行人外觀的顏色、形狀、紋理等視覺(jué)特征;對(duì)于行人外觀的高級(jí)語(yǔ)義特征,采用孿生靈感結(jié)構(gòu)處理行人外觀的類(lèi)內(nèi)差異大、類(lèi)間差異小問(wèn)題,提高了外觀語(yǔ)義對(duì)不同行人的辨別能力;最后,采用零空間度量學(xué)習(xí)方法將多級(jí)外觀特征融合為一種綜合特征表示,增強(qiáng)了行人外觀的區(qū)分能力。(2)步態(tài)圖像的任意視角轉(zhuǎn)換方法。行人拍攝視角變化發(fā)生最為頻繁且對(duì)步態(tài)識(shí)別性能影響很大,為此我們提出了循環(huán)一致的注意力生成對(duì)抗網(wǎng)絡(luò)模型將源視角步態(tài)圖像映射到目標(biāo)視角下完成步態(tài)識(shí)別任務(wù),用于提高交叉視角步態(tài)識(shí)別性能。首先,構(gòu)建了具有兩個(gè)分支的生成器網(wǎng)絡(luò)同時(shí)感知步態(tài)圖像的全局上下文信息和局部身體細(xì)節(jié);其次,設(shè)計(jì)了注意力判別網(wǎng)絡(luò)自適應(yīng)地為步態(tài)圖像的局部區(qū)域分配不同的權(quán)重,有助于在判別過(guò)程中挖掘重要細(xì)節(jié)信息以改善合成步態(tài)圖像的質(zhì)量;最后,引入步態(tài)圖像重建網(wǎng)絡(luò)和正向循環(huán)一致性損失函數(shù),利用源視角域和目標(biāo)視角域中的數(shù)據(jù)先驗(yàn)分布,完成步態(tài)圖像的視角轉(zhuǎn)換,用于保持步態(tài)圖像的身份信息。(3)不規(guī)則步態(tài)的顯著周期性時(shí)空信息提取方法。實(shí)際應(yīng)用中的行人步態(tài)總是不規(guī)則的,導(dǎo)致步態(tài)識(shí)別性能?chē)?yán)重下降,我們提出了顯著的空間-時(shí)間信息總結(jié)網(wǎng)絡(luò)模型直接從不規(guī)則步態(tài)序列中自動(dòng)學(xué)習(xí)辨別能力強(qiáng)的顯著性步態(tài)周期特征用于步態(tài)識(shí)別任務(wù)。首先,設(shè)計(jì)了具有常規(guī)卷積和殘差塊結(jié)構(gòu)的注意力單元,挖掘空間特征圖中與行人身份相關(guān)的顯著語(yǔ)義區(qū)域;其次,采用LSTM對(duì)不規(guī)則步態(tài)的周期性運(yùn)動(dòng)進(jìn)行建模;最后,設(shè)計(jì)了一種注意力時(shí)序總結(jié)單元,自適應(yīng)地獲取有助于步態(tài)識(shí)別的顯著性周期特征來(lái)提高不規(guī)則步態(tài)的識(shí)別性能。(4)漸進(jìn)式行人重識(shí)別框架。我們?cè)O(shè)計(jì)了一種漸進(jìn)式行人重識(shí)別框架實(shí)現(xiàn)在大規(guī)模行人中快速準(zhǔn)確地識(shí)別目標(biāo)行人,它包括兩個(gè)階段:基于多級(jí)外觀的行人粗略過(guò)濾和基于行人步態(tài)的精確搜索。在第一個(gè)階段,使用行人圖像的顏色、形狀、紋理和高級(jí)語(yǔ)義等多級(jí)外觀特征由粗到細(xì)逐步地快速過(guò)濾掉無(wú)關(guān)行人,形成相關(guān)行人搜索子空間,大大縮小了搜索范圍;第二個(gè)階段利用步態(tài)序列的顯著周期性特征在相關(guān)行人搜索子空間中完成精確識(shí)別。該框架不僅能夠顯著降低行人重識(shí)別的時(shí)間開(kāi)銷(xiāo),同時(shí)保證了行人重識(shí)別的準(zhǔn)確率。最后,我們構(gòu)建了融合行人外觀和步態(tài)特征的漸進(jìn)式行人重識(shí)別原型系統(tǒng),并在公開(kāi)數(shù)據(jù)集上驗(yàn)證了原型系統(tǒng)的有效性。
【學(xué)位授予單位】:北京郵電大學(xué)
【學(xué)位級(jí)別】:博士
【學(xué)位授予年份】:2019
【分類(lèi)號(hào)】:TP391.41
【圖文】:

行人,領(lǐng)域,人員,公共安全管理


標(biāo)行人身份、構(gòu)建其行動(dòng)軌跡和理解其行為活動(dòng)己經(jīng)成為亟待解決的重要課題,在逡逑刑事偵查、安全防范(簡(jiǎn)稱(chēng)“安防”)、公共安全管理、行人行為分析等領(lǐng)域有著廣泛逡逑的應(yīng)用前景,如圖1-1所示。逡逑為了實(shí)現(xiàn)以人為中心的安全防范、公共安全管理等領(lǐng)域的信息化、智能化,促逡逑進(jìn)視頻監(jiān)控由“看得見(jiàn)、看得清”的舊時(shí)代向“看得懂”的新時(shí)代邁進(jìn),學(xué)術(shù)界和逡逑工業(yè)界的專(zhuān)家學(xué)者逐漸將視頻監(jiān)控系統(tǒng)中行人身份識(shí)別的相關(guān)研究視為計(jì)算機(jī)視逡逑覺(jué)領(lǐng)域的當(dāng)前研究熱點(diǎn)。近些年,在計(jì)算機(jī)視覺(jué)和多媒體領(lǐng)域的重要國(guó)際學(xué)術(shù)會(huì)逡逑議(CVPR、ICCV、ACMMM、ECCV邋等)和頂級(jí)國(guó)際期刊(IEEE邋Transactions邋on逡逑Pattern邋Analysis邋and邋Machine邋Intelligence,邋IEEE邋Transactions邋on邋Image邋Processing,邋IEEE逡逑Transactions邋on邋Multimedia等)上陸續(xù)出版了一些行人身份識(shí)別相關(guān)的學(xué)術(shù)論文。逡逑CVPR2017將行人分析(Analyzing邋Humans)相關(guān)成果作為一個(gè)Session供專(zhuān)家學(xué)者逡逑探討交流。CVPR2018展示了一些行人身份識(shí)別相關(guān)研究成果,更是吸引了計(jì)算機(jī)視逡逑1逡逑

行人,流程,示意圖


行人重識(shí)別(Person邋re-identification),是指輸入一個(gè)目標(biāo)行人圖像或視頻片逡逑段,在拍攝區(qū)域不重疊的多攝像頭監(jiān)控網(wǎng)絡(luò)中搜索與目標(biāo)行人身份相同的行人。如逡逑圖1-2所示,在覆蓋區(qū)域無(wú)重疊的監(jiān)控視頻中搜索目標(biāo)行人,獲取他的出現(xiàn)位置和時(shí)逡逑間,進(jìn)而可以構(gòu)建目標(biāo)行人的活動(dòng)軌跡,為理解其行為表現(xiàn)提供依據(jù)。通過(guò)行人重識(shí)逡逑別系統(tǒng),安全管理部門(mén)可以準(zhǔn)確、便捷地在海量監(jiān)控視頻數(shù)據(jù)中發(fā)現(xiàn)、定位、追蹤逡逑目標(biāo)行人,并利用這些信息分析目標(biāo)行人的行為活動(dòng)。本文以視頻監(jiān)控為背景,研逡逑究以重識(shí)別行人身份為目標(biāo)的關(guān)鍵技術(shù)。逡逑針對(duì)視頻監(jiān)控網(wǎng)絡(luò),一個(gè)完整的行人重識(shí)別系統(tǒng)通常由行人檢測(cè)、行人跟蹤和逡逑行人重識(shí)別三個(gè)模塊組成,如圖1-3所示。行人檢測(cè)模塊利用計(jì)算機(jī)視覺(jué)技術(shù)判斷原逡逑始視頻幀中是否存在行人并對(duì)其進(jìn)行精確定位,使用邊界矩形框提取行人圖片生成逡逑行人圖像庫(kù),它們通常來(lái)自于不同攝像頭拍攝的不連續(xù)幀;在單個(gè)攝像機(jī)拍攝的視逡逑頻中

行人,基本結(jié)構(gòu),典型研究


可以將行人重識(shí)別分為基于圖像的行人重識(shí)別和基于視頻的行人重識(shí)別兩類(lèi)。逡逑在基于圖像的行人重識(shí)別研宄中,數(shù)據(jù)源為不同攝像機(jī)拍攝的行人圖像,識(shí)別過(guò)程逡逑中僅僅使用了圖像的空間信息描述行人的外觀特征,典型研究成果[18]如圖1-4所示。逡逑基于視頻的行人重識(shí)別方法以不同攝像機(jī)拍攝的行人視頻片段為數(shù)據(jù)源,識(shí)別過(guò)程逡逑中不僅考慮了視頻幀圖像的空間信息,而且還利用了視頻幀之間的時(shí)序信息(即行逡逑人的運(yùn)動(dòng)信息),典型研究成果[1G]如圖1-5所示。逡逑4逡逑

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 金X;陳少昌;;步態(tài)識(shí)別現(xiàn)狀與發(fā)展[J];計(jì)算機(jī)科學(xué);2019年S1期

2 王鶴;石玉;;基于步態(tài)識(shí)別的人物鑒定系統(tǒng)在犯罪搜查中的應(yīng)用[J];中國(guó)安防;2018年10期

3 陸欣嬈;;步態(tài)識(shí)別特征工程算法研究[J];現(xiàn)代商貿(mào)工業(yè);2019年10期

4 晨月;鐘鑫;;世界首個(gè)基于步態(tài)識(shí)別的嫌疑人鑒定系統(tǒng)[J];中國(guó)安防;2018年04期

5 何逸煒;張軍平;;步態(tài)識(shí)別的深度學(xué)習(xí):綜述[J];模式識(shí)別與人工智能;2018年05期

6 李玲玲;;人臉識(shí)別和步態(tài)識(shí)別技術(shù)融合的必要性[J];電腦知識(shí)與技術(shù);2018年28期

7 ;中科院“步態(tài)識(shí)別”技術(shù) 不看臉50m內(nèi)完成識(shí)別[J];智能建筑與智慧城市;2017年10期

8 雷玉堂;;步態(tài)識(shí)別技術(shù)的工作原理及發(fā)展趨勢(shì)[J];中國(guó)公共安全;2015年Z2期

9 ;“步態(tài)識(shí)別”技術(shù):50米內(nèi)人群中認(rèn)出你[J];東西南北;2017年21期

10 張艷靜;;“刷臉”正盛,步態(tài)識(shí)別又來(lái)了[J];農(nóng)村青少年科學(xué)探究;2018年06期

相關(guān)會(huì)議論文 前8條

1 鄧玉春;劉世平;;自動(dòng)步態(tài)識(shí)別方法研究綜述[A];2007通信理論與技術(shù)新發(fā)展——第十二屆全國(guó)青年通信學(xué)術(shù)會(huì)議論文集(上冊(cè))[C];2007年

2 張聰;明東;萬(wàn)柏坤;;基于小波描述子和人體骨架模型的多視角融合步態(tài)識(shí)別[A];天津市生物醫(yī)學(xué)工程學(xué)會(huì)第29屆學(xué)術(shù)年會(huì)暨首屆生物醫(yī)學(xué)工程前沿科學(xué)研討會(huì)論文集[C];2009年

3 朱京紅;方帥;高明;方杰;;基于人工免疫模型的步態(tài)識(shí)別方法[A];第十四屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2008年

4 葉波;文玉梅;李平;;基于核主元分析和支持向量機(jī)的步態(tài)識(shí)別算法[A];第十三屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2006年

5 王雷;;技術(shù)落地,產(chǎn)業(yè)升級(jí)[A];2017年中國(guó)家用電器技術(shù)大會(huì)論文集[C];2017年

6 徐揚(yáng);陳實(shí);田玉敏;;基于核主成分分析的步態(tài)識(shí)別[A];2008'中國(guó)信息技術(shù)與應(yīng)用學(xué)術(shù)論壇論文集(二)[C];2008年

7 何衛(wèi)華;李平;文玉梅;葉波;袁海軍;;運(yùn)用下肢關(guān)節(jié)角度信息進(jìn)行步態(tài)識(shí)別[A];第十三屆全國(guó)圖象圖形學(xué)學(xué)術(shù)會(huì)議論文集[C];2006年

8 田媛;隋國(guó)榮;;光纖步態(tài)識(shí)別技術(shù)研究[A];長(zhǎng)三角地區(qū)科技論壇激光分論壇暨上海市激光學(xué)會(huì)2011年學(xué)術(shù)年會(huì)論文集[C];2011年

相關(guān)重要報(bào)紙文章 前10條

1 記者 馬愛(ài)平;步態(tài)識(shí)別互聯(lián)系統(tǒng)“慧眼”辨識(shí)“嫌疑人”[N];科技日?qǐng)?bào);2019年

2 本報(bào)記者 錢(qián)力;步態(tài)識(shí)別:50米外,秒讀你的“活體密碼”[N];科技日?qǐng)?bào);2019年

3 ;首個(gè)步態(tài)識(shí)別互聯(lián)系統(tǒng)“水滴慧眼”發(fā)布[N];中國(guó)電子報(bào);2019年

4 本報(bào)記者 倪浩;步態(tài)識(shí)別能否成蒙面暴徒克星[N];環(huán)球時(shí)報(bào);2019年

5 本報(bào)記者 李大慶;這家獨(dú)一份的公司靠辨別走路姿勢(shì)占領(lǐng)市場(chǎng)[N];科技日?qǐng)?bào);2018年

6 本報(bào)記者 駱倩雯;“以步識(shí)人”二十年磨一劍[N];北京日?qǐng)?bào);2019年

7 鋅刻度記者 李覲麟;銀河水滴:步態(tài)識(shí)別世界領(lǐng)先者[N];電腦報(bào);2018年

8 本報(bào)記者 徐晶卉;“它可能每天每秒都在進(jìn)步”[N];文匯報(bào);2017年

9 時(shí)報(bào)記者 王森;專(zhuān)業(yè)化環(huán)境助優(yōu)秀企業(yè)崛起[N];濱海時(shí)報(bào);2017年

10 中國(guó)經(jīng)濟(jì)導(dǎo)報(bào)記者 王曉濤;步態(tài)識(shí)別:銀河水滴煉成的“火眼金睛”[N];中國(guó)經(jīng)濟(jì)導(dǎo)報(bào);2017年

相關(guān)博士學(xué)位論文 前10條

1 李雙群;漸進(jìn)式行人重識(shí)別關(guān)鍵技術(shù)研究[D];北京郵電大學(xué);2019年

2 陳欣;多步態(tài)識(shí)別與合成[D];暨南大學(xué);2018年

3 李偉;基于單角色視頻的人物運(yùn)動(dòng)分析[D];山東大學(xué);2018年

4 蘇菡;基于步態(tài)分析的身份識(shí)別研究[D];哈爾濱工程大學(xué);2006年

5 趙國(guó)英;基于視頻的步態(tài)識(shí)別[D];中國(guó)科學(xué)院研究生院(計(jì)算技術(shù)研究所);2005年

6 田光見(jiàn);步態(tài)特征提取與識(shí)別技術(shù)研究[D];西北工業(yè)大學(xué);2006年

7 柴艷妹;基于步態(tài)特征的身份識(shí)別技術(shù)研究[D];西北工業(yè)大學(xué);2007年

8 顧磊;基于圖像序列的人體步態(tài)識(shí)別方法研究[D];南京理工大學(xué);2008年

9 張?jiān)?基于序列統(tǒng)計(jì)特性的步態(tài)識(shí)別算法研究[D];山東大學(xué);2010年

10 徐萬(wàn)江;基于特征子空間的跨視角步態(tài)識(shí)別研究[D];蘇州大學(xué);2017年

相關(guān)碩士學(xué)位論文 前10條

1 廖日軍;基于人體姿態(tài)特征的步態(tài)識(shí)別研究[D];深圳大學(xué);2018年

2 姜佳楠;基于視頻序列的步態(tài)識(shí)別方法研究[D];沈陽(yáng)建筑大學(xué);2017年

3 李影;基于sEMG的步態(tài)運(yùn)動(dòng)模式細(xì)分及其識(shí)別方法[D];杭州電子科技大學(xué);2018年

4 王宏宇;基于骨架模型分類(lèi)的人體步態(tài)識(shí)別[D];東北大學(xué);2015年

5 朱瑩瑩;基于BEMD的多視角步態(tài)識(shí)別算法研究[D];哈爾濱理工大學(xué);2018年

6 何書(shū)芹;基于手機(jī)加速度傳感器的步態(tài)識(shí)別研究[D];西北師范大學(xué);2018年

7 成豐江;基于確定學(xué)習(xí)理論的步態(tài)識(shí)別與步態(tài)對(duì)稱(chēng)性研究[D];華南理工大學(xué);2018年

8 康忠潤(rùn);基于確定學(xué)習(xí)理論和Kinect數(shù)據(jù)流的人體正面步態(tài)識(shí)別研究[D];華南理工大學(xué);2018年

9 袁鵬瑞;基于多輪廓特征融合的步態(tài)識(shí)別方法研究[D];西安科技大學(xué);2018年

10 劉帥;基于下肢角度和足底壓力分布視觸覺(jué)特征融合的步態(tài)識(shí)別研究[D];河北工業(yè)大學(xué);2016年



本文編號(hào):2798650

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/sousuoyinqinglunwen/2798650.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c5b87***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com