基于視頻的商場人群行為識別研究
本文選題:商場 + 人群行為; 參考:《天津財經(jīng)大學》2016年碩士論文
【摘要】:隨著當前社會經(jīng)濟的高速發(fā)展,人們的生活質(zhì)量不斷提高,大量的集購物、吃飯、玩樂等功能為一體的大型商場場所被建造以供給人們用來平日的休閑娛樂活動,滿足人們的各種需求。視頻監(jiān)控被廣泛地用于商場內(nèi)監(jiān)控人們的活動,保證商場的正常運營。但視頻監(jiān)控往往只被用于監(jiān)控商場內(nèi)人群是否存在異常,沒有充分利用其價值。目前,基于視頻的人群行為識別分析已是國內(nèi)外廣泛重視研究的熱點。而對商場監(jiān)控視頻中人群一般正常活動時的行為進行識別研究,不僅具有重要的公共安全研究價值,而且對于如今受到電子商務(wù)沖擊的傳統(tǒng)商場零售業(yè)而言也有一定商業(yè)研究價值。根據(jù)目前研究發(fā)現(xiàn),人群的運動往往不是直接由個體運動組成的,而是由大大小小的群組的行為組成的。因此,基于上述背景內(nèi)容,對商場內(nèi)人群通過分組來分析其正常行為,設(shè)計了一種基于視頻的商場人群行為識別方法,對商場中普遍常見的人群自由前行、人群排隊以及人群坐著休息等候三種正常行為進行識別。首先,對視頻中的人群前景進行檢測,提出一種結(jié)合YUV空間碼本模型和基于HOG特征行人檢測的改進前景人群目標檢測算法。在使用YUV空間碼本模型檢測得到前景目標的基礎(chǔ)上,結(jié)合基于HOG特征的行人檢測結(jié)果,進一步準確地得到重點研究的前景人群目標。其次,在檢測到的人群前景目標基礎(chǔ)上提取人群特征點,采用金字塔LK光流法對人群特征點進行跟蹤并計算光流信息,減少了直接使用光流法的計算量。同時,再使用基于HOG特征檢測行人方法,檢測到的行人區(qū)域結(jié)果將用于對人群分組。再次,將跟蹤到的人群特征點進行分組,提出一種改進的k-means二次聚類算法。第一次先使用k-means聚類算法對檢測出的行人區(qū)域中心點進行聚類,得到人群總體粗分組情況。在此基礎(chǔ)上,將第一次聚類得到的人群粗分組的各中心,作為再次使用k-means聚類算法初始時的聚類中心,對所有人群特征點進行細劃分組。并結(jié)合基于HOG特征檢測行人的結(jié)果對分組結(jié)果加以調(diào)整,得到最終的人群特征點分組。最后,對每個群組的人群特征點提取運動特征和密度特征,采用支持向量機SVM的分類識別算法,在自行采集的和網(wǎng)上收集的視頻數(shù)據(jù)集上進行訓(xùn)練和測試識別商場內(nèi)三種人群正常行為,取得了較好的實驗結(jié)果,實現(xiàn)了解整體人群的運動情況的目的。
[Abstract]:With the rapid development of social economy, people's quality of life is improving constantly. A large number of shopping, eating, playing and other functions are built to provide people with leisure and entertainment activities. Meet people's needs. Video surveillance is widely used in shopping malls to monitor people's activities to ensure the normal operation of shopping malls. However, video surveillance is often only used to monitor whether there are anomalies in shopping malls, and the value of video surveillance is not fully utilized. At present, video-based crowd behavior recognition and analysis has been the focus of extensive attention at home and abroad. However, it is not only of great value to study the behavior of the general normal activities of people in the surveillance video of shopping malls, but also to study the public safety. And it also has certain commercial research value to the traditional retail business which is impacted by e-commerce. According to current studies, the movement of people is usually composed not directly of individual motion, but by the behavior of large and small groups. Therefore, based on the above background, this paper analyzes the normal behavior of the people in the shopping mall by grouping, and designs a video-based method to identify the behavior of the crowd in the shopping mall. The crowd queue and the crowd sit down and wait for three normal behaviors to be identified. Firstly, this paper presents an improved foreground crowd detection algorithm based on YUV spatial codebook model and pedestrian detection based on HOG features. On the basis of using YUV spatial codebook model to detect the foreground target, combined with the pedestrian detection result based on the HOG feature, the foreground crowd target of the key research is obtained accurately. Secondly, based on the detected population foreground target, the crowd feature points are extracted, and the pyramidal LK optical flow method is used to track the crowd feature points and calculate the optical flow information, which reduces the calculation amount of the direct use of the optical flow method. At the same time, the pedestrian detection method based on HOG features is used, and the detected pedestrian area results will be used to group the population. Thirdly, an improved k-means quadratic clustering algorithm is proposed by grouping the tracked population feature points. For the first time, the k-means clustering algorithm is used to cluster the detected pedestrian center, and the total coarse grouping of the population is obtained. On this basis, the centers of the first clustering are used as the initial clustering centers of the k-means clustering algorithm to divide all the population feature points into groups. Combined with the result of pedestrian detection based on HOG feature, the result of grouping was adjusted to get the final grouping of crowd feature points. Finally, the motion feature and density feature are extracted from the crowd feature points of each group, and the classification and recognition algorithm of support vector machine (SVM) is used. Three kinds of normal behaviors of people in shopping malls are trained and tested on the video data set collected by ourselves and online. Good experimental results are obtained and the purpose of understanding the movement of the whole population is achieved.
【學位授予單位】:天津財經(jīng)大學
【學位級別】:碩士
【學位授予年份】:2016
【分類號】:TP391.41;TN948.6
【相似文獻】
相關(guān)期刊論文 前10條
1 劉相濱,向堅持,王勝春;人行為識別與理解研究探討[J];計算機與現(xiàn)代化;2004年12期
2 李寧;須德;傅曉英;袁玲;;結(jié)合人體運動特征的行為識別[J];北京交通大學學報;2009年02期
3 張偉東;陳峰;徐文立;杜友田;;基于階層多觀測模型的多人行為識別[J];清華大學學報(自然科學版);2009年07期
4 吳聯(lián)世;夏利民;羅大庸;;人的交互行為識別與理解研究綜述[J];計算機應(yīng)用與軟件;2011年11期
5 申曉霞;張樺;高贊;薛彥兵;徐光平;;一種魯棒的基于深度數(shù)據(jù)的行為識別算法[J];光電子.激光;2013年08期
6 鄭胤;陳權(quán)崎;章毓晉;;深度學習及其在目標和行為識別中的新進展[J];中國圖象圖形學報;2014年02期
7 曾青松;余明輝;賀衛(wèi)國;李玲;;一種行為識別的新方法[J];昆明理工大學學報(理工版);2009年06期
8 谷軍霞;丁曉青;王生進;;基于人體行為3D模型的2D行為識別[J];自動化學報;2010年01期
9 李英杰;尹怡欣;鄧飛;;一種有效的行為識別視頻特征[J];計算機應(yīng)用;2011年02期
10 王新旭;;基于視覺的人體行為識別研究[J];中國新通信;2012年21期
相關(guān)會議論文 前7條
1 苗強;周興社;於志文;倪紅波;;一種非覺察式的睡眠行為識別技術(shù)研究[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
2 齊娟;陳益強;劉軍發(fā);;基于多模信息感知與融合的行為識別[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
3 方帥;曹洋;王浩;;視頻監(jiān)控中的行為識別[A];2007中國控制與決策學術(shù)年會論文集[C];2007年
4 黃紫藤;吳玲達;;監(jiān)控視頻中簡單人物行為識別研究[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
5 安國成;羅志強;李洪研;;改進運動歷史圖的異常行為識別算法[A];第八屆中國智能交通年會優(yōu)秀論文集——智能交通與安全[C];2013年
6 王忠民;曹棟;;坐標轉(zhuǎn)換在移動用戶行為識別中的應(yīng)用研究[A];2013年全國通信軟件學術(shù)會議論文集[C];2013年
7 劉威;李石堅;潘綱;;uRecorder:基于位置的社會行為自動日志[A];第18屆全國多媒體學術(shù)會議(NCMT2009)、第5屆全國人機交互學術(shù)會議(CHCI2009)、第5屆全國普適計算學術(shù)會議(PCC2009)論文集[C];2009年
相關(guān)重要報紙文章 前4條
1 李晨光;導(dǎo)入CIS要注意什么?[N];河北經(jīng)濟日報;2001年
2 農(nóng)發(fā)行鹿邑支行黨支部書記 行長 劉永貞;發(fā)行形象與文化落地農(nóng)[N];周口日報;2007年
3 東林;行為識別新技術(shù)讓監(jiān)控沒有“死角”[N];人民公安報;2007年
4 田凱 徐蕊 李政育 信木祥;博物館安全的國際經(jīng)驗[N];中國文物報;2014年
相關(guān)博士學位論文 前10條
1 邵延華;基于計算機視覺的人體行為識別研究[D];重慶大學;2015年
2 仝鈺;基于條件隨機場的智能家居行為識別研究[D];大連海事大學;2015年
3 馮銀付;多模態(tài)人體行為識別技術(shù)研究[D];浙江大學;2015年
4 姜新波;基于三維骨架序列的人體行為識別研究[D];山東大學;2015年
5 裴利沈;視頻中人體行為識別若干問題研究[D];電子科技大學;2016年
6 周同馳;行為識別中基于局部時空關(guān)系的特征模型研究[D];東南大學;2016年
7 徐海燕;復(fù)雜環(huán)境下行為識別特征提取方法研究[D];東南大學;2016年
8 吳云鵬;集體行為的識別與仿真研究[D];鄭州大學;2017年
9 劉艷秋;舍飼環(huán)境下母羊產(chǎn)前典型行為識別方法研究[D];內(nèi)蒙古農(nóng)業(yè)大學;2017年
10 何衛(wèi)華;人體行為識別關(guān)鍵技術(shù)研究[D];重慶大學;2012年
相關(guān)碩士學位論文 前10條
1 唐小琴;基于全局和局部運動模式的人體行為識別研究[D];西南大學;2015年
2 胡秋揚;可穿戴式個人室內(nèi)位置和行為監(jiān)測系統(tǒng)[D];浙江大學;2015年
3 陳鈺昕;基于時空特性的人體行為識別研究[D];燕山大學;2015年
4 任亮;智能車環(huán)境下車輛典型行為識別方法研究[D];長安大學;2015年
5 金澤豪;并行化的人體行為識別方法研究與實現(xiàn)[D];華南理工大學;2015年
6 王呈;穿戴式多傳感器人體日常活動監(jiān)測系統(tǒng)設(shè)計與實現(xiàn)[D];南京理工大學;2015年
7 王露;基于稀疏時空特征的人體行為識別研究[D];蘇州大學;2015年
8 于靜;基于物品信息和人體深度信息的行為識別研究[D];山東大學;2015年
9 章瑜;人體運動行為識別相關(guān)方法研究[D];南京師范大學;2015年
10 趙揚;家庭智能空間下基于行走軌跡的人體行為理解[D];山東大學;2015年
,本文編號:1935478
本文鏈接:http://www.sikaile.net/jingjilunwen/dianzishangwulunwen/1935478.html