基于圖像分割的視頻紋理合成技術(shù)研究
本文選題:紋理合成 + 動畫; 參考:《上海交通大學(xué)》2011年碩士論文
【摘要】:隨著計算機圖形學(xué)以及多媒體技術(shù)的不斷發(fā)展和成熟,簡單的圖像紋理已經(jīng)不能滿足所有應(yīng)用的需求,比如在視頻制作、虛擬仿真、動畫生成和游戲引擎等領(lǐng)域中,都需要使用到視頻紋理。視頻紋理是指描述某種動態(tài)景觀的具有時間相關(guān)重復(fù)特征的幀序列,視頻紋理在自然界中廣泛存在,比如火焰、瀑布、飄揚的旗幟、飛翔的鳥群等。不過受到拍攝條件和存儲設(shè)備的限制,所拍攝視頻只能持續(xù)有限長時間,雖然在一定程度上反映了拍攝事物隨時間變化的行為,但是在很多應(yīng)用中,還是需要使用“無限長時間”的視頻紋理。比如,網(wǎng)頁上的一個廣告,棕櫚樹在沙灘上迎風(fēng)擺動,應(yīng)該使用視頻紋理而不是靜態(tài)圖片。類似的,視頻紋理還可以在計算機游戲中作為動態(tài)背景使用。 視頻紋理的合成一直是計算機圖形學(xué)的主要目標(biāo)和難點之一,本文研究了基于圖像分割的視頻紋理合成算法。傳統(tǒng)的視頻紋理合成方法是從一段輸入視頻中生成連續(xù)的、無限長時間的視頻的幀序列,這是一種產(chǎn)生視頻紋理的很好的方法,缺點是輸入視頻的體積一般比較大。與此相比,我們提出一種從一些靜態(tài)圖片中生成視頻紋理的方法,輸入的靜態(tài)圖片在一定程度上反映了場景的動態(tài)信息。我們首先利用圖像相似函數(shù)恢復(fù)輸入圖片的時間先后順序,然后用二階馬爾科夫鏈模型對輸入圖片進(jìn)行采樣,產(chǎn)生后續(xù)視頻的幀序列,最后我們采用變形技術(shù)對相鄰幀進(jìn)行插值,消除相鄰幀序列之間的不連續(xù)性和不一致性,最后生成連續(xù)的、無限長時間的,具有良好視覺效果的視頻紋理。 本文關(guān)注的重點是利用輸入的靜態(tài)圖片的信息,生成無限長時間的,具有良好視覺效果的視頻紋理。本文的創(chuàng)新主要有以下兩個方面:1)圖像相似度函數(shù)的設(shè)計,我們同時考慮圖片的顏色和運動物體的形狀特征。當(dāng)運動物體的形狀發(fā)生較大變化時,我們的圖像相似度函數(shù)比僅僅使用歐拉距離描述圖像相似度效果更好。2)使用基于shape context和thin-plate spline的變形技術(shù)做視頻幀之間的插值,并且使用反距離權(quán)重方法來消除生成的視頻幀中存在的空洞。 由此可見,研究視頻紋理的合成具有重要的應(yīng)用價值。設(shè)計好的視頻紋理合成算法,能夠提高視頻紋理的生成質(zhì)量,減少生成視頻紋理所需要的時間空間耗費,為其他相關(guān)應(yīng)用奠定良好的基礎(chǔ)。
[Abstract]:With the development and maturity of computer graphics and multimedia technology, simple image texture can not meet the needs of all applications, such as video production, virtual simulation, animation generation and game engine, etc. Both need to use video textures. Video texture is a time-dependent frame sequence that describes a dynamic landscape. Video texture widely exists in nature, such as flame, waterfall, flying flag, flying birds and so on. However, due to the limitation of shooting conditions and storage devices, the video can only last for a limited period of time. Although to some extent, it reflects the behavior of shooting things over time, but in many applications, Still need to use "infinite time" video texture. For example, an ad on a web page with palm trees swinging against the sand should use video textures rather than static images. Similarly, video textures can be used as dynamic backgrounds in computer games. The synthesis of video texture has been one of the main objectives and difficulties of computer graphics. In this paper, a video texture synthesis algorithm based on image segmentation is studied. The traditional method of video texture synthesis is to generate frame sequences of continuous and infinite video from an input video. This is a good method to generate video texture. The disadvantage is that the volume of input video is generally large. In contrast, we propose a method to generate video texture from some static images, and the input static images reflect the dynamic information of the scene to a certain extent. We first use the image similarity function to restore the time sequence of the input pictures, and then we sample the input pictures by using the second-order Markov chain model to generate the frame sequence of the subsequent video. Finally, we use the deformation technique to interpolate the adjacent frames to eliminate the discontinuity and disconsistency between the adjacent frame sequences, and finally generate the continuous, infinite time video texture with good visual effect. The focus of this paper is to use the input information of static images to generate video textures with infinite time and good visual effect. The innovation of this paper mainly includes the following two aspects: 1) the design of image similarity function. We also consider the color of images and the shape features of moving objects. When the shape of moving object changes greatly, our image similarity function is better than only using Euler distance to describe image similarity. And the inverse distance weight method is used to eliminate the holes in the generated video frames. Therefore, the research of video texture synthesis has important application value. The designed video texture synthesis algorithm can improve the quality of video texture generation, reduce the time and space cost of video texture generation, and lay a good foundation for other related applications.
【學(xué)位授予單位】:上海交通大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2011
【分類號】:TP391.41
【相似文獻(xiàn)】
相關(guān)期刊論文 前10條
1 李莉;;基于視頻動態(tài)紋理與粒子系統(tǒng)的雨景模擬[J];河北大學(xué)學(xué)報(自然科學(xué)版);2011年04期
2 劉洪鳴;;塊匹配的二維圖像紋理合成典型算法[J];硅谷;2011年14期
3 周姍姍;趙知勁;葉學(xué)義;;采用TV及紋理合成技術(shù)的分層圖像修復(fù)[J];計算機工程與應(yīng)用;2011年23期
4 ;[J];;年期
5 ;[J];;年期
6 ;[J];;年期
7 ;[J];;年期
8 ;[J];;年期
9 ;[J];;年期
10 ;[J];;年期
相關(guān)會議論文 前2條
1 徐瑋;張茂軍;吳玲達(dá);王煒;;基于圖象的動態(tài)場景繪制技術(shù)[A];中國系統(tǒng)仿真學(xué)會第五次全國會員代表大會暨2006年全國學(xué)術(shù)年會論文集[C];2006年
2 王玉培;鄭利平;劉曉平;;基于Virtools的Web虛擬現(xiàn)實系統(tǒng)的設(shè)計與實現(xiàn)[A];全國第20屆計算機技術(shù)與應(yīng)用學(xué)術(shù)會議(CACIS·2009)暨全國第1屆安全關(guān)鍵技術(shù)與應(yīng)用學(xué)術(shù)會議論文集(下冊)[C];2009年
相關(guān)重要報紙文章 前2條
1 江蘇 朱云;SavageXP低端稱雄[N];電腦報;2002年
2 鄒肇輝;給電影做個Cool片頭[N];中國計算機報;2003年
相關(guān)博士學(xué)位論文 前3條
1 張巖;紋理合成技術(shù)的研究及其應(yīng)用[D];吉林大學(xué);2006年
2 錢文華;基于紋理的非真實感繪制技術(shù)研究[D];云南大學(xué);2010年
3 姚康;基于感知機理的真實感過程紋理生成模式研究[D];中國海洋大學(xué);2012年
相關(guān)碩士學(xué)位論文 前10條
1 尹超;基于圖像分割的視頻紋理合成技術(shù)研究[D];上海交通大學(xué);2011年
2 吳穎斌;紋理合成技術(shù)及其在顱面復(fù)原中的應(yīng)用[D];西北大學(xué);2012年
3 朱旭陽;視頻紋理研究與實現(xiàn)[D];國防科學(xué)技術(shù)大學(xué);2002年
4 譚重建;動態(tài)全景圖的研究[D];吉林大學(xué);2005年
5 舒小斌;基于分類塊拼接的紋理合成方法[D];大連理工大學(xué);2006年
6 顏星;基于能量優(yōu)化的圖像與視頻紋理替換技術(shù)研究[D];北京理工大學(xué);2010年
7 孟偉臻;基于視頻的流水和火焰特效合成[D];浙江大學(xué);2006年
8 陳佳豫;視頻合成技術(shù)的研究與實現(xiàn)[D];吉林大學(xué);2006年
9 黃一岑;光照情況下的圖像修復(fù)技術(shù)的研究[D];復(fù)旦大學(xué);2008年
10 吳潛祿;基于集群的大屏幕高清晰度視頻播放系統(tǒng)的研究與實現(xiàn)[D];浙江大學(xué);2006年
,本文編號:1919068
本文鏈接:http://www.sikaile.net/wenyilunwen/guanggaoshejilunwen/1919068.html