大跨度視頻編碼與傳輸體系研究
發(fā)布時間:2021-10-27 05:47
隨著人們對視覺內(nèi)容的消費需求越來越高,互聯(lián)網(wǎng)中視頻數(shù)據(jù)的儲量呈爆炸式增長。海量視頻的存儲和傳輸消耗著大量的存儲和帶寬資源。為了降低視頻數(shù)據(jù)量,視頻編碼方案使用了層出不窮的高效技術以提升編碼效率。但是為了支持靈活的隨機訪問,視頻碼流中存在著很多隨機訪問點,它們將碼流分割為多段相互獨立的隨機訪問片段。由于不能相互參考,隨機訪問片段之間的冗余信息無法被有效剔除,以至于不能進一步提升編碼效率。實際上,在很多視頻中,隨機訪問片段在大跨度的時間間隔內(nèi)存在著反復出現(xiàn)的背景或?qū)ο。為了利用這種大跨度的相關信息,前人提出基于場景知識庫的視頻編碼方法,通過引入包含多樣場景內(nèi)容的外源知識圖像庫,為主視頻中包含相似場景的隨機訪問片段提供外源參考信息。然而,外源知識圖像帶來了兩方面的問題。一方面,在編碼層,生成獲取的知識圖像的內(nèi)容和質(zhì)量會極大地影響視頻編碼的效率,而獲取內(nèi)容多樣又存儲精簡的最優(yōu)知識圖像集會消耗很多的計算時間,這為其在海量視頻的壓縮上帶來了阻礙,如何快速地獲取最優(yōu)知識圖像是在編碼層獲得編碼性能增益的一個關鍵問題;另一方面,在系統(tǒng)層,外源知識圖像在大跨度時間上的交替共享使用為視頻碼流的隨機訪問的實現(xiàn)...
【文章來源】:浙江大學浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:131 頁
【學位級別】:博士
【部分圖文】:
圖1.2視頻的混合編碼框架??
浙江大學博士學位論文?1緒論??^?^?^1?'^1?h?^?^??????RL-0?B-16??圖1.3?GOP大小為16的分層參考結(jié)構(gòu)示意圖??失真分析來選擇最佳的長期參考鄭被選做長期參考幀的視頻幀通常會進行高質(zhì)量的編碼,??相fc于參考普通質(zhì)董的短期參考幀而言,后續(xù)的待編碼幀通過參考高質(zhì)量的長期參考幀能??相應地獲得高質(zhì)量的重建結(jié)果,從而提升編碼性能[441。但是由于視頻幀中通常都存在前景??遮擋,因此視頻重建幀中選擇出的長期參考幀通常都不是“千凈”的背景。近期研究者們??提出通過構(gòu)造出一+背景圖像來作為長期參考鄭Paul等人[45]利用高斯混合模型對一個視??頻中大量視頻幀在同一位置的像素進行建模來生成背景圖像作為長期參考鄭由于高斯混??合模型的建模會帶來大量的浮點計算,因此使得編碼時間大幅增加。為了降低生成背景圖??像的計算復雜度,Zhang等人[46]提出了通過簡單地將多+圖片逐像素平均來生成背景圖像??作為長期參考鄭在Zhang等人的算法中,背景圖像作為單獨的一幀只使用幀內(nèi)預測來編??碼,且由于其被大量的視顛幀所參考,因此會使用較小的量化參數(shù)來編碼,相應地,背景??圖像對應生成的位流通常會很大,在短時間內(nèi)傳輸背景圖像需要花費大量的比特,從而可??能導致發(fā)生位流沖激,導致數(shù)據(jù)包丟失和嚴重的視頻質(zhì)量下降。為了解決這個問題,Chen??等人[47]提出了一種基于塊組成的背景圖像作為長期參考鄭在Chen等人的方案中,他們??將整+背景像分成多個編碼單元塊,通過從不同的視頻幀中選擇出對應位置的背景單元塊,??將背景圖像以編碼單元塊的方式分散到多幅視頻幀中,以實現(xiàn)平滑的位流輸出。??長期參考幀最常見的應
卡載控制、??'文#封?I?文件1?ixmr??、.氣器J?本“放?L?*斤丨器J?\??I?_?I??系統(tǒng)層?視頻碼流?I?視頻碼流??j?^r1?■??—?—?—?—?■?-_,?—?— ̄?—? ̄ ̄?—?^?—?—???—?—?—?—?—?—?—?—?—??—?—??^??編碼層??j?[編碼器j?|?[解碼器j??ii?■贊入jiff?i????輸出視頻?]??A?--—「-—?〇??圖1.4視頻的編碼與傳輸系統(tǒng)框架??編碼圖像提供高效的參考信息。該方法使用顏色直方圖度量知識庫圖像與編碼圖像之間的??相似度并使用K-Medoids的聚類方法獲取知識庫圖像集合9但是,在一方面,K-Medoids??方法主要用于將屬性或內(nèi)容相似的對象劃分為不同的類別以區(qū)分對象,其主要目的是分類,??而知識庫圖像集合生成的目標并不僅僅是將視頻圖像劃分為不同的類別,還要求為每個類??別選出最能表現(xiàn)類別特性的代表對象作為知識庫圖像,因此K-Medoids方法的目的與知識??庫圖像集合生成的目標并不完全一致。在另一方面,使用K-Medoids聚類方法需要指定聚??類數(shù)目并遍歷獲取最佳知識庫圖像集合的數(shù)目,這在對長時視頻生成知識庫圖像集合時會??帶來較高的復雜度。在第三方面,以相似度作為編碼代價的估計方法并不準確。??1.3系統(tǒng)層存儲和傳輸研究現(xiàn)狀??視頻的廣泛應用除了依賴高效的視頻編碼,還離不開靈活的視頻存儲和傳輸,F(xiàn)有的??視頻編碼與傳輸體系架構(gòu)如圖1.4所示。輸入的視頻在編碼層被編碼單元壓縮為碼流,在系??統(tǒng)層的服務端被按照文件格式封裝為視頻文件
【參考文獻】:
期刊論文
[1]Error-Resilient Multi-view Video Coding Based on End-to-End Rate-Distortion Optimization[J]. GAO Pan,PENG Qiang,WANG Qionghua. Chinese Journal of Electronics. 2016(02)
本文編號:3460995
【文章來源】:浙江大學浙江省 211工程院校 985工程院校 教育部直屬院校
【文章頁數(shù)】:131 頁
【學位級別】:博士
【部分圖文】:
圖1.2視頻的混合編碼框架??
浙江大學博士學位論文?1緒論??^?^?^1?'^1?h?^?^??????RL-0?B-16??圖1.3?GOP大小為16的分層參考結(jié)構(gòu)示意圖??失真分析來選擇最佳的長期參考鄭被選做長期參考幀的視頻幀通常會進行高質(zhì)量的編碼,??相fc于參考普通質(zhì)董的短期參考幀而言,后續(xù)的待編碼幀通過參考高質(zhì)量的長期參考幀能??相應地獲得高質(zhì)量的重建結(jié)果,從而提升編碼性能[441。但是由于視頻幀中通常都存在前景??遮擋,因此視頻重建幀中選擇出的長期參考幀通常都不是“千凈”的背景。近期研究者們??提出通過構(gòu)造出一+背景圖像來作為長期參考鄭Paul等人[45]利用高斯混合模型對一個視??頻中大量視頻幀在同一位置的像素進行建模來生成背景圖像作為長期參考鄭由于高斯混??合模型的建模會帶來大量的浮點計算,因此使得編碼時間大幅增加。為了降低生成背景圖??像的計算復雜度,Zhang等人[46]提出了通過簡單地將多+圖片逐像素平均來生成背景圖像??作為長期參考鄭在Zhang等人的算法中,背景圖像作為單獨的一幀只使用幀內(nèi)預測來編??碼,且由于其被大量的視顛幀所參考,因此會使用較小的量化參數(shù)來編碼,相應地,背景??圖像對應生成的位流通常會很大,在短時間內(nèi)傳輸背景圖像需要花費大量的比特,從而可??能導致發(fā)生位流沖激,導致數(shù)據(jù)包丟失和嚴重的視頻質(zhì)量下降。為了解決這個問題,Chen??等人[47]提出了一種基于塊組成的背景圖像作為長期參考鄭在Chen等人的方案中,他們??將整+背景像分成多個編碼單元塊,通過從不同的視頻幀中選擇出對應位置的背景單元塊,??將背景圖像以編碼單元塊的方式分散到多幅視頻幀中,以實現(xiàn)平滑的位流輸出。??長期參考幀最常見的應
卡載控制、??'文#封?I?文件1?ixmr??、.氣器J?本“放?L?*斤丨器J?\??I?_?I??系統(tǒng)層?視頻碼流?I?視頻碼流??j?^r1?■??—?—?—?—?■?-_,?—?— ̄?—? ̄ ̄?—?^?—?—???—?—?—?—?—?—?—?—?—??—?—??^??編碼層??j?[編碼器j?|?[解碼器j??ii?■贊入jiff?i????輸出視頻?]??A?--—「-—?〇??圖1.4視頻的編碼與傳輸系統(tǒng)框架??編碼圖像提供高效的參考信息。該方法使用顏色直方圖度量知識庫圖像與編碼圖像之間的??相似度并使用K-Medoids的聚類方法獲取知識庫圖像集合9但是,在一方面,K-Medoids??方法主要用于將屬性或內(nèi)容相似的對象劃分為不同的類別以區(qū)分對象,其主要目的是分類,??而知識庫圖像集合生成的目標并不僅僅是將視頻圖像劃分為不同的類別,還要求為每個類??別選出最能表現(xiàn)類別特性的代表對象作為知識庫圖像,因此K-Medoids方法的目的與知識??庫圖像集合生成的目標并不完全一致。在另一方面,使用K-Medoids聚類方法需要指定聚??類數(shù)目并遍歷獲取最佳知識庫圖像集合的數(shù)目,這在對長時視頻生成知識庫圖像集合時會??帶來較高的復雜度。在第三方面,以相似度作為編碼代價的估計方法并不準確。??1.3系統(tǒng)層存儲和傳輸研究現(xiàn)狀??視頻的廣泛應用除了依賴高效的視頻編碼,還離不開靈活的視頻存儲和傳輸,F(xiàn)有的??視頻編碼與傳輸體系架構(gòu)如圖1.4所示。輸入的視頻在編碼層被編碼單元壓縮為碼流,在系??統(tǒng)層的服務端被按照文件格式封裝為視頻文件
【參考文獻】:
期刊論文
[1]Error-Resilient Multi-view Video Coding Based on End-to-End Rate-Distortion Optimization[J]. GAO Pan,PENG Qiang,WANG Qionghua. Chinese Journal of Electronics. 2016(02)
本文編號:3460995
本文鏈接:http://www.sikaile.net/kejilunwen/sousuoyinqinglunwen/3460995.html
最近更新
教材專著