深度學習在視頻幀間補償中的研究與應用
發(fā)布時間:2021-04-20 02:50
視頻數據在網絡傳送中,由于網絡線路的延遲、擁堵可能出現丟失數據包,導致接收端解碼出的視頻畫面質量很差。本文對此問題進行了深入研究,設計了基于深度學習的視頻幀間補償算法:一種無監(jiān)督視頻圖像重建神經網絡模型。本模型基于對整個視頻內容結構細節(jié)的理解,重建出視頻幀中缺失部分,通過實驗可以發(fā)現本文設計的深度卷積神經網絡模型與基于樣本插值的算法相比在視頻幀間補償中有著較好的效果。本文主要內容如下:1、論文研究融合通信的發(fā)展、前景和各種應用場景,研究現在通信系統(tǒng)對網絡視頻傳輸的強烈需求,對網絡視頻超分辨率重建與機器學習結合的優(yōu)勢進行了研究與分析。2、對深度學習相關原理、常用模型、卷積神經網絡等進行研究,結合深度學習理論對當前流行的深度學習開源框架TensorFlow的底層原理進行研究;谏疃葘W習改進了圖像識別算法,并將改進算法與其他圖像識別算法,進行實驗對比。結果證明改進算法提高了圖像識別的精度。3、對視頻編解碼進行研究,給出了在當前視頻編碼的頗為重要的兩個原因:第一,現在視頻文件一般都比較大,需要大量存儲空間來保存生活中各種視頻文件。其次,由于視頻文件比較大,在網絡傳輸中視頻數據占用了大多數帶寬...
【文章來源】:中國科學院大學(中國科學院沈陽計算技術研究所)遼寧省
【文章頁數】:80 頁
【學位級別】:碩士
【文章目錄】:
摘要
abstract
第1章 緒論
1.1 課題研究的背景及意義
1.2 課題在國內外的發(fā)展現狀與趨勢
1.3 論文的研究內容及目標
1.4 論文組織結構
1.5 本章小結
第2章 融合通信系統(tǒng)概述
2.1 融合通信簡介
2.2 融合通信系統(tǒng)概述
2.2.1 系統(tǒng)架構
2.2.2 應用場景
2.2.3 存在的問題
2.3 圖像重建與深度學習結合
2.4 本章小結
第3章 深度學習與圖像識別的研究
3.1 神經網絡
3.1.1 神經元模型
3.1.2 網絡結構
3.1.3 卷積神經網絡
3.1.4 TensorFlow深度學習框架
3.2 圖像識別算法改進
3.2.1 卷積層
3.2.2 激活函數層
3.2.3 池化層
3.2.4 全連接層
3.3 實驗結果與分析
3.3.1 實驗環(huán)境配置
3.3.2 基于MNISTS數據集實驗與分析
3.3.3 基于CIFAR-10數據集實驗與分析
3.4 本章小結
第4章 視頻的編解碼技術研究
4.1 視頻編解碼
4.1.1 視頻編解碼的概述
4.1.2 H.264視頻編解碼的基本原理
4.2 基于深度學習的視頻單幀重建算法
4.2.1 卷積處理視頻幀
4.2.2 視頻幀重建
4.2.3 計算損失
4.3 實驗結果與分析
4.3.1 實驗環(huán)境配置
4.3.2 訓練模型
4.3.3 實驗結果
4.3.4 結果對比與分析
4.5 本章小結
第5章 神經網絡在視頻幀間補償中的應用
5.1 視頻幀間補償處理框架
5.2 視頻預處理
5.3 視頻幀運動補償的卷積神經網絡實現
5.3.1 特征提取模塊
5.3.2 視頻幀運動補償
5.3.3 損失函數
5.4 實驗結果與分析
5.4.1 實驗環(huán)境配置
5.4.2 訓練卷積神經網絡模型
5.4.3 實驗結果
5.4.4 結果對比與分析
5.5 本章小結
第6章 結論與展望
參考文獻
致謝
作者簡歷及攻讀學位期間發(fā)表的學術論文與研究成果
本文編號:3148829
【文章來源】:中國科學院大學(中國科學院沈陽計算技術研究所)遼寧省
【文章頁數】:80 頁
【學位級別】:碩士
【文章目錄】:
摘要
abstract
第1章 緒論
1.1 課題研究的背景及意義
1.2 課題在國內外的發(fā)展現狀與趨勢
1.3 論文的研究內容及目標
1.4 論文組織結構
1.5 本章小結
第2章 融合通信系統(tǒng)概述
2.1 融合通信簡介
2.2 融合通信系統(tǒng)概述
2.2.1 系統(tǒng)架構
2.2.2 應用場景
2.2.3 存在的問題
2.3 圖像重建與深度學習結合
2.4 本章小結
第3章 深度學習與圖像識別的研究
3.1 神經網絡
3.1.1 神經元模型
3.1.2 網絡結構
3.1.3 卷積神經網絡
3.1.4 TensorFlow深度學習框架
3.2 圖像識別算法改進
3.2.1 卷積層
3.2.2 激活函數層
3.2.3 池化層
3.2.4 全連接層
3.3 實驗結果與分析
3.3.1 實驗環(huán)境配置
3.3.2 基于MNISTS數據集實驗與分析
3.3.3 基于CIFAR-10數據集實驗與分析
3.4 本章小結
第4章 視頻的編解碼技術研究
4.1 視頻編解碼
4.1.1 視頻編解碼的概述
4.1.2 H.264視頻編解碼的基本原理
4.2 基于深度學習的視頻單幀重建算法
4.2.1 卷積處理視頻幀
4.2.2 視頻幀重建
4.2.3 計算損失
4.3 實驗結果與分析
4.3.1 實驗環(huán)境配置
4.3.2 訓練模型
4.3.3 實驗結果
4.3.4 結果對比與分析
4.5 本章小結
第5章 神經網絡在視頻幀間補償中的應用
5.1 視頻幀間補償處理框架
5.2 視頻預處理
5.3 視頻幀運動補償的卷積神經網絡實現
5.3.1 特征提取模塊
5.3.2 視頻幀運動補償
5.3.3 損失函數
5.4 實驗結果與分析
5.4.1 實驗環(huán)境配置
5.4.2 訓練卷積神經網絡模型
5.4.3 實驗結果
5.4.4 結果對比與分析
5.5 本章小結
第6章 結論與展望
參考文獻
致謝
作者簡歷及攻讀學位期間發(fā)表的學術論文與研究成果
本文編號:3148829
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3148829.html