天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

基于圖像域統(tǒng)計迭代CT重建算法的研究

發(fā)布時間:2017-06-29 11:06

  本文關鍵詞:基于圖像域統(tǒng)計迭代CT重建算法的研究,由筆耕文化傳播整理發(fā)布。


【摘要】:隨著計算機斷層掃描(CT)技術在醫(yī)學診斷以及治療中的廣泛應用,人們越來越關注射線輻射劑量對人體的影響。高輻射劑量會對人體的健康帶來一定的傷害,因此低劑量CT近年來備受關注。低劑量數(shù)據(jù)可以通過降低射線的管電壓或管電流得到,此種方法常常會導致所采集的投影數(shù)據(jù)噪聲偏高,使得密度分辨率被量子噪聲污染,從而重建出來的圖像發(fā)生嚴重退化,影響醫(yī)學的診斷和治療,因此,在降低輻射劑量的同時重建出高信噪比和高質量圖像的研究越來越受到關注。許多有關低劑量CT的重建方法相繼被提出,主要方法可分為以下三種,其一為圖像的后處理,其二為對投影數(shù)據(jù)進行降噪,由于FBP算法簡單且易于實現(xiàn),對投影域降噪后一般使用FBP進行反投影重建,另一種方法為對重建后的圖像在圖像域直接進行降噪處理。在投影域降噪后,即使遺留下很小的點噪聲,映射到圖像域也會形成條形偽影,因此本文選擇在圖像域直接進行降噪。接下來將本文的主要工作介紹如下:1.闡述了CT成像物理和數(shù)學原理,介紹了三種經(jīng)典圖像重建算法,最后展現(xiàn)了本文所用的噪聲模型。2.針對低劑量CT重建的圖像產生嚴重退化的問題,在基于各向異性擴散去噪方法的基礎上進行兩種改進:由于片相似性在降噪的同時能較好地保持圖像的邊緣和細節(jié)信息,算法1運用此特點對擴散函數(shù)進行改進;算法2考慮了傳統(tǒng)各向異性擴散中降噪不充分的缺點,把可以有效的折中熱傳導和PM模型的變指數(shù),以及代替梯度檢測邊緣和細節(jié)的相似度函數(shù)運用到傳統(tǒng)各向異性擴散中修改擴散函數(shù),從而提高圖像質量。3.提出了一種基于小波和四階各向異性擴散的低劑量CT重建算法。由于小波變換具有良好的時頻局部特性,四階偏微分對噪聲的敏感性高,噪聲越少,降噪效果越好,可避免二階PDE降噪出現(xiàn)的“階梯”效應,本文結合了小波收縮和各向異性擴散的優(yōu)點,在每次迭代中,對MLEM重建算法處理后的圖像進行離散平穩(wěn)小波分解,對小波域的高頻部分進行小波收縮,低頻部分使用降噪效果優(yōu)質的四階各向異性擴散進行消噪,從而得到可觀的圖像。4.針對最大后驗法只能提供有限的局部先驗信息從而使重建圖像出現(xiàn)階梯狀邊緣偽影以及過度平滑等問題,提出本文的基于小波和非局部全變差中值先驗的重建算法。即先在中值先驗MP算法的基礎上,引入降噪性能優(yōu)異的TV方法,對目標函數(shù)進行修訂,形成基于TV的MP重建算法;接著考慮到小波收縮和非局部的優(yōu)勢,提出了本文的算法,即在基于TV的MP重建算法的每次迭代中,在小波變換后的小波域再進行小波收縮和非局部降噪,提高了圖像質量。
【關鍵詞】:低劑量CT 圖像降噪 統(tǒng)計迭代重建 各向異性擴散 片相似性
【學位授予單位】:中北大學
【學位級別】:碩士
【學位授予年份】:2016
【分類號】:TP391.41
【目錄】:
  • 摘要4-6
  • abstract6-10
  • 1.緒論10-14
  • 1.1 研究課題的背景和意義10-11
  • 1.2 低劑量CT重建的國內外研究現(xiàn)狀11-12
  • 1.3 論文主要內容12-14
  • 2.CT成像原理、噪聲模型及經(jīng)典圖像重建算法14-22
  • 2.1 CT重建的物理原理14-15
  • 2.2 CT重建的數(shù)學原理15-17
  • 2.2.1 投影定理15-16
  • 2.2.2 中心切片定理16-17
  • 2.3 CT重建經(jīng)典算法17-21
  • 2.3.1 濾波反投影重建算法FBP17-19
  • 2.3.2 代數(shù)重建算法19-21
  • 2.3.3 統(tǒng)計迭代重建算法21
  • 2.4 低劑量CT噪聲模型21-22
  • 3.基于改進各向異性擴散的MLEM低劑量CT重建算法22-39
  • 3.1 MLEM重建方法23
  • 3.2 各向異性基本算法23-25
  • 3.3 基于片相似性和MLEM的低劑量CT重建算法25-27
  • 3.3.1 基于片相似性的圖像降噪算法25-26
  • 3.3.2 中值濾波26
  • 3.3.3 基于片相似性和MLEM的低劑量CT重建算法26-27
  • 3.4 基于變指數(shù)各向異性擴散和非局部的MLEM低劑量CT重建算法27-29
  • 3.4.1 基于變指數(shù)的自適應P-M算法27
  • 3.4.2 參數(shù)h進行自適應處理27-28
  • 3.4.3 非局部思想的引入28-29
  • 3.4.4 本節(jié)改進各向異性擴散重建方法29
  • 3.5 改進算法實驗結果與分析29-38
  • 3.5.1 重建圖像比較29-35
  • 3.5.2 重建精度比較35-38
  • 3.6 本章小結38-39
  • 4.基于小波和四階各向異性擴散的MLEM低劑量CT重建算法39-51
  • 4.1 重建過程中的降噪方法39-41
  • 4.1.1 四階偏微分方程去噪算法39-40
  • 4.1.2 小波變換40-41
  • 4.2 本章提出的重建算法41-42
  • 4.3 實驗結果與分析42-50
  • 4.3.1 重建圖像比較42-47
  • 4.3.2 重建精度分析47-50
  • 4.4 本章小結50-51
  • 5.基于小波和非局部的全變差中值先驗重建算法51-64
  • 5.1 中值先驗重建算法52
  • 5.2 基于小波收縮和非局部的TV中值先驗重建算法52-55
  • 5.2.1 基于TV的MP重建算法52-53
  • 5.2.2 基于小波收縮和非局部的TV中值先驗重建算法53-55
  • 5.3 實驗結果與分析55-63
  • 5.3.1 重建圖像比較55-60
  • 5.3.2 重建精度分析60-63
  • 5.4 本章小結63-64
  • 6.總結與展望64-67
  • 6.1 工作總結64-65
  • 6.2 工作展望65-67
  • 參考文獻67-74
  • 攻讀碩士學位期間發(fā)表的論文及所取得的研究成果74-75
  • 致謝75-76

【參考文獻】

中國期刊全文數(shù)據(jù)庫 前10條

1 張芳;桂志國;張權;董嬋嬋;;基于小波和四階各向異性擴散的MLEM低劑量CT重建算法[J];計算機應用與軟件;2016年03期

2 張芳;張權;崔學英;董嬋嬋;劉yN;孫未雅;白云蛟;桂志國;;基于小波和非局部的全變差中值先驗重建算法[J];計算機工程與設計;2015年08期

3 張芳;李夢瑤;崔學英;孫未雅;桂志國;;基于小波收縮及變指數(shù)和片相似的最小二乘重建算法[J];中北大學學報(自然科學版);2015年04期

4 董嬋嬋;張權;郝慧艷;劉yN;;基于改進各項異性擴散和小波變換的MLEM低劑量CT重建算法[J];中北大學學報(自然科學版);2015年04期

5 張芳;崔學英;張權;董嬋嬋;劉yN;孫未雅;白云蛟;桂志國;;基于變指數(shù)各向異性擴散和非局部的最大似然期望最大低劑量CT重建算法[J];計算機應用;2014年12期

6 張芳;張權;崔學英;董嬋嬋;劉yN;劉俞辰;孫未雅;桂志國;;基于片相似性和最大似然期望最大化的低劑量CT重建算法[J];計算機應用;2014年09期

7 郭甜莉;劉且根;駱建華;;Filter Bank Based Nonlocal Means for Denoising Magnetic Resonance Images[J];Journal of Shanghai Jiaotong University(Science);2014年01期

8 鐘瑩;楊學志;唐益明;劉燦俊;岳峰;;采用結構自適應塊匹配的非局部均值去噪算法[J];電子與信息學報;2013年12期

9 王麗艷;韋志輝;;低劑量CT的線性Bregman迭代重建算法[J];電子與信息學報;2013年10期

10 郝紅俠;劉芳;焦李成;武杰;;采用結構自適應窗的非局部均值圖像去噪算法[J];西安交通大學學報;2013年12期

中國碩士學位論文全文數(shù)據(jù)庫 前2條

1 郭曉杰;基于統(tǒng)計迭代的低劑量CT重建算法研究[D];中北大學;2015年

2 何佳偉;正電子發(fā)射斷層成像的統(tǒng)計迭代方法及加速方法研究[D];中北大學;2011年


  本文關鍵詞:基于圖像域統(tǒng)計迭代CT重建算法的研究,由筆耕文化傳播整理發(fā)布。

,

本文編號:497619

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/497619.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權申明:資料由用戶68e76***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com