天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當前位置:主頁 > 科技論文 > 軟件論文 >

基于尺度不變特征的圖像檢索技術(shù)研究

發(fā)布時間:2018-04-18 12:08

  本文選題:圖像檢索 + 尺度不變特征 ; 參考:《西安科技大學》2017年碩士論文


【摘要】:隨著數(shù)碼科技以及互聯(lián)網(wǎng)通信的迅速發(fā)展,數(shù)字圖像已經(jīng)滲透到人們的日常生活中,如交通監(jiān)控、醫(yī)療衛(wèi)生以及新聞媒體等。而大多數(shù)數(shù)字圖像都以無序的狀態(tài)存在,圖像中的一些重要信息得不到利用,尋找一種高效的檢索算法讓用戶可以準確、快速地獲取所需目標圖像,已成為一項急需解決的問題。針對上述需求,本文首先對目前所使用的檢索算法進行闡述,分析傳統(tǒng)的圖像檢索方式并著重對基于內(nèi)容的圖像檢索技術(shù)進行研究。傳統(tǒng)的圖像底層特征在光照、尺度、旋轉(zhuǎn)等情況中,無法保障檢索結(jié)果的穩(wěn)定性,因此本文選用經(jīng)典的局部尺度不變SIFT算法作為圖像檢索的算法。研究發(fā)現(xiàn),上述算法存在誤匹配點較多、無法在實際中應(yīng)用等缺點。因此本文對此算法進行改進,一是為圖像SIFT特征描述符構(gòu)建KD-tree數(shù)據(jù)索引,并使用最優(yōu)節(jié)點優(yōu)先搜索BBF算法提高圖像特征點對的配準速率;二是結(jié)合改進的最近鄰匹配算法與隨機抽樣一致算法進一步去除錯誤匹配點對。最后,在多種實驗環(huán)境中驗證改進的SIFT算法,結(jié)果表明改進的SIFT算法在保留原始算法優(yōu)點的同時,可以有效的降低誤匹配率,能在基于內(nèi)容的檢索系統(tǒng)中得到更好的應(yīng)用;诟倪M的SIFT算法,本文又設(shè)計并實現(xiàn)了一個簡易基于內(nèi)容的圖像檢索系統(tǒng),該系統(tǒng)主要由數(shù)據(jù)庫建立和數(shù)據(jù)庫查詢兩部分構(gòu)成。通過對比分析表明,改進的SIFT算法應(yīng)用在實際檢索系統(tǒng)中不僅能有效減少配準時間,也可以提高圖像的配準率。
[Abstract]:With the rapid development of digital technology and Internet communication, digital images have penetrated into people's daily life, such as traffic monitoring, health care and news media.However, most digital images exist in a disordered state, and some important information in the image is not utilized, so a high efficient retrieval algorithm is found to enable users to obtain the desired target image accurately and quickly.It has become an urgent problem.In order to meet the above requirements, this paper first describes the retrieval algorithms used at present, analyzes the traditional image retrieval methods and focuses on the research of content-based image retrieval technology.The traditional image bottom features can not guarantee the stability of retrieval results in illumination scale rotation and so on. Therefore the classical local scale invariant SIFT algorithm is chosen as the image retrieval algorithm in this paper.It is found that the algorithm has many mismatch points and cannot be applied in practice.Therefore, this algorithm is improved in this paper. One is to build the KD-tree data index for the image SIFT feature descriptor, and to use the optimal node-first search BBF algorithm to improve the registration rate of the image feature points.Secondly, the improved nearest neighbor matching algorithm and the random sampling matching algorithm are combined to remove the error matching points.Finally, the improved SIFT algorithm is verified in a variety of experimental environments. The results show that the improved SIFT algorithm can effectively reduce the mismatch rate while preserving the advantages of the original algorithm, and can be better applied in content-based retrieval system.Based on the improved SIFT algorithm, a simple content-based image retrieval system is designed and implemented in this paper. The system consists of two parts: database establishment and database query.The comparison and analysis show that the improved SIFT algorithm can not only reduce the registration time but also improve the image registration rate in the actual retrieval system.
【學位授予單位】:西安科技大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41

【參考文獻】

相關(guān)期刊論文 前4條

1 李彤斐;楊馬英;;足球機器人視覺目標識別的PCA-SIFT算法[J];江南大學學報(自然科學版);2013年05期

2 李紅;彭方;;窮舉式搜索算法及其應(yīng)用[J];福建電腦;2007年05期

3 孫劍,徐宗本;計算機視覺中的尺度空間方法[J];工程數(shù)學學報;2005年06期

4 趙德斌,陳耀強,高文;基于塊方向預(yù)測和Context的圖象無失真編碼方法[J];軟件學報;1998年10期

相關(guān)碩士學位論文 前10條

1 顧文嬌;基于內(nèi)容語義的圖像檢索技術(shù)研究[D];山東師范大學;2015年

2 朱玉濱;基于SIFT的圖像檢索技術(shù)研究[D];吉林大學;2014年

3 維妮拉·艾爾肯;基于SIFT算法的人臉識別研究[D];華北電力大學;2014年

4 于艷紅;基于顏色和紋理特征的圖像檢索與應(yīng)用[D];大連理工大學;2013年

5 孔珊珊;基于形狀特征的圖像檢索研究[D];太原理工大學;2013年

6 喻睿;基于SIFT算法的快速穩(wěn)健圖像拼接的實現(xiàn)[D];西安電子科技大學;2013年

7 張樹臣;融合顏色和形狀特征的圖像檢索技術(shù)[D];吉林大學;2012年

8 廖婷婷;基于特征匹配的圖像檢索算法研究[D];華南理工大學;2012年

9 張華貴;基于局部關(guān)鍵點特征的視頻近重復(fù)檢測算法研究[D];復(fù)旦大學;2012年

10 王杰;基于顏色和紋理特征的圖像檢索[D];重慶大學;2012年



本文編號:1768312

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/1768312.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶56c7b***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com