天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

基于標簽對的深度哈希學習

發(fā)布時間:2018-03-19 19:04

  本文選題:哈希學習 切入點:深度學習 出處:《南京大學》2017年碩士論文 論文類型:學位論文


【摘要】:在圖像檢索等真實應用場景中,隨著數(shù)據(jù)爆發(fā)式增長,近似最近鄰搜索(approximate nearest neighbor search,ANNS)最近幾年已經(jīng)變成了一個熱門研究課題,F(xiàn)有的近似最近鄰搜索技術(shù)中,哈希學習憑借著檢索速度快和存儲成本低的優(yōu)點,已經(jīng)成為圖像檢索領域最受歡迎和有效的技術(shù)之一。但是現(xiàn)有的大部分哈希學習方法都是基于手工提取特征,手工提取特征不一定適用于哈希編碼學習。最近一些深度哈希學習被提出,可以同時進行特征學習和哈希編碼學習。然而這些深度哈希學習方法大部分都是基于三元組標簽的。基于標簽對的圖像檢索是哈希學習另一個常見應用場景,在這個場景下目前還沒有深度哈希學習方法能夠同時進行特征學習和哈希編碼學習。在本文中,我們提出一種新穎的深度哈希學習方法,叫做基于標簽對的深度哈希學習方法(deep pairwise-supervised hashing,DPSH),可以在一個完整框架中同時進行特征學習和哈希編碼學習。在真實數(shù)據(jù)集上的實驗表明,我們提出的DPSH方法在圖像檢索任務上可以取得比其他經(jīng)典哈希學習方法更好的檢索準確率。盡管我們提出的DPSH方法已經(jīng)在圖像檢索任務上取得了令人滿意的結(jié)果,但是對于大規(guī)模數(shù)據(jù)集而言,基于單個GPU的實現(xiàn)比較費時。所以我們提出了一種多GPU并行DPSH方法,在不影響檢索準確率的前提下明顯降低了訓練時間。
[Abstract]:In real-world applications such as image retrieval, as data explodes, approximate nearest neighbor search has become a hot research topic in recent years. Hash learning has become one of the most popular and effective techniques in image retrieval due to its advantages of fast retrieval speed and low storage cost. However, most of the existing hash learning methods are based on manual feature extraction. Manual feature extraction is not necessarily applicable to hashing coding learning. Recently, some deep hashing learning has been proposed. Both feature learning and hashing coding can be performed simultaneously. However, most of these deep hash learning methods are based on triple tags. Image retrieval based on tag pairs is another common application scenario for hashing learning. In this scenario, there is no deep hash learning method that can perform both feature learning and hash coding learning. In this paper, we propose a novel depth hash learning method. The deep hashing learning method called tag pair based deep pairwise-supervised hashingDPS HHN can be used in both feature learning and hashing coding learning in a complete framework. Experiments on real data sets show that, Our proposed DPSH method can achieve better retrieval accuracy than other classical hash learning methods in image retrieval tasks, although our proposed DPSH method has achieved satisfactory results in image retrieval tasks. However, for large scale data sets, the implementation based on a single GPU is time-consuming, so we propose a multi-#en1# parallel DPSH method, which can significantly reduce the training time without affecting the retrieval accuracy.
【學位授予單位】:南京大學
【學位級別】:碩士
【學位授予年份】:2017
【分類號】:TP391.41

【相似文獻】

相關(guān)期刊論文 前10條

1 張勇,雷振明;基于流應用中的哈希查表性能研究[J];計算機工程與應用;2003年25期

2 馬如林;蔣華;張慶霞;;一種哈希表快速查找的改進方法[J];計算機工程與科學;2008年09期

3 蔣大宏;動態(tài)哈希方法[J];計算機工程;1993年01期

4 蔣大宏;實現(xiàn)檢索代價最優(yōu)的動態(tài)哈希法[J];計算機工程與應用;1994年Z2期

5 劉冠福;;動態(tài)哈希表的設計及應用[J];計算機時代;1996年02期

6 朱芳芳;李訓根;;改進的哈希表查找算法[J];杭州電子科技大學學報;2013年05期

7 趙宇;;基于哈希表查找方法的優(yōu)勢及其算法的改進[J];中小企業(yè)管理與科技(下旬刊);2012年03期

8 高文利;朱麗;;哈希表在計算語言學中的運用[J];現(xiàn)代語文(語言研究版);2009年06期

9 賀元香;史寶明;;除留余數(shù)法建立哈希表的方法改進[J];甘肅科技;2008年07期

10 劉艙強;鄧昌勝;余諒;;基于哈希表的最長前綴匹配算法改進[J];微計算機信息;2009年30期

相關(guān)會議論文 前2條

1 朱芳芳;李訓根;;改進的哈希表查找算法[A];浙江省電子學會2013學術(shù)年會論文集[C];2013年

2 趙競;余宏亮;張X;鄭緯民;;廣域網(wǎng)分布式哈希表存儲副本可靠性的維護[A];全國網(wǎng)絡與信息安全技術(shù)研討會論文集(下冊)[C];2007年

相關(guān)博士學位論文 前4條

1 黃慧群;內(nèi)容中心網(wǎng)絡的查表技術(shù)研究[D];解放軍信息工程大學;2014年

2 季劍秋;面向大規(guī)模數(shù)據(jù)相似計算和搜索的哈希方法研究[D];清華大學;2015年

3 彭建章;非阻塞算法與多進程網(wǎng)絡程序優(yōu)化研究[D];中國科學技術(shù)大學;2013年

4 付海燕;基于圖像哈希的大規(guī)模圖像檢索方法研究[D];大連理工大學;2014年

相關(guān)碩士學位論文 前10條

1 郝廣洋;語音感知哈希及其在密文語音檢索中的應用研究[D];西南交通大學;2015年

2 黃志騫;基于迭代量化的用于近似最近鄰檢索的哈希方法[D];華南理工大學;2015年

3 王聰;基于局部敏感哈希的聲源定位方法[D];大連理工大學;2015年

4 鄧慧茹;面向大規(guī)模視覺檢索的哈希學習[D];西安電子科技大學;2014年

5 張梁;基于局部敏感哈希的近似近鄰查詢算法研究[D];南京郵電大學;2015年

6 任劉姣;感知哈希及其在語音檢索與認證中的應用[D];西南交通大學;2016年

7 王戊林;面向視頻檢索的高效哈希技術(shù)研究[D];山東大學;2016年

8 黃賽金;基于譜哈希的分布式近鄰存儲方法的設計與實現(xiàn)[D];南京郵電大學;2016年

9 孫永;基于哈希的快速多標記學習算法研究[D];南京郵電大學;2016年

10 李蕾;基于哈希的圖像檢索研究[D];北京交通大學;2017年

,

本文編號:1635593

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/shoufeilunwen/xixikjs/1635593.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶cb9c5***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com