基于深度哈希學(xué)習(xí)算法的移動(dòng)視覺檢索系統(tǒng)設(shè)計(jì)與實(shí)現(xiàn)
發(fā)布時(shí)間:2021-03-10 22:04
移動(dòng)設(shè)備的激增產(chǎn)生了新的移動(dòng)視覺搜索應(yīng)用,使用戶能夠使用智能手機(jī)感知周圍的環(huán)境。由于移動(dòng)視覺搜索的特殊挑戰(zhàn),實(shí)現(xiàn)高比特率成為現(xiàn)有相關(guān)工作的一貫?zāi)繕?biāo),而在移動(dòng)視覺檢索領(lǐng)域,檢索的速度以及對(duì)移動(dòng)端設(shè)備的性能要求也是至關(guān)重要的。在這樣的背景下,本文設(shè)計(jì)并實(shí)現(xiàn)了基于深度哈希學(xué)習(xí)算法的移動(dòng)視覺檢索系統(tǒng)。在本文中,探索整體利用深度學(xué)習(xí)為基礎(chǔ)的哈希方法來構(gòu)建更強(qiáng)大和即時(shí)的移動(dòng)視覺搜索,提出了輕量級(jí),低延遲和高精度的基于深度哈希方法構(gòu)建移動(dòng)視覺搜索系統(tǒng)。首先,利用MobileNet模型的體系結(jié)構(gòu),通過在保持精確性的同時(shí)減少模型參數(shù)的數(shù)量來顯著減少深度特征提取的延遲,此模型尺寸遠(yuǎn)遠(yuǎn)小于之前的模型,并能保持相對(duì)高的檢索準(zhǔn)確率,有利于將模型部署在移動(dòng)端直接提取特征。接著,在MobileNet網(wǎng)絡(luò)模型中添加一個(gè)類似哈希的網(wǎng)絡(luò)層,使用移動(dòng)視覺數(shù)據(jù)來有監(jiān)督的訓(xùn)練模型,使用哈希層可以將圖片對(duì)應(yīng)的特征向量量化為二元哈希碼,使用向量間的海明距離來檢索最相似的圖片,這會(huì)大大提高檢索的速度并在檢索精度上也有一定提高。最后,評(píng)估結(jié)果表明,所提出的系統(tǒng)在檢索精度方面(MAP)可以超過目前為止最先進(jìn)算法的性能。更重要的是,內(nèi)存消...
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1?LeNet[4]網(wǎng)絡(luò)架構(gòu)??如圖2-1所示,LeNet-5共有7層,不包含輸入,每層都包含可訓(xùn)練參數(shù),??
3??圖2-2?AlexNet[13】網(wǎng)絡(luò)架構(gòu)??如圖2-2所示,上圖采用是兩臺(tái)GPU服務(wù)器,所有會(huì)看到兩個(gè)流程圖,我??們這里以一臺(tái)CPU服務(wù)器為例做描述。該模型一共分為8層,5個(gè)卷積層,,以??及3個(gè)全連接層,在每一個(gè)卷積層中包含了激勵(lì)函數(shù)ReLU以及局部響應(yīng)歸一化??LRN處理,然后在經(jīng)過降采樣(pooling處理)。通過眾多的技巧(dropout、RELU、??Data?Augmentation)解決深層神經(jīng)網(wǎng)絡(luò)的過擬合問題,使得該網(wǎng)絡(luò)在60?million??參數(shù)的情況下依舊能很好收斂。這些方法現(xiàn)在已經(jīng)成為了?CNN不可或缺的一部??分。該網(wǎng)絡(luò)共包含8?jìng)(gè)權(quán)重層,其中5個(gè)卷積層,3個(gè)全連接層。1,2卷積層后??連有LRN層,不過此后的網(wǎng)絡(luò)也證明LRN并非CNN中必須包含的層,甚至有??些網(wǎng)絡(luò)加入LRN后效果反而降低。每個(gè)LRN及最后層卷積層后跟有最大池化??層,并且各個(gè)權(quán)重層均連有ReLU激活函數(shù)。全連接層后使用了?Dropout這一方??法以解決過擬合。圖2-2的特征圖需要綜合上下兩個(gè)GPU的結(jié)果
p-5錯(cuò)誤率6.67%,只有AlexNet的一半不到。??onVl有22層深,比AlexNet的8層或者VGGNet的19層還要只有15億次浮點(diǎn)運(yùn)算,同時(shí)只有500萬的參數(shù)量,僅為AlexN萬)的1/12,卻可以達(dá)到遠(yuǎn)勝于AlexNet的準(zhǔn)確率,可以說是實(shí)用的模型。InceptionVl降低參數(shù)量的目的有兩點(diǎn):第一,參,需要供模型學(xué)習(xí)的數(shù)據(jù)量就越大,而目前高質(zhì)量的數(shù)據(jù)非常越多,耗費(fèi)的計(jì)算資源也會(huì)更大。??onVl參數(shù)少但效果好的原因除了模型層數(shù)更深、表達(dá)能力更強(qiáng)是去除了最后的全連接層,用全局平均池化層(即將圖片尺寸變?yōu)槿B接層幾乎占據(jù)了?AlexNet或VGGNet中90%的參數(shù)量,而去除全連接層后模型訓(xùn)練更快并且減輕了過擬合。??onVl中精心設(shè)計(jì)的Inception?Module提高了參數(shù)的利用效率,示。這一部分也借鑒了?NetworklnNetwork的思想,形象的解odule本身如同大網(wǎng)絡(luò)中的一個(gè)小網(wǎng)絡(luò),其結(jié)構(gòu)可以反復(fù)堆疊。??
本文編號(hào):3075354
【文章來源】:北京郵電大學(xué)北京市 211工程院校 教育部直屬院校
【文章頁數(shù)】:61 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1?LeNet[4]網(wǎng)絡(luò)架構(gòu)??如圖2-1所示,LeNet-5共有7層,不包含輸入,每層都包含可訓(xùn)練參數(shù),??
3??圖2-2?AlexNet[13】網(wǎng)絡(luò)架構(gòu)??如圖2-2所示,上圖采用是兩臺(tái)GPU服務(wù)器,所有會(huì)看到兩個(gè)流程圖,我??們這里以一臺(tái)CPU服務(wù)器為例做描述。該模型一共分為8層,5個(gè)卷積層,,以??及3個(gè)全連接層,在每一個(gè)卷積層中包含了激勵(lì)函數(shù)ReLU以及局部響應(yīng)歸一化??LRN處理,然后在經(jīng)過降采樣(pooling處理)。通過眾多的技巧(dropout、RELU、??Data?Augmentation)解決深層神經(jīng)網(wǎng)絡(luò)的過擬合問題,使得該網(wǎng)絡(luò)在60?million??參數(shù)的情況下依舊能很好收斂。這些方法現(xiàn)在已經(jīng)成為了?CNN不可或缺的一部??分。該網(wǎng)絡(luò)共包含8?jìng)(gè)權(quán)重層,其中5個(gè)卷積層,3個(gè)全連接層。1,2卷積層后??連有LRN層,不過此后的網(wǎng)絡(luò)也證明LRN并非CNN中必須包含的層,甚至有??些網(wǎng)絡(luò)加入LRN后效果反而降低。每個(gè)LRN及最后層卷積層后跟有最大池化??層,并且各個(gè)權(quán)重層均連有ReLU激活函數(shù)。全連接層后使用了?Dropout這一方??法以解決過擬合。圖2-2的特征圖需要綜合上下兩個(gè)GPU的結(jié)果
p-5錯(cuò)誤率6.67%,只有AlexNet的一半不到。??onVl有22層深,比AlexNet的8層或者VGGNet的19層還要只有15億次浮點(diǎn)運(yùn)算,同時(shí)只有500萬的參數(shù)量,僅為AlexN萬)的1/12,卻可以達(dá)到遠(yuǎn)勝于AlexNet的準(zhǔn)確率,可以說是實(shí)用的模型。InceptionVl降低參數(shù)量的目的有兩點(diǎn):第一,參,需要供模型學(xué)習(xí)的數(shù)據(jù)量就越大,而目前高質(zhì)量的數(shù)據(jù)非常越多,耗費(fèi)的計(jì)算資源也會(huì)更大。??onVl參數(shù)少但效果好的原因除了模型層數(shù)更深、表達(dá)能力更強(qiáng)是去除了最后的全連接層,用全局平均池化層(即將圖片尺寸變?yōu)槿B接層幾乎占據(jù)了?AlexNet或VGGNet中90%的參數(shù)量,而去除全連接層后模型訓(xùn)練更快并且減輕了過擬合。??onVl中精心設(shè)計(jì)的Inception?Module提高了參數(shù)的利用效率,示。這一部分也借鑒了?NetworklnNetwork的思想,形象的解odule本身如同大網(wǎng)絡(luò)中的一個(gè)小網(wǎng)絡(luò),其結(jié)構(gòu)可以反復(fù)堆疊。??
本文編號(hào):3075354
本文鏈接:http://www.sikaile.net/kejilunwen/sousuoyinqinglunwen/3075354.html
最近更新
教材專著