基于SURF和SVM的無(wú)人機(jī)影像處理算法
發(fā)布時(shí)間:2019-10-13 23:30
【摘要】:無(wú)人機(jī)遙感在勘探救援、災(zāi)情評(píng)估、災(zāi)后重建等領(lǐng)域的重要性日漸凸顯,而無(wú)人機(jī)影像數(shù)據(jù)處理的2大關(guān)鍵技術(shù)即快速拼接和信息提取仍處于研究階段。針對(duì)SURF算法和SVM算法存在的問(wèn)題,首先對(duì)SURF-64與SURF-36進(jìn)行比較,并經(jīng)實(shí)驗(yàn)證明采用64維向量描述特征點(diǎn)更適合于無(wú)人機(jī)影像數(shù)據(jù)處理,可達(dá)到高效、準(zhǔn)確拼接的目的;然后采用2種改進(jìn)SVM算法對(duì)拼接影像進(jìn)行信息提取,并與傳統(tǒng)SVM算法進(jìn)行比較。實(shí)驗(yàn)表明,2種改進(jìn)算法在信息提取精度、算法泛化能力方面均有不同程度的提高和增強(qiáng)。
【圖文】:
1基礎(chǔ)知識(shí)1.1SURF算法原理SURF(speed-uprobustfeatures)稱(chēng)為快速魯棒性尺度不變特征提取,是一種采用積分圖像、Haar小波變換、近似的Hessian矩陣運(yùn)算的局部特征點(diǎn)檢測(cè)算子[8,9]。SURF特征點(diǎn)的描述是指在一個(gè)矩形區(qū)域內(nèi)計(jì)算圖像的Haar小波響應(yīng),描述向量的維數(shù)可采用128維、64維、36維。首先以某一特征點(diǎn)為中心,設(shè)定一個(gè)大小20s×20s的矩形區(qū)域,并把坐標(biāo)軸旋轉(zhuǎn)到確定的主方向上,然后將該矩形區(qū)域劃分成若干子區(qū)域,36維描述子劃分為3×3共9個(gè)子區(qū)域,64維描述子劃分為4×4共16個(gè)子區(qū)域,圖1所示為SURF-64。計(jì)算每個(gè)子區(qū)域內(nèi)每個(gè)像素點(diǎn)的Haar小波分別在x,y方向的響應(yīng),記為dx,dy,求和記為∑dx,∑dy,絕對(duì)值求和記為∑dx,,∑dy。最終每個(gè)子區(qū)域由一個(gè)4維向量V=∑dx,∑dy,∑dx,∑d()y表示,則可形成9個(gè)子區(qū)域的36維描述向量或16個(gè)子區(qū)域的64維描述向量。1.2SVM算法原理SVM(supportvectormachine)算法的原理是依托于結(jié)構(gòu)風(fēng)險(xiǎn)最小和VC維理論的,它能夠在模型的復(fù)雜性和學(xué)習(xí)能力之間,僅通過(guò)有限的樣本信息而搜尋到最佳折衷[10-12]。2類(lèi)判別問(wèn)題是SVM最簡(jiǎn)單的情況,假設(shè)訓(xùn)練集合A=(xi,yi{)1≤i≤N}包含N個(gè)樣本,來(lái)自2類(lèi){ω1,ω2},其中yi∈{+1,-1}表示類(lèi)別。首先由線性分類(lèi)表示一個(gè)超平面,且該超平面可正確分類(lèi)訓(xùn)練集合A中的N個(gè)訓(xùn)練樣本,即g(x)=ωTx+ω0=0,(1)然后根據(jù)置信范圍以及經(jīng)驗(yàn)風(fēng)險(xiǎn)得到?jīng)Q策函數(shù),并使其期望風(fēng)險(xiǎn)上界達(dá)到最校SVM算法的核心是定義合適的核函數(shù),不同的核函數(shù)代表不同的算法[13],最常用的核函數(shù)為基于徑向基函數(shù)RBF核函數(shù)———K(x,xi)=e-
2基于SURF-64特征匹配的無(wú)人機(jī)影像快速拼接為了選擇更適合無(wú)人機(jī)影像的快速拼接算法,針對(duì)SURF算法描述向量維數(shù)的選擇,基于Haar小波響應(yīng)的特征點(diǎn)描述,本文對(duì)匹配效率較高的SURF-64與SURF-36進(jìn)行實(shí)驗(yàn)對(duì)比分析。實(shí)驗(yàn)數(shù)據(jù)選取Sky-01C中型無(wú)人機(jī)遙感系統(tǒng)2009年5月拍攝的我國(guó)西南某鎮(zhèn)的無(wú)人機(jī)影像。該系統(tǒng)配備為Canon5DMarkII,全畫(huà)幅CMOS,約2110萬(wàn)有效像素。圖2為實(shí)驗(yàn)數(shù)據(jù)中2幅待拼接影像,采用SURF-64,SURF-36分別提取數(shù)量相當(dāng)?shù)奶卣鼽c(diǎn),描述后進(jìn)行特征點(diǎn)配對(duì)。圖3、圖4分別為SURF-64,SURF-36算法特征點(diǎn)配對(duì)結(jié)果,圖5和圖6為基于SURF-36特征匹配結(jié)果的3D分析。表1對(duì)2種算法拼接過(guò)程中的提取特征點(diǎn)數(shù)、耗費(fèi)時(shí)間等指標(biāo)進(jìn)行比較。結(jié)果證明:SURF-36算法匹配效率略高于SURF-64;SURF-36算法匹配點(diǎn)對(duì)數(shù)多于SURF-64,但由于較低的維數(shù)降低了描述子向量的獨(dú)特性,3D分析中可看出存在表12種算法特征點(diǎn)匹配數(shù)據(jù)比較Tab.1Comparisonofmatchingdatabyusingtwoalgo-rithms算法特征點(diǎn)數(shù)匹配系數(shù)匹配時(shí)間/msSURF-6413040.87-0.9920216.3SURF-3619140.79-0.8919783.7明顯誤匹配,而SURF-64算法則未出現(xiàn);SURF-64算法匹配系數(shù)在0.87~0.99,高于SURF-36算法。綜合來(lái)看,SURF算法采用64維描述向量更適合無(wú)人機(jī)影像的快速拼接。3基于Improved-SVM算法的無(wú)人機(jī)影像信息提取3.1基于AdaBoost改進(jìn)SVM算法AdaBoost(adaptiveboosting)是一種通過(guò)若干次迭代調(diào)整弱學(xué)習(xí)算法錯(cuò)誤率的特征分類(lèi)算法[14,15]。為了自適應(yīng)地進(jìn)行核參數(shù)調(diào)整,更高效地進(jìn)行信息提取,本文利用AdaBoost算法對(duì)SVM進(jìn)行改進(jìn),得到Improved-SVM1算法。Improved-SVM1算法采用選擇徑向基核函數(shù)的支持向量機(jī)(RBFSVM)作為?
【作者單位】: 河南理工大學(xué)測(cè)繪與國(guó)土信息工程學(xué)院;鄭州信息科技職業(yè)學(xué)院建筑工程學(xué)院;中國(guó)人民解放軍信息工程大學(xué)數(shù)學(xué)工程與先進(jìn)計(jì)算國(guó)家重點(diǎn)實(shí)驗(yàn)室;
【基金】:國(guó)家自然科學(xué)基金資助項(xiàng)目(61602512) 河南省基礎(chǔ)與前沿技術(shù)研究項(xiàng)目(152300410098) 河南省教育廳科學(xué)技術(shù)研究重點(diǎn)項(xiàng)目(16A420006)
【分類(lèi)號(hào)】:TP751
本文編號(hào):2548946
【圖文】:
1基礎(chǔ)知識(shí)1.1SURF算法原理SURF(speed-uprobustfeatures)稱(chēng)為快速魯棒性尺度不變特征提取,是一種采用積分圖像、Haar小波變換、近似的Hessian矩陣運(yùn)算的局部特征點(diǎn)檢測(cè)算子[8,9]。SURF特征點(diǎn)的描述是指在一個(gè)矩形區(qū)域內(nèi)計(jì)算圖像的Haar小波響應(yīng),描述向量的維數(shù)可采用128維、64維、36維。首先以某一特征點(diǎn)為中心,設(shè)定一個(gè)大小20s×20s的矩形區(qū)域,并把坐標(biāo)軸旋轉(zhuǎn)到確定的主方向上,然后將該矩形區(qū)域劃分成若干子區(qū)域,36維描述子劃分為3×3共9個(gè)子區(qū)域,64維描述子劃分為4×4共16個(gè)子區(qū)域,圖1所示為SURF-64。計(jì)算每個(gè)子區(qū)域內(nèi)每個(gè)像素點(diǎn)的Haar小波分別在x,y方向的響應(yīng),記為dx,dy,求和記為∑dx,∑dy,絕對(duì)值求和記為∑dx,,∑dy。最終每個(gè)子區(qū)域由一個(gè)4維向量V=∑dx,∑dy,∑dx,∑d()y表示,則可形成9個(gè)子區(qū)域的36維描述向量或16個(gè)子區(qū)域的64維描述向量。1.2SVM算法原理SVM(supportvectormachine)算法的原理是依托于結(jié)構(gòu)風(fēng)險(xiǎn)最小和VC維理論的,它能夠在模型的復(fù)雜性和學(xué)習(xí)能力之間,僅通過(guò)有限的樣本信息而搜尋到最佳折衷[10-12]。2類(lèi)判別問(wèn)題是SVM最簡(jiǎn)單的情況,假設(shè)訓(xùn)練集合A=(xi,yi{)1≤i≤N}包含N個(gè)樣本,來(lái)自2類(lèi){ω1,ω2},其中yi∈{+1,-1}表示類(lèi)別。首先由線性分類(lèi)表示一個(gè)超平面,且該超平面可正確分類(lèi)訓(xùn)練集合A中的N個(gè)訓(xùn)練樣本,即g(x)=ωTx+ω0=0,(1)然后根據(jù)置信范圍以及經(jīng)驗(yàn)風(fēng)險(xiǎn)得到?jīng)Q策函數(shù),并使其期望風(fēng)險(xiǎn)上界達(dá)到最校SVM算法的核心是定義合適的核函數(shù),不同的核函數(shù)代表不同的算法[13],最常用的核函數(shù)為基于徑向基函數(shù)RBF核函數(shù)———K(x,xi)=e-
2基于SURF-64特征匹配的無(wú)人機(jī)影像快速拼接為了選擇更適合無(wú)人機(jī)影像的快速拼接算法,針對(duì)SURF算法描述向量維數(shù)的選擇,基于Haar小波響應(yīng)的特征點(diǎn)描述,本文對(duì)匹配效率較高的SURF-64與SURF-36進(jìn)行實(shí)驗(yàn)對(duì)比分析。實(shí)驗(yàn)數(shù)據(jù)選取Sky-01C中型無(wú)人機(jī)遙感系統(tǒng)2009年5月拍攝的我國(guó)西南某鎮(zhèn)的無(wú)人機(jī)影像。該系統(tǒng)配備為Canon5DMarkII,全畫(huà)幅CMOS,約2110萬(wàn)有效像素。圖2為實(shí)驗(yàn)數(shù)據(jù)中2幅待拼接影像,采用SURF-64,SURF-36分別提取數(shù)量相當(dāng)?shù)奶卣鼽c(diǎn),描述后進(jìn)行特征點(diǎn)配對(duì)。圖3、圖4分別為SURF-64,SURF-36算法特征點(diǎn)配對(duì)結(jié)果,圖5和圖6為基于SURF-36特征匹配結(jié)果的3D分析。表1對(duì)2種算法拼接過(guò)程中的提取特征點(diǎn)數(shù)、耗費(fèi)時(shí)間等指標(biāo)進(jìn)行比較。結(jié)果證明:SURF-36算法匹配效率略高于SURF-64;SURF-36算法匹配點(diǎn)對(duì)數(shù)多于SURF-64,但由于較低的維數(shù)降低了描述子向量的獨(dú)特性,3D分析中可看出存在表12種算法特征點(diǎn)匹配數(shù)據(jù)比較Tab.1Comparisonofmatchingdatabyusingtwoalgo-rithms算法特征點(diǎn)數(shù)匹配系數(shù)匹配時(shí)間/msSURF-6413040.87-0.9920216.3SURF-3619140.79-0.8919783.7明顯誤匹配,而SURF-64算法則未出現(xiàn);SURF-64算法匹配系數(shù)在0.87~0.99,高于SURF-36算法。綜合來(lái)看,SURF算法采用64維描述向量更適合無(wú)人機(jī)影像的快速拼接。3基于Improved-SVM算法的無(wú)人機(jī)影像信息提取3.1基于AdaBoost改進(jìn)SVM算法AdaBoost(adaptiveboosting)是一種通過(guò)若干次迭代調(diào)整弱學(xué)習(xí)算法錯(cuò)誤率的特征分類(lèi)算法[14,15]。為了自適應(yīng)地進(jìn)行核參數(shù)調(diào)整,更高效地進(jìn)行信息提取,本文利用AdaBoost算法對(duì)SVM進(jìn)行改進(jìn),得到Improved-SVM1算法。Improved-SVM1算法采用選擇徑向基核函數(shù)的支持向量機(jī)(RBFSVM)作為?
【作者單位】: 河南理工大學(xué)測(cè)繪與國(guó)土信息工程學(xué)院;鄭州信息科技職業(yè)學(xué)院建筑工程學(xué)院;中國(guó)人民解放軍信息工程大學(xué)數(shù)學(xué)工程與先進(jìn)計(jì)算國(guó)家重點(diǎn)實(shí)驗(yàn)室;
【基金】:國(guó)家自然科學(xué)基金資助項(xiàng)目(61602512) 河南省基礎(chǔ)與前沿技術(shù)研究項(xiàng)目(152300410098) 河南省教育廳科學(xué)技術(shù)研究重點(diǎn)項(xiàng)目(16A420006)
【分類(lèi)號(hào)】:TP751
【相似文獻(xiàn)】
相關(guān)碩士學(xué)位論文 前1條
1 陳晨;基于ELM和SVM的衛(wèi)星云圖分類(lèi)研究[D];南昌航空大學(xué);2014年
本文編號(hào):2548946
本文鏈接:http://www.sikaile.net/guanlilunwen/gongchengguanli/2548946.html
最近更新
教材專(zhuān)著