基于三維卷積神經(jīng)網(wǎng)絡的點云圖像船舶分類方法
發(fā)布時間:2021-02-10 00:13
為了進一步提高點云圖像船舶分類方法的分類準確率,提出了一種基于三維卷積神經(jīng)網(wǎng)絡(3DCNN)的點云圖像船舶分類方法。首先采用密度網(wǎng)格方法將點云圖像轉(zhuǎn)為體素網(wǎng)格圖像,將體素網(wǎng)格圖像作為3DCNN的輸入對象;接著通過設計的6層3D CNN提取體素網(wǎng)格圖像的高水平特征,捕捉結(jié)構(gòu)信息;最后在輸出層利用Softmax函數(shù)進行分類,得到最終的分類結(jié)果。實驗結(jié)果表明,在自建的點云圖像船舶數(shù)據(jù)集上,所提方法的分類準確率達到了96.14%,比3DShapeNets方法和VoxNet方法分別提高了5.97%和2.46%。在悉尼城市目標數(shù)據(jù)集上,與現(xiàn)有一些方法相比,所提方法的分類準確率較高。這些結(jié)果均證明所提方法具有良好的分類性能。
【文章來源】:激光與光電子學進展. 2020,57(16)北大核心
【文章頁數(shù)】:9 頁
【部分圖文】:
所提的船舶分類模型流程圖
CNN是由輸入層、卷積層、池化層、全連接層和輸出層組成的多層學習網(wǎng)絡,其基本結(jié)構(gòu)如圖2所示。卷積層有不同的卷積核,利用每個卷積核對輸入圖像進行卷積,并產(chǎn)生輸出特征映射。通常還要通過激活函數(shù)對卷積結(jié)果進行非線性計算操作之后才進行下一層的池化操作,常用的激活函數(shù)有Sigmoid、tanh、ReLU(Rectified Linear Unit)和PReLU(Parametric Rectified Linear Unit)等。池化層(下采樣層)對上層的卷積結(jié)果進行降維,以減少計算量,關(guān)注的是特征本身,而不是特征的具體位置。本文使用最大池化方法,使網(wǎng)絡可以抽取更大范圍的特征。全連接層一般位于CNN的最后幾層,全連接層的每個神經(jīng)元和前一層的全部神經(jīng)元相連,對多維的輸入進行一維化處理。輸出層使用Softmax函數(shù)解決多分類問題。
卷積層有不同的卷積核,利用每個卷積核對輸入圖像進行卷積,并產(chǎn)生輸出特征映射。通常還要通過激活函數(shù)對卷積結(jié)果進行非線性計算操作之后才進行下一層的池化操作,常用的激活函數(shù)有Sigmoid、tanh、ReLU(Rectified Linear Unit)和PReLU(Parametric Rectified Linear Unit)等。池化層(下采樣層)對上層的卷積結(jié)果進行降維,以減少計算量,關(guān)注的是特征本身,而不是特征的具體位置。本文使用最大池化方法,使網(wǎng)絡可以抽取更大范圍的特征。全連接層一般位于CNN的最后幾層,全連接層的每個神經(jīng)元和前一層的全部神經(jīng)元相連,對多維的輸入進行一維化處理。輸出層使用Softmax函數(shù)解決多分類問題;赩oxNet網(wǎng)絡,本文設計的3DCNN的網(wǎng)絡結(jié)構(gòu)如圖3所示。具體參數(shù)如表1所示。由圖3和表1可知,該網(wǎng)絡有3個卷積層(Conv1、Conv2和Conv3),1個池化層(Max Pooling 1),三個全連接層(FC1、FC2和FC3)。FC3也是Softmax層。預處理后的體素網(wǎng)格圖像的尺寸為32×32×32,所以在第1個卷積層用32個5×5×5的卷積核對32×32×32×1的體素網(wǎng)格圖像進行步幅為2的卷積后,生成32個14×14×14的特征映射。特征映射的計算方法為
本文編號:3026462
【文章來源】:激光與光電子學進展. 2020,57(16)北大核心
【文章頁數(shù)】:9 頁
【部分圖文】:
所提的船舶分類模型流程圖
CNN是由輸入層、卷積層、池化層、全連接層和輸出層組成的多層學習網(wǎng)絡,其基本結(jié)構(gòu)如圖2所示。卷積層有不同的卷積核,利用每個卷積核對輸入圖像進行卷積,并產(chǎn)生輸出特征映射。通常還要通過激活函數(shù)對卷積結(jié)果進行非線性計算操作之后才進行下一層的池化操作,常用的激活函數(shù)有Sigmoid、tanh、ReLU(Rectified Linear Unit)和PReLU(Parametric Rectified Linear Unit)等。池化層(下采樣層)對上層的卷積結(jié)果進行降維,以減少計算量,關(guān)注的是特征本身,而不是特征的具體位置。本文使用最大池化方法,使網(wǎng)絡可以抽取更大范圍的特征。全連接層一般位于CNN的最后幾層,全連接層的每個神經(jīng)元和前一層的全部神經(jīng)元相連,對多維的輸入進行一維化處理。輸出層使用Softmax函數(shù)解決多分類問題。
卷積層有不同的卷積核,利用每個卷積核對輸入圖像進行卷積,并產(chǎn)生輸出特征映射。通常還要通過激活函數(shù)對卷積結(jié)果進行非線性計算操作之后才進行下一層的池化操作,常用的激活函數(shù)有Sigmoid、tanh、ReLU(Rectified Linear Unit)和PReLU(Parametric Rectified Linear Unit)等。池化層(下采樣層)對上層的卷積結(jié)果進行降維,以減少計算量,關(guān)注的是特征本身,而不是特征的具體位置。本文使用最大池化方法,使網(wǎng)絡可以抽取更大范圍的特征。全連接層一般位于CNN的最后幾層,全連接層的每個神經(jīng)元和前一層的全部神經(jīng)元相連,對多維的輸入進行一維化處理。輸出層使用Softmax函數(shù)解決多分類問題;赩oxNet網(wǎng)絡,本文設計的3DCNN的網(wǎng)絡結(jié)構(gòu)如圖3所示。具體參數(shù)如表1所示。由圖3和表1可知,該網(wǎng)絡有3個卷積層(Conv1、Conv2和Conv3),1個池化層(Max Pooling 1),三個全連接層(FC1、FC2和FC3)。FC3也是Softmax層。預處理后的體素網(wǎng)格圖像的尺寸為32×32×32,所以在第1個卷積層用32個5×5×5的卷積核對32×32×32×1的體素網(wǎng)格圖像進行步幅為2的卷積后,生成32個14×14×14的特征映射。特征映射的計算方法為
本文編號:3026462
本文鏈接:http://www.sikaile.net/kejilunwen/chuanbolw/3026462.html