基于遷移學(xué)習(xí)的超聲圖像甲狀腺結(jié)節(jié)定位方法
發(fā)布時間:2021-08-19 00:56
本研究提出一種基于遷移學(xué)習(xí)的甲狀腺結(jié)節(jié)定位方法,利用深度卷積神經(jīng)網(wǎng)絡(luò)提取結(jié)節(jié)超聲圖像的特征,進(jìn)而采用包圍盒回歸的方式定位甲狀腺結(jié)節(jié)。分別分析了基于Xception、VGG-19和Resnet50三種預(yù)訓(xùn)練模型的結(jié)節(jié)定位方法。結(jié)果表明,基于Resnet50模型的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)在小樣本量條件下,具有較高的定位準(zhǔn)確率,有一定的臨床應(yīng)用價值。
【文章來源】:生物醫(yī)學(xué)工程研究. 2020,39(04)
【文章頁數(shù)】:6 頁
【部分圖文】:
預(yù)先標(biāo)記包圍盒信息的超聲圖像和增廣圖像
圖4 VGG19-NLM訓(xùn)練過程圖由圖可知,三個模型的訓(xùn)練和驗證MSE損失經(jīng)過 2 次迭代后,接近收斂到一個較低水平。三個模型的IOU在迭代15次之后都趨于收斂到約80%的穩(wěn)定性能,且Resnet50-NLM方法的IOU性能收斂較快。而驗證集的IOU性能略優(yōu)于訓(xùn)練集,為過度擬合的表現(xiàn),是使用drop層的結(jié)果。采用訓(xùn)練好的模型對測試集進(jìn)行測試,結(jié)果見圖6,可以看出Resnet50-NLM方法的MSE損失和IOU性能是最優(yōu)的。
由圖可知,三個模型的訓(xùn)練和驗證MSE損失經(jīng)過 2 次迭代后,接近收斂到一個較低水平。三個模型的IOU在迭代15次之后都趨于收斂到約80%的穩(wěn)定性能,且Resnet50-NLM方法的IOU性能收斂較快。而驗證集的IOU性能略優(yōu)于訓(xùn)練集,為過度擬合的表現(xiàn),是使用drop層的結(jié)果。采用訓(xùn)練好的模型對測試集進(jìn)行測試,結(jié)果見圖6,可以看出Resnet50-NLM方法的MSE損失和IOU性能是最優(yōu)的。表2 模型訓(xùn)練耗時(計算一次迭代)Table 2 Model training time (one iteration) 模型 Xception-NLM Resnet50-NLM VGG19-NLM 時間(t/s) 210 54 64
本文編號:3350957
【文章來源】:生物醫(yī)學(xué)工程研究. 2020,39(04)
【文章頁數(shù)】:6 頁
【部分圖文】:
預(yù)先標(biāo)記包圍盒信息的超聲圖像和增廣圖像
圖4 VGG19-NLM訓(xùn)練過程圖由圖可知,三個模型的訓(xùn)練和驗證MSE損失經(jīng)過 2 次迭代后,接近收斂到一個較低水平。三個模型的IOU在迭代15次之后都趨于收斂到約80%的穩(wěn)定性能,且Resnet50-NLM方法的IOU性能收斂較快。而驗證集的IOU性能略優(yōu)于訓(xùn)練集,為過度擬合的表現(xiàn),是使用drop層的結(jié)果。采用訓(xùn)練好的模型對測試集進(jìn)行測試,結(jié)果見圖6,可以看出Resnet50-NLM方法的MSE損失和IOU性能是最優(yōu)的。
由圖可知,三個模型的訓(xùn)練和驗證MSE損失經(jīng)過 2 次迭代后,接近收斂到一個較低水平。三個模型的IOU在迭代15次之后都趨于收斂到約80%的穩(wěn)定性能,且Resnet50-NLM方法的IOU性能收斂較快。而驗證集的IOU性能略優(yōu)于訓(xùn)練集,為過度擬合的表現(xiàn),是使用drop層的結(jié)果。采用訓(xùn)練好的模型對測試集進(jìn)行測試,結(jié)果見圖6,可以看出Resnet50-NLM方法的MSE損失和IOU性能是最優(yōu)的。表2 模型訓(xùn)練耗時(計算一次迭代)Table 2 Model training time (one iteration) 模型 Xception-NLM Resnet50-NLM VGG19-NLM 時間(t/s) 210 54 64
本文編號:3350957
本文鏈接:http://www.sikaile.net/yixuelunwen/nfm/3350957.html
最近更新
教材專著