天堂国产午夜亚洲专区-少妇人妻综合久久蜜臀-国产成人户外露出视频在线-国产91传媒一区二区三区

當(dāng)前位置:主頁 > 科技論文 > 軟件論文 >

深度學(xué)習(xí)處理器基準(zhǔn)測試程序的設(shè)計與實(shí)現(xiàn)

發(fā)布時間:2024-02-26 20:05
  近些年來,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)作為最重要的深度學(xué)習(xí)(Deep Learning,DL)模型之一,在業(yè)界受到了廣泛的關(guān)注和研究,尤其是在計算機(jī)視覺(Computer Vision,CV)等領(lǐng)域發(fā)揮著至關(guān)重要的作用。由于更深層次的網(wǎng)絡(luò)往往能夠提供更好的效果,卷積神經(jīng)網(wǎng)絡(luò)變得越來越復(fù)雜,隨著網(wǎng)絡(luò)結(jié)構(gòu)的不斷加深和訓(xùn)練數(shù)據(jù)量的顯著增長,通用處理器已經(jīng)無法很好地滿足這類應(yīng)用的計算需求。于是,計算芯片架構(gòu)開始朝著適應(yīng)這類應(yīng)用的定制化方向演進(jìn),進(jìn)而出現(xiàn)了一系列的深度學(xué)習(xí)專用芯片,其中最具有影響力的包括寒武紀(jì)的DianNao系列和谷歌的TPU。它們均是針對卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行了專用部件的定制和加速,甚至為卷積神經(jīng)網(wǎng)絡(luò)設(shè)計出了一套高效的專用指令集,可以說,當(dāng)今國際上的深度學(xué)習(xí)處理器即為面向卷積神經(jīng)網(wǎng)絡(luò)的加速器。在處理器的設(shè)計過程中,標(biāo)準(zhǔn)的基準(zhǔn)測試程序和測試指標(biāo)至關(guān)重要。本文提出了一套深度學(xué)習(xí)處理器基準(zhǔn)測試程序,用于對當(dāng)前的深度學(xué)習(xí)硬件進(jìn)行客觀評估,判斷處理器設(shè)計的合理性以及對比不同處理器的設(shè)計優(yōu)劣,指導(dǎo)軟硬件層面的系統(tǒng)優(yōu)化,幫助硬件研究人員設(shè)計出高效...

【文章頁數(shù)】:97 頁

【學(xué)位級別】:碩士

【部分圖文】:

圖2.2同步數(shù)據(jù)并行訓(xùn)練和異步數(shù)據(jù)并行訓(xùn)練??采用隨機(jī)梯度下降法(stochastic?gradient?descent,SGD)[14】訓(xùn)練時,加速SGD過??程最簡單的方法就是在多個設(shè)備上并行實(shí)現(xiàn)梯度計算

圖2.2同步數(shù)據(jù)并行訓(xùn)練和異步數(shù)據(jù)并行訓(xùn)練??采用隨機(jī)梯度下降法(stochastic?gradient?descent,SGD)[14】訓(xùn)練時,加速SGD過??程最簡單的方法就是在多個設(shè)備上并行實(shí)現(xiàn)梯度計算

TensorFlow的數(shù)據(jù)流圖模型能夠很好地應(yīng)用于計算密集型網(wǎng)絡(luò)在大規(guī)模數(shù)??據(jù)集上的訓(xùn)練加速過程,主要包括數(shù)據(jù)并行訓(xùn)練和模型并行訓(xùn)練,其中,數(shù)據(jù)??并行訓(xùn)練又分為同步和異步兩種方式,具體實(shí)現(xiàn)過程如圖2.2所示。當(dāng)網(wǎng)絡(luò)模型??11??


圖3.3目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)算法??,

圖3.3目標(biāo)檢測領(lǐng)域的深度學(xué)習(xí)算法??,

傳線方法?傳法方法?AtexNe;?ZfNet?V06?GoogLeNer?SrTCcprion_v2lncepl'〇n_v3?Rc.sN?t?|nc<;pti〇n_y4?KeiM?X?t?StNsr??■tops豬誤s?■網(wǎng)綰壤&??圖3.2主流分類網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集....


圖3.4基于中髙級語義的圖像分割方法??注:黑色、紫色、橙色、紅色字體分別代表基于圖論的分割方法、基于像素聚類??的分割方法、基于候選區(qū)域的語義分割方法、基于端到端的語義分割方法??

圖3.4基于中髙級語義的圖像分割方法??注:黑色、紫色、橙色、紅色字體分別代表基于圖論的分割方法、基于像素聚類??的分割方法、基于候選區(qū)域的語義分割方法、基于端到端的語義分割方法??

傳線方法?傳法方法?AtexNe;?ZfNet?V06?GoogLeNer?SrTCcprion_v2lncepl'〇n_v3?Rc.sN?t?|nc<;pti〇n_y4?KeiM?X?t?StNsr??■tops豬誤s?■網(wǎng)綰壤&??圖3.2主流分類網(wǎng)絡(luò)在ImageNet數(shù)據(jù)集....


圖3.5卷積神經(jīng)網(wǎng)絡(luò)一遍前向的MACCs??連接層而言較高,全連接層對網(wǎng)絡(luò)的MACCs影響力度被隱藏

圖3.5卷積神經(jīng)網(wǎng)絡(luò)一遍前向的MACCs??連接層而言較高,全連接層對網(wǎng)絡(luò)的MACCs影響力度被隱藏

H。和W。表示卷積層的輸出特征圖尺寸,和表示卷積核尺寸,??和,分別表示輸入通道數(shù)和輸出通道數(shù),均和叫表示輸入特征圖的尺寸。??圖3.5給出了所選網(wǎng)絡(luò)在單樣本輸入時一次前向過程的卷積層和全連接層的乘加??操作次數(shù),即網(wǎng)絡(luò)的一次前向計算量。??Conu_M>4CCs??0(/f0?....



本文編號:3911788

資料下載
論文發(fā)表

本文鏈接:http://www.sikaile.net/kejilunwen/ruanjiangongchenglunwen/3911788.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶c6c23***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com