分布式深度學(xué)習(xí)平臺(tái)DisPyTorch
【文章頁(yè)數(shù)】:75 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖1.2:?jiǎn)坞[層前饋網(wǎng)絡(luò)??
?第一章緒論???輸出??1?I?1??輸出層?p...廠)…r)??/?\??隱層?〇?-?〇■?■〇???〇??、X?'、、y?,??pK??輸入層?()__?()?■?()??V?Y?Y??輸入??圖1.2:?jiǎn)坞[層前饋網(wǎng)絡(luò)??表U:常見(jiàn)CNN的參數(shù)大小??模型?|層數(shù)|??....
圖1.3:?BP算法中的變量??
?第一章緒論???入爲(wèi)知。那么,對(duì)于訓(xùn)練數(shù)據(jù)(Xfc,yfc),令h為神經(jīng)網(wǎng)絡(luò)的輸出,則??神經(jīng)網(wǎng)絡(luò)在數(shù)據(jù)(Xfc,yfc)上的誤差表示為£^?=?Ljyfc,;^)。令對(duì)為輸出層第j個(gè)??神經(jīng)元的輸出,我們根據(jù)這個(gè)訓(xùn)練數(shù)據(jù),可以利用BP算法,求得£;fc關(guān)于??和u^}的梯度,....
圖1.4:數(shù)據(jù)并行??
?第一章緒論???!模型m?i?!模型m?;?!模型m?i??i曜?i囑?:w;???]...??!?^B;?!?^S;?!?^9;??節(jié)點(diǎn)1?節(jié)點(diǎn)2?節(jié)點(diǎn)p??圖1.4:數(shù)據(jù)并行??每個(gè)節(jié)點(diǎn)分別負(fù)責(zé)不同數(shù)據(jù)上的計(jì)算量,將多個(gè)節(jié)點(diǎn)上求得的梯度通過(guò)網(wǎng)??絡(luò)通信來(lái)進(jìn)行模型參數(shù)的更新。....
圖1.5:模型并行??
?第一章緒論???丨節(jié)點(diǎn)p??L=t=l???I?■??■?■?■?I?■??■?■??:r-4—\???■■?i節(jié)點(diǎn)2??■■丨節(jié)點(diǎn)l??!?;??圖1.5:模型并行??通過(guò)模型并行構(gòu)成多機(jī)流水線,就可以訓(xùn)練非常大的神經(jīng)網(wǎng)絡(luò),克服了單??機(jī)無(wú)法保存大模型的困難[4]。一方面,在....
本文編號(hào):3959104
本文鏈接:http://www.sikaile.net/kejilunwen/zidonghuakongzhilunwen/3959104.html