基于卷積自編碼器的反射地震數(shù)據(jù)去噪和插值方法研究
【文章頁(yè)數(shù)】:67 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
因此,當(dāng)規(guī)則推理的“演繹法”碰壁受阻時(shí),人們開(kāi)始將目光投向“歸納法”;诟怕式y(tǒng)計(jì)的機(jī)器學(xué)習(xí)(MachineLearning,ML)就這樣逐漸成為人工智能的主流方法。機(jī)器學(xué)習(xí)與專(zhuān)家系統(tǒng)不同,它不需要輸入任何規(guī)則,而是將真實(shí)世界產(chǎn)生的大量數(shù)據(jù)組成樣本(Samples),讓算法直接在....
窬??緄難?澳J絞粲諞恢止檳裳?啊8?萆窬??緄牧??方式,大致可分為前饋神經(jīng)網(wǎng)絡(luò)、反饋神經(jīng)網(wǎng)絡(luò)和自組織神經(jīng)網(wǎng)絡(luò)等模型。前饋神經(jīng)網(wǎng)絡(luò)(FeedForwardNeuralNetwork)是一種單向多層的網(wǎng)絡(luò)結(jié)構(gòu),主要由輸入層、隱含層和輸出層組成。數(shù)據(jù)從輸入層開(kāi)始,逐層向一個(gè)方向傳遞....
的權(quán)值參數(shù)是通過(guò)反向傳播算法不斷調(diào)整得到的,其主要包括信號(hào)的正向傳播和誤差的反向傳播兩個(gè)過(guò)程(李曉峰等,2000)。在信號(hào)的正向傳播過(guò)程中,信號(hào)從輸入層至隱含層再到輸出層,這種逐層處理模式中,每一層的神經(jīng)元狀態(tài)只影響下一層的神經(jīng)元狀態(tài),如果輸出層的結(jié)果不滿(mǎn)足期望要求,則進(jìn)入誤差反....
浙江大學(xué)碩士學(xué)位論文1緒論9教授于2006年在《Science》的一篇文章,文章通過(guò)逐層預(yù)訓(xùn)練的方案解決了深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的梯度消失問(wèn)題,并表明深度自編碼器網(wǎng)絡(luò)具有更優(yōu)異的特征學(xué)習(xí)能力(HintonandSalakhutdinov,2006)。此后深度自編碼器的研究獲得了更多人....
本文編號(hào):4011570
本文鏈接:http://www.sikaile.net/kejilunwen/diqiudizhi/4011570.html
下一篇:沒(méi)有了