金屬氫化物體系勢能面的構建和動力學理論研究
發(fā)布時間:2021-11-22 01:13
分子反應動力學是從原子分子層面觀察和研究微觀化學反應過程進而了解化學反應機理的一門學科。勢能面是理論研究分子反應動力學的前提,精確的勢能面能保證動力學計算結果的可靠性。本文利用神經網絡擬合方法和高精度從頭算方法構建了 AuH2、NaH2+和Li2H三個金屬氫化物體系的基態(tài)勢能面,并基于新構建的勢能面,利用含時量子波包法對這三個反應體系的反應動力學性質和反應機理進行了研究。本論文主要包含以下三部分工作:(1)利用神經網絡方法擬合22853個構型下AuH2體系的從頭算能量點,得到一個新的AuH2體系的基態(tài)勢能面。利用多參考組態(tài)相互作用方法和aug-cc-pVQZH、cc-pwCVQZ-PPAu基組計算AuH2體系的單點能,為補償高階截斷誤差,計算中還考慮了戴維森修正。利用神經網絡方法擬合AuH2體系解析勢能面的擬合誤差為1.87meV。從新解析勢能面上得到的AuH(1∑+)和H2(X1∑g+)分子的平衡間距、解離能和諧振頻率與實驗結果符合得非常好。采用含時量子波包法在新解析勢能面上計算Au(2S)+ H2(X1∑g+)→AuH(X1∑+)+ H(2S)反應動力學。由于該反應是吸熱反應,所以...
【文章來源】:大連理工大學遼寧省 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:112 頁
【學位級別】:博士
【部分圖文】:
圖2.]?(a)A?+?BC的雅可比坐標,(b)AB?+?C的雅可比坐標??
圖2.2神經元結構示意圖??Fig.?2.2?Diagram?of?neuronal?structure??圖2.2中x為輸入信號,w為權重,/為凈輸入,即所有的輸入通過某種運算結合到??一起(本文中用到運算的是線性加權求和),^為轉換函數,_y為輸出。從圖中可以看出??一個神經元可以接受多個輸入信號6,這些輸入信號經過線性加權求和結合到一起,最??后經過轉換函數彡計算得到輸出信號。輸出信號_y的形式如下:??y?=?<t>?(2.29)??V?/=1?J??其中W,?是對應輸入信號的連接權重,b是偏置。人工神經網絡就是用大量的神經元互相??連接構成,雖然神經網絡的思想非常簡單,但是可以對任何算數進行邏輯計算,并且有??很強大的學習能力。神經網絡有多種模型,其中多層神經網絡由于其靈活性而被廣泛應??用到眾多領域。神經網絡因其靈活性與準確性,已經被越來越多地應用于擬合不同體系??的勢能面。在擬合勢能面時,神經網絡一般包含一個輸入層,一個輸出層和若干隱藏層,??每一層由若干平行神經元構成。勢能面擬合的精度和計算量的大小受隱藏層的個數和每??層神經元的個數影響
?藏層就能很好地解決勢能面的擬合問題,而每層的神經元的個數可以根據具體情況通過??測試來確定。本文用于擬合的神經網絡包含兩個隱藏層,其結構如圖2.3所示。??輸入層?隱藏層1?隱藏層2??0?-?:_?-麵---@」\輸出層??Q?-:?-???-????@?@??圖2.3神經網絡結構圖??Fig.?2.3?Diagram?of?neural?network??其中JC所在的層為輸入層,W,,分別為權重,每個隱藏層包含的神經元的個數根據實??際情況確定,可以不相同。本文中在擬合勢能面時選取的每個隱藏層中的神經元個數相??同。最后擬合得到勢能面的表達式為:??匕,—_=+#]+r?)+#?(2.3〇)??/=!?j=]?\?k=\?y??1986年提出的多層網絡的“前饋”算法(Back?Propagation,BP),該方法實現了誤差??的反向傳播,是一種有監(jiān)督的學習方法。BP算法極大地推動了神經網絡方法的發(fā)展,??由于BP算法可以反向傳播能夠很好地滿足勢能面的擬合需求,因此被廣泛應用到很多??不同體系勢能面的擬合當中。在擬合中,會隨機賦予絕對值較小的權值和偏置初始值,??然后逐層的傳播計算
【參考文獻】:
期刊論文
[1]反應體系F+H2→HF+H的一個全域從頭算勢能面(英文)[J]. 許傳秀,謝代前,張東輝. Chinese Journal of Chemical Physics. 2006(02)
本文編號:3510633
【文章來源】:大連理工大學遼寧省 211工程院校 985工程院校 教育部直屬院校
【文章頁數】:112 頁
【學位級別】:博士
【部分圖文】:
圖2.]?(a)A?+?BC的雅可比坐標,(b)AB?+?C的雅可比坐標??
圖2.2神經元結構示意圖??Fig.?2.2?Diagram?of?neuronal?structure??圖2.2中x為輸入信號,w為權重,/為凈輸入,即所有的輸入通過某種運算結合到??一起(本文中用到運算的是線性加權求和),^為轉換函數,_y為輸出。從圖中可以看出??一個神經元可以接受多個輸入信號6,這些輸入信號經過線性加權求和結合到一起,最??后經過轉換函數彡計算得到輸出信號。輸出信號_y的形式如下:??y?=?<t>?(2.29)??V?/=1?J??其中W,?是對應輸入信號的連接權重,b是偏置。人工神經網絡就是用大量的神經元互相??連接構成,雖然神經網絡的思想非常簡單,但是可以對任何算數進行邏輯計算,并且有??很強大的學習能力。神經網絡有多種模型,其中多層神經網絡由于其靈活性而被廣泛應??用到眾多領域。神經網絡因其靈活性與準確性,已經被越來越多地應用于擬合不同體系??的勢能面。在擬合勢能面時,神經網絡一般包含一個輸入層,一個輸出層和若干隱藏層,??每一層由若干平行神經元構成。勢能面擬合的精度和計算量的大小受隱藏層的個數和每??層神經元的個數影響
?藏層就能很好地解決勢能面的擬合問題,而每層的神經元的個數可以根據具體情況通過??測試來確定。本文用于擬合的神經網絡包含兩個隱藏層,其結構如圖2.3所示。??輸入層?隱藏層1?隱藏層2??0?-?:_?-麵---@」\輸出層??Q?-:?-???-????@?@??圖2.3神經網絡結構圖??Fig.?2.3?Diagram?of?neural?network??其中JC所在的層為輸入層,W,,分別為權重,每個隱藏層包含的神經元的個數根據實??際情況確定,可以不相同。本文中在擬合勢能面時選取的每個隱藏層中的神經元個數相??同。最后擬合得到勢能面的表達式為:??匕,—_=+#]+r?)+#?(2.3〇)??/=!?j=]?\?k=\?y??1986年提出的多層網絡的“前饋”算法(Back?Propagation,BP),該方法實現了誤差??的反向傳播,是一種有監(jiān)督的學習方法。BP算法極大地推動了神經網絡方法的發(fā)展,??由于BP算法可以反向傳播能夠很好地滿足勢能面的擬合需求,因此被廣泛應用到很多??不同體系勢能面的擬合當中。在擬合中,會隨機賦予絕對值較小的權值和偏置初始值,??然后逐層的傳播計算
【參考文獻】:
期刊論文
[1]反應體系F+H2→HF+H的一個全域從頭算勢能面(英文)[J]. 許傳秀,謝代前,張東輝. Chinese Journal of Chemical Physics. 2006(02)
本文編號:3510633
本文鏈接:http://www.sikaile.net/kejilunwen/huaxue/3510633.html
教材專著