衡阳派盒市场营销有限公司

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

ExMh_zhishexues ? 來(lái)源:fqj ? 2019-05-16 14:51 ? 次閱讀

近年來(lái)機(jī)器學(xué)習(xí)算法在包括自然語(yǔ)言處理,圖像識(shí)別等諸多領(lǐng)域大放異彩。得益于如Materials Project1, QM92,3等材料數(shù)據(jù)庫(kù)的不斷完善和發(fā)展,機(jī)器學(xué)習(xí)正在被越來(lái)越多的應(yīng)用在材料學(xué)領(lǐng)域的研究中。然而,由于研究目標(biāo)的單一性,多數(shù)工作仍然局限于解決特定的晶體結(jié)構(gòu)以及特定的材料性質(zhì)預(yù)測(cè)問(wèn)題。一種泛化的,普適性的機(jī)器學(xué)習(xí)模型仍然是材料學(xué)領(lǐng)域研究的重點(diǎn)目標(biāo)。此研究是基于

基于DeepMind建立的圖神經(jīng)網(wǎng)絡(luò)框架。

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

在材料學(xué)領(lǐng)域,對(duì)分子或晶體結(jié)構(gòu)的特征描述需要滿足平移,轉(zhuǎn)動(dòng),鏡面不變性,以及對(duì)整體結(jié)構(gòu)特異信息的表征。常見(jiàn)的結(jié)構(gòu)特征描述由于其局域性,缺乏對(duì)整體結(jié)構(gòu)信息的表達(dá),因而不具有普適性。圖網(wǎng)絡(luò)模型(graph-network)是一種基于圖論的結(jié)構(gòu)化模型,從理論上完美解決了這一問(wèn)題。在圖論中,圖(graph)由若干給定的頂點(diǎn)(node)及連接頂點(diǎn)的邊(edge)構(gòu)成。運(yùn)用到分子(或晶體)結(jié)構(gòu)中,原子(atom)可以由頂點(diǎn)(node)描述,連接原子之間的化學(xué)鍵(bond)可以由邊(edge)描述,從而可以把一個(gè)個(gè)分子或晶體結(jié)構(gòu)看作一個(gè)個(gè)獨(dú)立的“圖”。基于此類模型的結(jié)構(gòu)描述方法,科研工作者可以開(kāi)發(fā)出針對(duì)任何材料結(jié)構(gòu)或任何物理化學(xué)性質(zhì)的普適性模型。盡管具有理論可行性,此類模型由于模型復(fù)雜度,材料數(shù)據(jù)量的限制,仍很少被應(yīng)用在材料學(xué)領(lǐng)域中4,5。近日,UC San Diego 的 Shyue Ping Ong 課題組基于DeepMind建立的圖神經(jīng)網(wǎng)絡(luò)框架6,開(kāi)發(fā)了一套分子和晶體通用性質(zhì)預(yù)測(cè)模型(MEGNet),在各項(xiàng)性質(zhì)預(yù)測(cè)測(cè)試中達(dá)到了領(lǐng)先水平7。

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

圖 1. MEGNet 概述。每個(gè)分子/晶體結(jié)構(gòu)由化學(xué)鍵信息,原子信息,和狀態(tài)信息描述。每個(gè)結(jié)構(gòu)描述輸入模型后,依次更新,直到總的結(jié)構(gòu)輸出性質(zhì)與DFT計(jì)算值接近。

圖1中描述了該模型的工作模式: 每個(gè)結(jié)構(gòu)可用三個(gè)向量表征,分別包含原子信息,化學(xué)鍵信息,和狀態(tài)函數(shù)信息。在每一次模型訓(xùn)練迭代中,依次更新化學(xué)鍵向量,原子向量,和狀態(tài)函數(shù)向量,得到新的結(jié)構(gòu)表征向量,直到通過(guò)該表征輸出的性質(zhì)與DFT計(jì)算結(jié)果趨于一致。作者首先用QM9 分子數(shù)據(jù)集中超過(guò)130k數(shù)據(jù)作為訓(xùn)練集訓(xùn)練模型,并用得到的模型預(yù)測(cè)分子中的13項(xiàng)物理化學(xué)性質(zhì),在其中的11項(xiàng)中達(dá)到同類模型中的最優(yōu)結(jié)果(表1)。更為先進(jìn)的是,之前的工作對(duì)由狀態(tài)參數(shù)關(guān)聯(lián)的狀態(tài)函數(shù),如內(nèi)能(U0, U),焓(H),和吉布斯自由能(G),采用的是分別訓(xùn)練模型進(jìn)行預(yù)測(cè)的方法。

然而本工作中,作者采用加入狀態(tài)參數(shù)作為輸入的方法,可由單一模型同時(shí)預(yù)測(cè)U0, U, H和G,并保持與分別模型訓(xùn)練類似的準(zhǔn)確度,大大提高了訓(xùn)練效率[YZ1]。在針對(duì)晶體結(jié)構(gòu)的應(yīng)用中,作者用Materials Project數(shù)據(jù)庫(kù)中超過(guò)69k數(shù)據(jù)作為訓(xùn)練集,針對(duì)生成能,能帶帶隙,體積模量和剪切模量進(jìn)行了回歸(Regression)分析,并用帶隙值作為金屬和非金屬的判據(jù)進(jìn)行分類(classification)分析。回歸分析中的平均絕對(duì)誤差(MAE)低于同類型模型SchNet4和CGCNN5(表2),金屬和非金屬分類分析中綜合準(zhǔn)確率達(dá)86.9%,ROC中AUC達(dá)到0.926,與此前最優(yōu)模型CGCNN類似。

表1. 不同模型在QM9上預(yù)測(cè)13項(xiàng)性質(zhì)的平均絕對(duì)誤差(MAE)對(duì)比

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

表2. MEGNet和其他基于圖像模型

在Materials Project數(shù)據(jù)集的預(yù)測(cè)準(zhǔn)確度對(duì)比

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

在對(duì)模型的深入分析中,作者發(fā)現(xiàn),從最優(yōu)模型中提取出的元素映射(embedding)與化學(xué)常識(shí)吻合。例如,將元素映射投影二維空間可發(fā)現(xiàn),Eu和Yb與其他鑭系元素距離較遠(yuǎn),而與堿土金屬更接近,這與化學(xué)經(jīng)驗(yàn)相符。這樣的分析一方面佐證了模型可以學(xué)習(xí)到可靠的化學(xué)信息,另一方面可將學(xué)習(xí)到的化學(xué)信息用于遷移學(xué)習(xí),以大大降低訓(xùn)練新模型訓(xùn)練所需數(shù)據(jù)量。例如,在此例中,作者通過(guò)用~69k生成熱的數(shù)據(jù)訓(xùn)練的模型提取的元素映射,用于預(yù)測(cè)帶隙和彈性性質(zhì)的模型訓(xùn)練,后者的數(shù)據(jù)量只有生成熱的一半甚至十分之一。通過(guò)遷移學(xué)習(xí)的方法作者得到比直接訓(xùn)練更低的MAE和提高兩倍的收斂速度。這為小數(shù)據(jù)量的性質(zhì)的高效準(zhǔn)確模型訓(xùn)練提供了可行的方案。

在模型的使用方面,用戶可登陸http://megnet.crystals.ai,根據(jù)提示輸入晶體結(jié)構(gòu)編碼或cif文件即可得到模型預(yù)測(cè)的性質(zhì)。另外,文章所涉及的Python代碼均已開(kāi)源(https://github.com/materialsvirtuallab/megnet.git)。下面示例如何使用已有模型和訓(xùn)練新的模型。

1示例一: 使用分子模型

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

2示例二:使用晶體模型預(yù)測(cè)剪切模量

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

3示例三:訓(xùn)練新模型

MEGNet普適性圖神經(jīng)網(wǎng)絡(luò) 精確預(yù)測(cè)分子和晶體性質(zhì)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:MEGNet普適性圖神經(jīng)網(wǎng)絡(luò),精確預(yù)測(cè)分子和晶體性質(zhì)

文章出處:【微信號(hào):zhishexueshuquan,微信公眾號(hào):知社學(xué)術(shù)圈】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的建模步驟

    BP(Backpropagation)神經(jīng)網(wǎng)絡(luò)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過(guò)反向傳播算法來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的預(yù)測(cè)或分類。BP
    的頭像 發(fā)表于 07-11 16:57 ?1721次閱讀

    python做bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)數(shù)據(jù)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),通過(guò)反向傳播算法進(jìn)行訓(xùn)練。它在許多領(lǐng)域,如模式識(shí)別、數(shù)據(jù)挖掘、預(yù)測(cè)分析等,都有廣泛的應(yīng)用。本文將
    的頭像 發(fā)表于 07-11 10:54 ?1380次閱讀

    bp神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型建模步驟

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種多層前饋神經(jīng)網(wǎng)絡(luò),其核心思想是通過(guò)反向傳播算法來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的預(yù)測(cè)或分類
    的頭像 發(fā)表于 07-11 10:52 ?631次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡(jiǎn)稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個(gè)基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來(lái)發(fā)展等多個(gè)方面,詳細(xì)闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?1312次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的構(gòu)建方法

    神經(jīng)網(wǎng)絡(luò)模型作為一種強(qiáng)大的預(yù)測(cè)工具,廣泛應(yīng)用于各種領(lǐng)域,如金融、醫(yī)療、交通等。本文將詳細(xì)介紹神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)模型的構(gòu)建方法,包括模型設(shè)計(jì)、數(shù)據(jù)集準(zhǔn)備、模型訓(xùn)練、驗(yàn)證與評(píng)估等步驟,并附以代碼
    的頭像 發(fā)表于 07-05 17:41 ?805次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?654次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對(duì)序列中的元素進(jìn)行建模。RNN在自然語(yǔ)言處理、語(yǔ)音識(shí)別、時(shí)間序列預(yù)測(cè)
    的頭像 發(fā)表于 07-05 09:50 ?701次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型的分類有哪些

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計(jì)算模型,它在許多領(lǐng)域,如圖像識(shí)別、語(yǔ)音識(shí)別、自然語(yǔ)言處理、預(yù)測(cè)分析等有著廣泛的應(yīng)用。本文將
    的頭像 發(fā)表于 07-05 09:13 ?1371次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡(jiǎn)稱RNN)實(shí)際上是同一個(gè)概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?873次閱讀

    神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)誤差大小怎么看

    神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)誤差大小是衡量神經(jīng)網(wǎng)絡(luò)性能的重要指標(biāo)之一。本文將介紹如何評(píng)估神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)誤差大小,包括誤差的定義、評(píng)估方法、誤差分析以及誤差優(yōu)化
    的頭像 發(fā)表于 07-03 10:41 ?1309次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進(jìn)行建模和預(yù)測(cè)

    神經(jīng)網(wǎng)絡(luò)是一種強(qiáng)大的機(jī)器學(xué)習(xí)技術(shù),可以用于建模和預(yù)測(cè)變量之間的關(guān)系。 神經(jīng)網(wǎng)絡(luò)的基本概念 神經(jīng)網(wǎng)絡(luò)是一種受人腦啟發(fā)的計(jì)算模型,由大量的節(jié)點(diǎn)(神經(jīng)
    的頭像 發(fā)表于 07-03 10:23 ?837次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡(jiǎn)稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們?cè)?/div>
    的頭像 發(fā)表于 07-03 10:12 ?1360次閱讀

    bp神經(jīng)網(wǎng)絡(luò)模型怎么算預(yù)測(cè)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡(jiǎn)稱BP網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,從而實(shí)現(xiàn)對(duì)輸入數(shù)據(jù)的
    的頭像 發(fā)表于 07-03 09:59 ?874次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡(jiǎn)稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡(jiǎn)稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?4721次閱讀

    了解如何使用PyTorch構(gòu)建神經(jīng)網(wǎng)絡(luò)

    神經(jīng)網(wǎng)絡(luò)直接應(yīng)用于數(shù)據(jù)集,您可以訓(xùn)練它們以預(yù)測(cè)節(jié)點(diǎn)、邊緣和與相關(guān)的任務(wù)。它用于和節(jié)點(diǎn)分類
    發(fā)表于 02-21 12:19 ?835次閱讀
    了解如何使用PyTorch構(gòu)建<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>
    红桃K百家乐官网娱乐城| 从化市| 百家乐游戏真人游戏| 扎兰屯市| 超级老虎机系统| 百家乐官网冼牌机| 百家乐官网在线手机玩| 谁会玩百家乐的玩法技巧和规则| 百家乐官网娱乐场真人娱乐场| bet365国际娱乐| 百家乐视频游365| 上海玩百家乐官网算不算违法| 大发888在线| 百家乐赌博现金网平台排名| 大发888中文下载| 筹码百家乐500| 百家乐官网赢钱打| 仪陇县| 大发888网页出纳柜台| 菲律宾百家乐太阳城| 闲和庄百家乐官网赌场娱乐网规则| 百家乐官网代理龙虎| 大发888娱乐场老虎机| 凯发百家乐是否是程序控制| 百家乐官网网站那个诚信好 | 网络百家乐官网模拟投注| 网络赌球| 大发888手机下载| 鑫鼎百家乐娱乐城| 做生意讲究风水吗| 真人百家乐官网蓝盾娱乐网| 襄垣县| 大发888怎么开户| 瑞士百家乐的玩法技巧和规则| 打百家乐如何赢分| 真人百家乐官网是真的吗| 玩百家乐官网游戏经验| 尊龙国际注册| 大发888手机版亚洲城| 综合百家乐博彩论坛| 百家乐双龙出海注码法|