自然科學基金委|關于發布可解釋、可通用的下一代人工智能方法重大研究計劃2023年度項目指南的通告
關于發布可解釋、可通用的下一代人工智能方法重大研究計劃2023年度項目指南的通告
國科金發計〔2023〕12號
國家自然科學基金委員會現發布可解釋、可通用的下一代人工智能方法重大研究計劃2023年度項目指南,請申請人及依托單位按項目指南中所述的要求和注意事項申請。
國家自然科學基金委員會
2023年3月31日
可解釋、可通用的下一代人工智能方法重大研究計劃2023年度項目指南
可解釋、可通用的下一代人工智能方法重大研究計劃面向人工智能發展國家重大戰略需求,以人工智能的基礎科學問題為核心,發展人工智能新方法體系,促進我國人工智能基礎研究和人才培養,支撐我國在新一輪國際科技競爭中的主導地位。
一、科學目標
本重大研究計劃面向以深度學習為代表的人工智能方法魯棒性差、可解釋性差、對數據的依賴性強等基礎科學問題,挖掘機器學習的基本原理,發展可解釋、可通用的下一代人工智能方法,并推動人工智能方法在科學領域的創新應用。
二、核心科學問題
本重大研究計劃針對可解釋、可通用的下一代人工智能方法的基礎科學問題,圍繞以下三個核心科學問題開展研究。
?。ㄒ唬┥疃葘W習的基本原理。
深入挖掘深度學習模型對超參數的依賴關系,理解深度學習背后的工作原理,建立深度學習方法的逼近理論、泛化誤差分析理論和優化算法的收斂性理論。
(二)可解釋、可通用的下一代人工智能方法。
通過規則與學習結合的方式,建立高精度、可解釋、可通用且不依賴大量標注數據的人工智能新方法。開發下一代人工智能方法需要的數據庫和模型訓練平臺,完善下一代人工智能方法驅動的基礎設施。
?。ㄈ┟嫦蚩茖W領域的下一代人工智能方法的應用。
發展新物理模型和算法,建設開源科學數據庫、知識庫、物理模型庫和算法庫,推動人工智能新方法在解決科學領域復雜問題上的示范性應用。
三、2023年度資助研究方向
?。ㄒ唬┡嘤椖?。
圍繞上述科學問題,以總體科學目標為牽引,擬以培育項目的方式資助探索性強、選題新穎的申請項目,研究方向如下:
1. 深度學習的表示理論和泛化理論。
研究卷積神經網絡(以及其它帶對稱性的網絡)、圖神經網絡、transformer網絡、循環神經網絡、低精度神經網絡、動態神經網絡、生成擴散模型等模型的泛化誤差分析理論、魯棒性和穩定性理論,并在實際數據集上進行檢驗;研究無監督表示學習、預訓練-微調范式等方法的理論基礎,發展新的泛化分析方法,指導深度學習模型和算法設計。
2. 深度學習的訓練方法。
研究深度學習的損失景觀,包括但不限于:臨界點的分布及其嵌入結構、極小點的連通性等,深度學習中的非凸優化問題、優化算法的正則化理論和收斂行為,神經網絡的過參數化和訓練過程對于超參的依賴性問題、基于極大值原理的訓練方法、訓練時間復雜度等問題,循環神經網絡記憶災難問題、編碼-解碼方法與Mori-Zwanzig方法的關聯特性,發展收斂速度更快、時間復雜度更低的訓練算法及工具,建立卷積網絡、Transformer網絡、擴散模型、混合專家模型等特定模型的優化理論及高效訓練方法,深度學習優化過程對泛化性能的影響等。
3. 微分方程與機器學習。
研究求解微分方程正反問題及解算子逼近的概率機器學習方法;基于生成式擴散概率模型的物理場生成、模擬與補全框架;基于微分方程設計新的機器學習模型,設計和分析網絡結構、加速模型的推理、分析神經網絡的訓練過程。
面向具有實際應用價值的反問題,研究機器學習求解微分方程的魯棒算法;研究傳統微分方程算法和機器學習方法的有效結合方法;研究高維微分方程的正則性理論與算法;研究微分方程解算子的逼近方法(如通過機器學習方法獲得動理學方程、彈性力學方程、流體力學方程、Maxwell方程以及其它常用微分方程的解算子);融合機器學習方法處理科學計算的基礎問題(求解線性方程組、特征值問題等)。
4. 隱私保護的機器學習方法。
針對主流機器學習問題,結合安全多方計算、全同態加密、零知識證明等方法構建具備實用性的可信機器學習環境。發展隱私保護協同訓練和預測方法,發展加密和隱私計算環境的特征聚類、查詢和多模型匯聚方法,發展加密跨域遷移學習方法,發展面向對抗樣本、后門等分析、攻擊、防御和修復方法,研究機器學習框架對模型干擾、破壞和控制方法,發展可控精度的隱私計算方法。
5. 圖神經網絡的新方法。
利用調和分析、粒子方程等數學理論解決深度圖網絡的過度光滑、過度擠壓等問題,針對多智能體網絡協同控制、藥物設計等重要應用場景設計有效的、具有可解釋性的圖表示學習方法。
6. 腦科學啟發的新一代人工智能方法。
發展對大腦信息整合與編碼的定量數學刻畫和計算方法,設計新一代腦啟發的深度神經網絡和循環神經網絡,提高傳統神經網絡的表現性能;建立具有樹突幾何結構和計算功能的人工神經元數學模型,并用于發展包含生物神經元樹突計算的深度神經網絡和循環神經網絡,提高傳統神經網絡的表現性能;發展包含多種生物神經元生理特征和生物神經元網絡結構特點的人工神經網絡及其訓練算法,解決圖像識別、圖像恢復、醫學圖像重構、地震波檢測等應用問題。
7. 數據驅動與知識驅動融合的人工智能方法。
建立數據驅動的機器學習與知識驅動的符號計算相融合的新型人工智能理論和方法,突破神經網絡模型不可解釋的瓶頸;研究知識表示與推理框架、大規模隱式表達的知識獲取、多源異構知識融合、知識融入的預訓練模型、知識數據雙驅動的決策推理等,解決不同場景的應用問題。
8. 生物醫藥領域的人工智能方法。
發展自動化程度高的先導化合物優化方法,建立生物分子序列的深度生成模型,準確、高效生成滿足特定條件(空間結構、功能、物化性質、蛋白環境等)的分子序列;發展蛋白質特征學習的人工智能新方法,用于蛋白質功能、結構、氨基酸突變后親和力與功能改變等預測以及蛋白質與生物分子(蛋白、肽、RNA、配體等)相互作用預測;針對免疫性疾病等臨床表現差異大、預后差等問題,發展序列、結構等抗體多模態數據融合和預測的人工智能模型,用于免疫性疾病的早期診斷和臨床分型等。
9. 科學計算領域的人工智能方法。
針對電子多體問題,建立薛定諤方程數值計算、第一性原理計算、增強采樣、自由能計算、粗?;肿觿恿W等的人工智能方法,探索人工智能方法在電池、電催化、合金、光伏等體系研究中的應用。
針對典型的物理、化學、材料、生物、燃燒等領域的跨尺度問題和動力學問題,通過融合物理模型與人工智能方法,探索復雜體系變量隱含物理關系的挖掘方法,建立構效關系的數學表達,構建具有通用性的跨尺度人工智能輔助計算理論和方法,解決典型復雜多尺度計算問題。
10. 人工智能驅動的下一代微觀科學計算平臺。
發展基于人工智能的高精度、高效率的第一性原理方法;面向物理、化學、材料、生物等領域的實際復雜問題,建立多尺度模型,實現高精度、大尺度和高效率的分子動力學模擬方法;探索建立人工智能與科學計算雙驅動的“軟-硬件協同優化”方法和科學計算專用平臺。
?。ǘ┲攸c支持項目。
圍繞核心科學問題,以總體科學目標為牽引,擬以重點支持項目的方式資助前期研究成果積累較好、對總體科學目標在理論和關鍵技術上能發揮推動作用、具備產學研用基礎的申請項目,研究方向如下:
1. 經典數值方法與人工智能融合的微分方程數值方法。
設計融合經典方法和人工智能方法優勢的新型微分方程數值方法。針對經典數值方法處理復雜區域的困難和人工智能方法效果的不確定性、誤差的不可控性,發展兼具穩定收斂階和簡便性的新型算法;針對彈性力學、流體力學等微分方程,探索其解的復雜度與逼近函數表達能力之間的定量關系;開發針對三維含時問題的高效并行算法,并應用到多孔介質流等問題;發展求解微分方程反問題的新算法并用于求解實際問題。
2. 復雜離散優化的人工智能求解器。
面向混合整數優化、組合優化等離散優化問題,建立人工智能和領域知識結合的可通用的求解器框架;建立高精度求解方法和復雜約束問題的可控近似求解方法;發展超大規模并行求解方法和基于新型計算架構的加速方法;在復雜、高效軟件設計等場景開展可靠性驗證。
3. 開放環境下多智能體協作的智能感知理論與方法。
針對多模態信息融合中由于數據視角、維度、密度、采集和標注難易程度不同而造成的融合難題,研究基于深度學習的融合模型,實現模態一致性并減少融合過程中信息損失;研究輕量級的模態間在線時空對齊方法;研究能容忍模態間非對齊狀態下的融合方法;研究用易采集、易標注模態數據引導的難采集、難標注模態數據的預訓練與微調方法;研究大規模多任務、多模態學習的預訓練方法,實現少樣本/零樣本遷移。
4. 可通用的專業領域人機交互方法。
針對多變輸入信號,建立自動化多語種語言、圖像、視頻等多模態數據生成模型,發展可解釋的多輪交互決策方法;建立機器學習和知識搜索的有效結合方法;探索新方法在不同專業領域場景中的應用。
5. 下一代多模態數據編程框架。
發展面向超大規模多模態數據(文本、圖像、視頻、向量、時間序列、圖等)的存儲、索引、聯合查詢和分析方法。發展一體化的多模態數據編程框架,建立自動化數據生成、評估和篩選方法,實現自動知識發現和自動模型生成性能的突破,并完成超大規模、多模態數據集上的可靠性驗證。
6. 支持下一代人工智能的開放型高質量科學數據庫。
研究跨領域、多模態科學數據的主動發現、統一存儲和統一管理方法。研究基于主動學習的科學數據、科技文獻知識抽取與融合方法。研究跨學科、多尺度科學數據的知識對象標識化、語義化構建方法。研究融合領域知識的多模態預訓練語言模型,開發通用新型數據挖掘方法。形成具有一定國際影響力的覆蓋生命、化學、材料、遙感、空間科學等領域的高質量、通用型科學數據庫,為人工智能驅動的科學研究新范式提供基礎科學數據資源服務。
7. 高精度、可解釋的譜學和影像數據分析方法。
發展光譜、質譜和各類影像數據處理的人工智能方法。建立融合模擬與實驗數據的可解釋“譜-構-效”模型,開發人工智能驅動的光譜實時解讀與反演軟件;基于AlphaFold等蛋白結構預測方法,建立高精度冷凍電鏡蛋白結構反演算法等。
8. 高精度、可解釋的生物大分子設計平臺。
建立人工智能驅動的定向進化方法,助力生物大分子優化設計。發展兼顧數據推斷和物理機制篩選雙重優勢且擴展性高的人工智能方法,輔助物理計算高維勢能面搜索。在醫用酶及大分子藥物設計上助力定向進化實驗,將傳統實驗時間降低50%以上,通過人工智能設計并濕實驗合成不小于3款高活性、高穩定性、高特異性的新型醫用蛋白。發展基于人工智能的新一代生物大分子力場模型,大幅提升大分子模擬計算的可靠性,針對生物、醫藥、材料領域中的分子設計問題,實現化學精度的大尺度分子動力學模擬。
四、項目遴選的基本原則
?。ㄒ唬┚o密圍繞核心科學問題,鼓勵基礎性和交叉性的前沿探索,優先支持原創性研究。
(二)優先支持面向發展下一代人工智能新方法或能推動人工智能新方法在科學領域應用的研究項目。
?。ㄈ┲攸c支持項目應具有良好的研究基礎和前期積累,對總體科學目標有直接貢獻與支撐。
五、2023年度資助計劃
2023年度擬資助培育項目25~30項,直接費用資助強度約為80萬元/項,資助期限為3年,培育項目申請書中研究期限應填寫“2024年1月1日—2026年12月31日”;擬資助重點支持項目6~8項,直接費用資助強度約為300萬元/項,資助期限為4年,重點支持項目申請書中研究期限應填寫“2024年1月1日—2027年12月31日”。
六、申請要求
(一)申請條件。
本重大研究計劃項目申請人應當具備以下條件:
1. 具有承擔基礎研究課題的經歷;
2. 具有高級專業技術職務(職稱)。
在站博士后研究人員、正在攻讀研究生學位以及無工作單位或者所在單位不是依托單位的人員不得作為申請人進行申請。
(二)限項申請規定。
執行《2023年度國家自然科學基金項目指南》“申請規定”中限項申請規定的相關要求。
?。ㄈ┥暾堊⒁馐马棥?/p>
申請人和依托單位應當認真閱讀并執行本項目指南、《2023年度國家自然科學基金項目指南》和《關于2023年度國家自然科學基金項目申請與結題等有關事項的通告》中相關要求。
1. 本重大研究計劃項目實行無紙化申請。申請書提交日期為2023年5月8日—5月15日16時。
2. 項目申請書采用在線方式撰寫。對申請人具體要求如下:
?。?)申請人應當按照科學基金網絡信息系統中重大研究計劃項目的填報說明與撰寫提綱要求在線填寫和提交電子申請書及附件材料。
(2)本重大研究計劃旨在緊密圍繞核心科學問題,將對多學科相關研究進行戰略性的方向引導和優勢整合,成為一個項目集群。申請人應根據本重大研究計劃擬解決的具體科學問題和項目指南公布的擬資助研究方向,自行擬定項目名稱、科學目標、研究內容、技術路線和相應的研究經費等。
(3)申請書中的資助類別選擇“重大研究計劃”,亞類說明選擇“培育項目”或“重點支持項目”,附注說明選擇“可解釋、可通用的下一代人工智能方法”,受理代碼選擇T01,根據申請的具體研究內容選擇不超過5個申請代碼。
培育項目和重點支持項目的合作研究單位不得超過2個。
?。?)申請人在“立項依據與研究內容”部分,應當首先說明申請符合本項目指南中的資助研究方向,以及對解決本重大研究計劃核心科學問題、實現本重大研究計劃總體科學目標的貢獻。
如果申請人已經承擔與本重大研究計劃相關的其他科技計劃項目,應當在申請書正文的“研究基礎與工作條件”部分論述申請項目與其他相關項目的區別與聯系。
3. 依托單位應當按照要求完成依托單位承諾、組織申請以及審核申請材料等工作。在2023年5月15日16時前通過信息系統逐項確認提交本單位電子申請書及附件材料,并于5月16日16時前在線提交本單位項目申請清單。
4. 其他注意事項。
(1)為實現重大研究計劃總體科學目標和多學科集成,獲得資助的項目負責人應當承諾遵守相關數據和資料管理與共享的規定,項目執行過程中應關注與本重大研究計劃其他項目之間的相互支撐關系。
(2)為加強項目的學術交流,促進項目群的形成和多學科交叉與集成,本重大研究計劃將每年舉辦一次資助項目的年度學術交流會,并將不定期地組織相關領域的學術研討會。獲資助項目負責人有義務參加本重大研究計劃指導專家組和管理工作組所組織的上述學術交流活動,并認真開展學術交流。
?。ㄋ模┳稍兎绞?。
國家自然科學基金委員會交叉科學部交叉科學一處
聯系電話:010-62328382
? ? ?
來源:國家自然科學基金委員會
本文地址: http://www.qqxuanwuwg.com/5166.html/ 轉載請注明出處!