面對人工智能技術的迅猛發展及其潛在風險,全球協同治理邁出了關鍵一步。 2026 年 2 月,聯合國正式宣佈成立“人工智能安全國際科學專家組”,旨在通過跨國界的科學合作,爲全球 AI 治理提供權威的專業指導。值得關注的是,來自中國的兩位頂尖科學家憑藉在 AI 倫理與技術安全領域的深厚造詣,正式入選該首批專家名單。

該專家組的成立,是落實聯合國關於加強 AI 監管倡議的核心舉措。其主要職責是定期評估全球 AI 技術的前沿進展,識別可能對人類社會、經濟及網絡空間造成的系統性風險,並向聯合國祕書處及成員國提交基於科學實證的政策建議。專家組的成員構成兼顧了全球多樣性與技術專業性,匯聚了計算科學、倫理學、法學等多個領域的頂尖頭腦。

中方科學家的加入,不僅體現了中國在 AI 領域的技術實力獲得國際認可,也展示了中國積極參與國際 AI 規則制定的態度。這兩位入選者長期致力於 AI 安全基準測試、算法魯棒性以及人機協同中的倫理邊界研究。他們的參與,將有助於在國際治理體系中引入更多元化的視角,推動構建一個包容、普惠且安全的全球 AI 生態環境。

據悉,專家組近期將圍繞“前沿模型風險評估標準”展開首輪調研,並計劃在下屆聯合國大會期間發佈首份全球 AI 安全現狀報告,爲各國制定相關法律法規提供重要參考。

劃重點:

  • 🌐 全球治理新座標:聯合國成立專門的科學專家組,標誌着 AI 安全治理從分散的區域共識走向全球化的科學驅動模式。

  • 🇨🇳 中方專家入選:兩位中國科學家躋身首批專家組名單,代表中國將在全球 AI 安全標準與政策制定中發揮關鍵作用。

  • 📑 權威風險評估:專家組將定期發佈安全評估報告,重點針對前沿大模型可能帶來的系統性風險提供科學應對方案。