Meta 近日發佈了一項新的風險政策框架,旨在評估和降低前沿 AI 模型所帶來的風險,並在必要時停止開發或限制這些系統的發佈。該框架名爲 “前沿 AI 框架”,詳細闡述了 Meta 將如何將 AI 模型分爲高風險和關鍵風險兩類,並據此採取相應措施,以將風險降低到 “可容忍的水平”。

Facebook 元宇宙 meta

在這個框架中,關鍵風險被定義爲能夠獨特地促成特定威脅場景的執行。而高風險則意味着模型可能顯著提升實現威脅場景的可能性,但並不直接促成執行。威脅場景包括生物武器的擴散,其能力可與已知的生物劑相提並論,以及通過大規模長篇欺詐和詐騙造成的對個人或公司的廣泛經濟損害。

對於達到關鍵風險閾值的模型,Meta 將停止開發,並僅向少數專家開放該模型的訪問權限,同時在技術上可行且商業上可行的情況下,實施安全保護以防止黑客攻擊或數據外泄。對於高風險模型,Meta 則會限制訪問權限,並採取減緩風險的措施,以將風險降低到中等水平,確保該模型不會顯著提升威脅場景的執行能力。

Meta 表示,其風險評估過程將涉及多學科的專家和公司內部的領導,確保各方面的意見都能得到充分考慮。這一新框架僅適用於該公司的最先進模型和系統,這些模型的能力匹配或超過當前技術水平。

Meta 希望,通過分享其先進 AI 系統的開發方法,能夠提升透明度,促進外界對 AI 評估和風險量化科學的討論與研究。同時,該公司強調,針對 AI 評估的決策過程將隨着技術的發展不斷演進和完善,包括確保其測試環境的結果能夠真實反映模型在實際運行中的表現。

劃重點:

🌟 Meta 推出新風險政策框架,以評估和降低前沿 AI 模型的風險。  

🔒 關鍵風險模型將停止開發,並限制專家訪問;高風險模型將實施訪問限制和減緩措施。  

🧑‍🏫 風險評估過程將涉及多學科專家,力求提高透明度和科學性。