非營利組織生命未來研究所(Future of Life Institute)發佈《AI 安全指數2025》報告,對 OpenAI、Anthropic、Google DeepMind 等20餘家頭部企業進行安全評估。結果顯示,頭部廠商在“生存風險控制”“安全流程披露”兩項核心指標上集體不及格,行業平均得分僅爲42/100,遠低於歐盟《人工智能實踐準則》要求。
報告要點
- 風險評估:僅3家企業公開系統性風險識別方法;OpenAI、DeepMind 未披露“超級智能對齊”技術細節
- 安全框架:缺乏跨部門安全官、紅隊演練記錄與第三方審計,被批“承諾多、證據少”
- 生存安全:所有受評公司均未給出“比人類更聰明系統”的明確控制與協調方案,被認定爲“結構性弱點”
- 信息透明:信息披露深度、可衡量性平均落後官方準則30個百分點
FLI 倡議
報告呼籲立即設立“AI 安全透明登記簿”,強制企業公開安全方法、評估結果與獨立審計;同時建議監管機構對通用人工智能(AGI)項目實施“上市前審批”制度,避免“先發布、後治理”。
行業迴應
OpenAI 發言人表示“已收到報告,將在90天內公開更新版安全框架”;Google DeepMind 則稱“正與政策團隊評估具體建議”。歐盟委員會內部市場專員迴應稱,2026年《AI 法案》執法將參考該指數,違規企業最高面臨全球營業額2% 罰款。
市場影響
分析師指出,安全合規或成爲下一代大模型的“隱形門票”,預計2026年起頭部廠商將把10%–15% 研發預算投入安全與審計,以換取監管綠燈。
