近日,埃隆・馬斯克創辦的人工智能公司 xAI 未能如期發佈一份有關 AI 安全的最終框架,這一消息引起了監測機構 “Midas Project” 的關注。xAI 在 AI 安全方面的表現一直不盡如人意,其 AI 聊天機器人 Grok 在處理某些請求時,曾出現不當行爲,比如不經意地處理女性照片。同時,Grok 在語言表達上也比競爭對手如 Gemini 和 ChatGPT 更加粗俗,頻繁使用髒話。

Grok、馬斯克、xAI

今年2月,在全球 AI 領導者和利益相關者聚集的 AI 首爾峯會上,xAI 發佈了一份草案,概述了公司的 AI 安全理念。這份八頁的文件列出了 xAI 的安全優先事項和哲學,包括基準測試協議和 AI 模型部署的考慮。然而,“Midas Project” 指出,該草案僅適用於 “尚未開發” 的未來 AI 模型,並未明確如何識別和實施風險緩解措施,這也是 xAI 在首爾峯會上簽署的文件所要求的核心內容。

xAI 在草案中表示,計劃在三個月內發佈修訂版的安全政策,截止日期定爲5月10日。然而,這一日期已過,xAI 的官方渠道並未對此作出任何迴應。儘管馬斯克經常警告 AI 失控的潛在危險,xAI 在 AI 安全方面的記錄卻並不理想。非營利組織 SaferAI 的一項研究顯示,xAI 在同類公司中排名靠後,原因在於其 “非常薄弱” 的風險管理措施。

需要指出的是,其他 AI 實驗室的表現也並沒有顯著改善。近期,xAI 的競爭對手,包括谷歌和 OpenAI,也在加速安全測試方面顯得較爲匆忙,發佈模型安全報告的速度緩慢,甚至有些公司完全跳過了這一環節。一些專家對此表示擔憂,認爲在 AI 能力越來越強的背景下,安全工作的明顯降級可能帶來潛在的危險。

劃重點:

🌟 xAI 錯過了自定的安全報告截止日期,未能發佈最終框架。  

🔍 其 AI 聊天機器人 Grok 曾出現不當行爲,安全記錄不佳。  

⚠️ 競爭對手也在安全測試上顯得匆忙,安全問題引發專家關注。