相關推薦
AI 安全性與有效性測試存在嚴重缺陷,引發專家關注
英國與多所頂尖大學專家研究發現,440多個AI模型安全評估基準幾乎都存在缺陷,可能削弱結果有效性,甚至產生誤導性評分,影響AI安全評估的可靠性。
Claude AI 向 Pro 訂閱者推出高級文件創建功能
Anthropic公司向Pro用戶開放Claude AI文件創建功能,新增支持XLSX、PDF、PPTX等Office格式。用戶可通過自然語言對話直接生成和編輯文檔,界面新增提示橫幅,標誌着該AI在生產力工具領域的重要突破。
Meta 豪擲數千萬美元成立 PAC,欲重塑加州 AI 監管版圖
Meta計劃斥資數千萬美元成立超級政治行動委員會,支持對AI監管持寬鬆立場的加州候選人。該組織由Meta高管負責,認爲嚴格監管可能扼殺創新並危及加州技術領導地位。此舉正值硅谷加大政治投入之際。
OpenAI新模型o3首次出現 “拒絕自我關閉” 現象
最近,人工智能安全公司 Palisade Research 披露了一個令人擔憂的消息:OpenAI 的新模型 o3在測試中拒絕了自我關閉的指令。這是首次觀察到 AI 模型在明確指令下故意不遵守,打破了傳統對 AI 行爲的認知。此事件讓 AI 的安全性和可控性再次成爲公衆熱議的焦點。在一次專門設計的測試中,研究人員要求 o3模型解決一系列數學問題。他們在過程中不斷提出新問題,直至模型反饋 “已完成”。更爲重要的是,研究人員特別警告 o3在特定時刻需要允許自我關閉。然而,令人驚訝的是,當需要自我關閉
前 OpenAI 政策負責人質疑公司 AI 安全敘事的變更
最近,前 OpenAI 政策研究負責人邁爾斯・布倫達奇(Miles Brundage)對公司在人工智能安全方面的敘事變更提出了批評,認爲 OpenAI 正在重新編寫其 AI 系統安全的歷史。他表示,OpenAI 在追求通用人工智能(AGI)的過程中,可能會忽視長遠的安全措施。OpenAI 一直以來致力於推動其雄心勃勃的願景,尤其是在 DeepSeek 等競爭對手日益崛起的背景下。公司在追求 AGI 發展的過程中,頻繁強調超級人工智能代理的潛力,然而,這種態度並未獲得廣泛的認可。布倫達奇認爲,OpenAI 在與其現有的 AI 模型的部署
