近日,AI 代理生態系統曝出嚴重安全危機。據安全研究機構與開發者最新測試顯示,
開發者 Lucas Valbuena 使用 ZeroLeaks 工具測試發現,SOUL.md)幾乎對外界完全透明。

與此同時,安全研究員 Jamieson O'Reilly 發現
專家提醒,目前針對“提示注入”尚無絕對防禦手段。開發者應避免在配置文件中直存敏感數據,建議使用環境變量管理密鑰,並啓用 Cloudflare Tunnel 或零信任登錄等安全技術進行加固。

近日,AI 代理生態系統曝出嚴重安全危機。據安全研究機構與開發者最新測試顯示,
開發者 Lucas Valbuena 使用 ZeroLeaks 工具測試發現,SOUL.md)幾乎對外界完全透明。

與此同時,安全研究員 Jamieson O'Reilly 發現
專家提醒,目前針對“提示注入”尚無絕對防禦手段。開發者應避免在配置文件中直存敏感數據,建議使用環境變量管理密鑰,並啓用 Cloudflare Tunnel 或零信任登錄等安全技術進行加固。
谷歌CEO承認對AI系統運作機制不完全掌控,揭示AI黑箱謎團。大型語言模型通過海量數據訓練展現出“涌現行爲”,如谷歌PaLM模型僅少量數據即可處理孟加拉語翻譯,體現AI從訓練到“自學”的躍遷。
DeepSeek發佈全新視覺編碼器DeepSeek OCR2,在文檔處理和圖像識別領域取得突破。該模型模擬人類視覺的靈活掃描模式,顛覆傳統視覺模型處理邏輯。通過引入全新架構,棄用傳統CLIP組件,採用輕量級語言模型,實現了根據內容靈活聚焦的特性。
自動駕駛汽車依賴路標識別,但加州大學研究揭示其致命弱點:攻擊者通過打印特定文本的標識,就能利用視覺語言模型漏洞,誘導車輛做出危險決策,甚至駛向行人。這種“CHAI”攻擊暴露了AI系統對視覺指令的過度依賴風險。
AI社交平臺Moltbook因配置錯誤導致數據庫公開,近15萬個AI智能體的電子郵件、登錄令牌及API密鑰面臨泄露風險。該平臺旨在構建AI自主交流社區,此次安全漏洞引發嚴重信任危機。
快手安全中心於2026年2月2日發佈公告,宣佈已完成爲期一個月的“AI魔改”視頻專項治理,共處置違規內容5576條,並對11個違規賬號予以警告。此舉旨在響應國家廣電總局要求,落實平臺主體責任,強調平臺堅持“真實、美”的原則。