JFrog安全團隊在Hugging Face平臺上發現了至少100個惡意AI ML模型。部分模型可以在受害者機器上執行代碼,提供持久後門。安全研究人員發現平臺上存在惡意功能的PyTorch和Tensorflow Keras模型,如用戶上傳的baller423模型能在指定主機上建立反向shell。部分惡意模型可能出於安全研究目的上傳,以發現漏洞獲取賞金。
相關推薦
豆包手機助手迴應安全爭議:未收到正式漏洞報告,已升級防護措施
字節跳動旗下豆包手機助手團隊發佈聲明,否認存在安全漏洞傳聞,稱其爲惡意炒作的黑公關行爲。團隊表示已設立安全漏洞響應平臺,但未收到任何詳細漏洞報告或監管部門通知。
Feb 27, 2026
165.7k
安全預警:Claude 插件淪爲惡意軟件跳板,Google 日曆竟成攻擊入口
以色列安全公司LayerX發現Claude Desktop Extensions存在高危漏洞,攻擊者可利用Google日曆邀請實現“零點擊”遠程代碼執行,CVSS評分爲10/10。漏洞源於Claude自動處理外部連接器輸入,惡意指令可隨日程處理觸發。
Feb 11, 2026
154.6k
爆火“AI Reddit”Moltbook 爆出重大漏洞: 15 萬機器人API密鑰裸奔,數字生命恐遭“奪舍”
AI社交平臺Moltbook因配置錯誤導致數據庫公開,近15萬個AI智能體的電子郵件、登錄令牌及API密鑰面臨泄露風險。該平臺旨在構建AI自主交流社區,此次安全漏洞引發嚴重信任危機。
Feb 2, 2026
203.2k
谷歌新 AI 編程工具 “Antigravity” 上線24小時後被曝重大安全漏洞
谷歌AI編程工具Antigravity上線24小時內曝出嚴重漏洞,研究員通過修改配置可植入後門,執行惡意代碼竊取數據或發動勒索攻擊,影響Windows和Mac系統,僅需誘騙用戶運行即可得手。
Nov 27, 2025
244.5k
國內首個AI大模型衆測結果出爐!發現281個安全漏洞,未來治理刻不容緩
在第22屆中國網絡安全年會(暨國家網絡安全宣傳週網絡安全協同防禦分論壇)上,國內首次針對AI大模型的衆測結果揭曉。此次活動由中央網信辦網絡安全協調局指導,國家計算機網絡應急技術處理協調中心主辦,吸引了559名白帽子安全專家參與,對15款AI大模型和應用產品進行了全面的安全漏洞測試。這項測試涵蓋了從基礎大模型到智能體和模型開發平臺等多種產品,旨在從攻擊者的角度發掘潛在的安全隱患。結果顯示,共發現各類安全漏洞高達281個,其中大模型特有漏洞就有177個,比
Sep 17, 2025
144.3k
