JFrog安全团队在Hugging Face平台上发现了至少100个恶意AI ML模型。部分模型可以在受害者机器上执行代码,提供持久后门。安全研究人员发现平台上存在恶意功能的PyTorch和Tensorflow Keras模型,如用户上传的baller423模型能在指定主机上建立反向shell。部分恶意模型可能出于安全研究目的上传,以发现漏洞获取赏金。
相关推荐
豆包手机助手回应安全争议:未收到正式漏洞报告,已升级防护措施
字节跳动旗下豆包手机助手团队发布声明,否认存在安全漏洞传闻,称其为恶意炒作的黑公关行为。团队表示已设立安全漏洞响应平台,但未收到任何详细漏洞报告或监管部门通知。
2026年2月27号 15:50
150.8k
安全预警:Claude 插件沦为恶意软件跳板,Google 日历竟成攻击入口
以色列安全公司LayerX发现Claude Desktop Extensions存在高危漏洞,攻击者可利用Google日历邀请实现“零点击”远程代码执行,CVSS评分为10/10。漏洞源于Claude自动处理外部连接器输入,恶意指令可随日程处理触发。
2026年2月11号 9:52
154.6k
爆火“AI Reddit”Moltbook 爆出重大漏洞: 15 万机器人API密钥裸奔,数字生命恐遭“夺舍”
AI社交平台Moltbook因配置错误导致数据库公开,近15万个AI智能体的电子邮件、登录令牌及API密钥面临泄露风险。该平台旨在构建AI自主交流社区,此次安全漏洞引发严重信任危机。
2026年2月2号 16:38
203.2k
谷歌新 AI 编程工具 “Antigravity” 上线24小时后被曝重大安全漏洞
谷歌AI编程工具Antigravity上线24小时内曝出严重漏洞,研究员通过修改配置可植入后门,执行恶意代码窃取数据或发动勒索攻击,影响Windows和Mac系统,仅需诱骗用户运行即可得手。
2025年11月27号 16:17
229.6k
国内首个AI大模型众测结果出炉!发现281个安全漏洞,未来治理刻不容缓
在第22届中国网络安全年会(暨国家网络安全宣传周网络安全协同防御分论坛)上,国内首次针对AI大模型的众测结果揭晓。此次活动由中央网信办网络安全协调局指导,国家计算机网络应急技术处理协调中心主办,吸引了559名白帽子安全专家参与,对15款AI大模型和应用产品进行了全面的安全漏洞测试。这项测试涵盖了从基础大模型到智能体和模型开发平台等多种产品,旨在从攻击者的角度发掘潜在的安全隐患。结果显示,共发现各类安全漏洞高达281个,其中大模型特有漏洞就有177个,比
2025年9月17号 8:54
144.3k
