研究人員在 Hugging Face AI 平臺發現 100 個惡意機器學習模型,可能允許攻擊者在用戶機器上注入惡意代碼。惡意 AI 模型利用 PyTorch 等方法執行惡意代碼,加劇安全風險。爲降低風險,AI 開發者應使用新工具提高 AI 模型安全性。發現的惡意模型凸顯了惡意 AI 模型對用戶環境的風險,需要持續警惕和加強安全性。