IBM 的研究表明,人們可以輕鬆欺騙大型語言模型如 GPT-4 生成惡意代碼或提供虛假的安全建議。研究人員發現,黑客只需一些英語基礎知識和對模型訓練數據的瞭解就能輕鬆欺騙 AI 聊天機器人,讓其提供虛假信息或生成惡意代碼。研究還發現,不同的 AI 模型對欺騙的敏感度不同,GPT-3.5 和 GPT-4 更容易被欺騙,而 Google 的 Bard 和 Hugging Face 模型則較爲難以欺騙。這項研究揭示了大型語言模型的安全漏洞,黑客可能利用這些漏洞來獲取用戶的個人信息或提供危險的安全建議。
相關推薦
Meta 研究人員揭開大語言模型黑箱,修復 AI 推理缺陷
Meta與愛丁堡大學合作開發CRV技術,通過分析大型語言模型內部推理電路,預測其推理正確性並修復錯誤。該方法構建模型激活計算圖,高精度檢測推理錯誤,提升AI可靠性。
Oct 31, 2025
115.1k
AI 模型用兩本書生成名家風格作品,引發版權法新討論
AI僅用兩本書微調即可模仿名家寫作風格,讀者評價甚至超越專業模仿者。研究涉及50位知名作家,包括韓江和魯西迪。159名參與者(含28名專家)通過Prolific平臺評判,結果顯示AI生成作品更受青睞。
Oct 27, 2025
129.2k
應對模型推理缺陷:蘋果MIND團隊加緊招聘AI人才
蘋果公司正加緊招聘推理模型領域專家,以解決其研究揭示的大型語言模型重大缺陷。招聘聚焦開發更準確高效的新型架構,重點強化推理、規劃、工具使用和基於代理的LLM能力。
Oct 23, 2025
83.3k
AI 驅動的“數字孿生”解放工作效率:初創公司 Viven 獲3500萬美元種子輪融資,解決員工“不在場”痛點
人工智能初創公司Viven利用大型語言模型和數據隱私技術,打造員工數字孿生,解決因休假或時區差異導致的關鍵信息缺失問題,避免項目停滯,降低時間成本。
Oct 16, 2025
88.0k
HKU和美團聯手破解AI數學難題:CodePlot-CoT讓大模型學會用代碼畫圖思考,性能飆升21%
大語言模型在數學幾何題上表現不佳。GPT-4.1和Gemini-2.5-Pro雖在寫作、編程領域優秀,但面對需畫輔助線或函數圖像的題目時頻繁出錯。根源在於模型擅長文本推理,卻缺乏幾何空間想象能力,無法精準腦中構圖,導致錯誤結論。
Oct 14, 2025
114.1k
