IBM 的研究表明,人們可以輕鬆欺騙大型語言模型如 GPT-4 生成惡意代碼或提供虛假的安全建議。研究人員發現,黑客只需一些英語基礎知識和對模型訓練數據的瞭解就能輕鬆欺騙 AI 聊天機器人,讓其提供虛假信息或生成惡意代碼。研究還發現,不同的 AI 模型對欺騙的敏感度不同,GPT-3.5 和 GPT-4 更容易被欺騙,而 Google 的 Bard 和 Hugging Face 模型則較爲難以欺騙。這項研究揭示了大型語言模型的安全漏洞,黑客可能利用這些漏洞來獲取用戶的個人信息或提供危險的安全建議。
相關推薦
日本科學家發佈“Sui”編程語言,宣稱能讓 LLM100% 準確編寫代碼
日本數據科學家本田崇人推出開源編程語言“Sui”,旨在解決大語言模型生成代碼的準確性問題,宣稱可實現100%準確率。其設計理念源於日本美學“粋”,強調精煉與去除冗餘,核心原則包括保證零語法錯誤率,並使用數字作爲變量。
Dec 17, 2025
138.7k
醫療AI新突破!南洋理工發佈首個電子病歷處理評測標準
南洋理工大學推出首個全面評測大型語言模型處理電子病歷能力的基準EHRStruct,涵蓋11項核心任務、2200個樣本,旨在評估模型在醫療數據理解、信息提取等方面的表現,推動醫療AI發展。
Dec 16, 2025
137.7k
MIT 推出新方法,顯著提升大型語言模型計算效率
MIT研究團隊開發出實例自適應縮放技術,可根據問題複雜度動態調整大型語言模型的計算資源,提升效率並降低能耗。該研究獲多家機構支持,相關論文已於11月初發布。
Dec 9, 2025
170.4k
OpenAI 推出 AI “懺悔”框架:旨在訓練模型承認不當行爲,提高誠實度
OpenAI推出“懺悔”框架,訓練AI模型主動承認不當行爲或問題決策,旨在解決大語言模型因追求“符合預期”而可能產生虛假陳述的問題。該框架引導模型在給出主要答案後進行二次迴應,詳細說明其推理過程。
Dec 4, 2025
140.6k
谷歌 DeepMind 推出 Evo-Memory 基準與 ReMem 框架,推動 LLM 智能體的經驗重用
Evo-Memory是新型智能體框架,通過流式基準評估智能體在連續任務中積累和重用策略的能力,強調動態記憶演變,突破靜態對話記錄限制。
Dec 3, 2025
185.4k
