最近,AI界多位大佬在線上展開激烈討論,圍繞人工智能可能存在的風險、是否需要監管等問題針鋒相對。以吳恩達和Hinton爲代表的兩派人分別表達了不同觀點。吳恩達等人主張開放創新,認爲過度監管會扼殺創新;Hinton等人則提出AI潛在風險,需要謹慎對待。此事引發廣泛關注,凸顯AI監管問題的複雜性,需要在技術進步和社會風險之間找到平衡。
相關推薦
僅需250份文件!AI模型也能被 “洗腦” 的驚人發現
最新研究顯示,ChatGPT等大語言模型易受數據中毒攻擊,僅需約250份污染文件即可植入後門,改變模型迴應,暴露AI安全脆弱性,引發對現有防護措施的反思。
Oct 20, 2025
141.4k
Anthropic 突破性發現:僅250份中毒文件即可攻破大型 AI 模型
研究表明,僅需250份投毒文件即可在大型語言模型中植入後門,且攻擊效果與模型大小無關。測試涵蓋6億至130億參數模型,發現即使使用更乾淨數據訓練的大模型,所需中毒文檔數量不變,挑戰了傳統認知。
Oct 11, 2025
147.0k
OpenAI 被指通過警方施壓 AI 監管倡導者
OpenAI被指控派警察到AI監管倡導者Nathan Calvin家中遞送傳票,要求其提供個人信息。Calvin是Encode AI組織律師,致力於推動AI政策。他在社交媒體披露,事件發生在與妻子準備晚餐時,警長助理上門送達傳票,內容涉及組織事務及加州立法相關個人資料。
Oct 11, 2025
102.0k
阿里雲發佈安全護欄新寵Qwen3Guard 旨在爲人工智能提供可靠的安全保障
阿里雲通義團隊9月28日推出Qwen3Guard,這是Qwen家族首款安全護欄模型。基於Qwen3架構專項微調,旨在提升AI交互安全性,精準識別用戶輸入和AI回覆中的潛在風險,提供可靠防護。
Sep 29, 2025
155.4k
華爲與浙大攜手發佈 DeepSeek-R1-Safe 大模型:AI安全與性能完美平衡
在剛剛結束的華爲全聯接大會上,華爲技術有限公司聯合浙江大學推出了國內首個基於昇騰千卡算力平臺的基礎大模型 ——DeepSeek-R1-Safe。這一創新性產品旨在解決當前 AI 領域面臨的安全與性能問題,開創了智能科技的新篇章。浙江大學計算機科學與技術學院的院長任奎在會上詳細介紹了這一模型的核心創新。DeepSeek-R1-Safe 是通過一個全流程的安全後訓練框架構建而成,涵蓋了高質量的安全語料庫、平衡優化的安全訓練以及自主創新的軟硬件平臺。這一框架的設計旨在從底層解決 AI 模型在
Sep 22, 2025
147.1k
