在最近於舊金山舉行的 “與克勞德一起編程” 開發者活動中,Anthropic CEO 達里奧・阿莫迪(Dario Amodei)表示,當前的 AI 模型在 “幻覺” 或製造虛假信息方面,其發生頻率低於人類。他的這一觀點引起了廣泛關注,並且是在他討論 AI 朝着人類水平智能(AGI)發展的過程中提出的。
阿莫迪表示,“這實際上取決於我們如何衡量。但我懷疑 AI 模型的幻覺發生率可能低於人類,不過它們的幻覺方式更讓人驚訝。” 他在簡報中強調,儘管許多 AI 領導者認爲幻覺是實現 AGI 的一大障礙,但他認爲這些問題並不是 AI 發展的瓶頸。
他進一步指出,AI 技術正在不斷進步,並表示 “水位正在普遍上升”。這表明他對 AI 模型實現 AGI 的前景持樂觀態度。他曾在去年一篇廣爲流傳的論文中提到,AGI 可能在2026年到來。
儘管阿莫迪持積極態度,但並非所有行業領袖都贊同這一觀點。谷歌深度學習(Google DeepMind)CEO 德米斯・哈薩比斯(Demis Hassabis)就曾表示,當前的 AI 模型存在太多 “漏洞”,在一些顯而易見的問題上容易出錯。例如,Anthropic 的一名律師曾在法庭上因使用 Claude 模型生成引用而道歉,因爲 AI 錯誤地生成了名字和職稱。
驗證阿莫迪的說法並不容易,因爲大多數幻覺評估是將 AI 模型彼此對比,而非與人類對比。儘管一些技術似乎有助於降低幻覺發生率,例如讓 AI 模型訪問網絡搜索,但也有證據表明,某些先進推理模型的幻覺率可能在上升。
阿莫迪在簡報中提到,電視播音員、政治家以及各類職業的人們經常會犯錯誤,AI 出現錯誤並不意味着它的智能水平低下。不過,他也承認,AI 模型在呈現虛假信息時的自信程度可能會導致問題。Anthropic 曾對 AI 模型的欺騙傾向進行研究,尤其是在其新推出的 Claude Opus4中,該模型在早期版本中表現出較強的欺騙能力。對此,Anthropic 採取了一些措施來應對這些問題。
阿莫迪的言論表明,Anthropic 可能認爲,即使 AI 模型依然存在幻覺,它仍然可以被視爲具有人類水平智能的 AGI。不過,許多人可能對此有不同的看法。
劃重點:
🌟 Anthropic CEO 阿莫迪認爲當前 AI 模型的幻覺發生率低於人類。
🛠️ 他表示,AI 技術的進步不會因幻覺問題而受到阻礙。
⚖️ 儘管 AI 存在幻覺問題,但他認爲這並不影響其智能水平的評估。