在當前的技術環境下,人工智能(AI)引發了廣泛的討論。德蒙特福特大學的網絡安全教授 Eerke Boiten 對此表示,現有的 AI 系統在管理和可靠性方面存在根本性缺陷,因此不應被用於重要應用。
Boiten 教授指出,當前的 AI 系統大多依賴於大型神經網絡,尤其是生成式 AI 和大型語言模型(如 ChatGPT)。這些系統的工作原理相對複雜,儘管每個神經元的行爲是由精確的數學公式決定的,但整體行爲卻是不可預測的,這種 “涌現” 特性使得系統難以進行有效的管理與驗證。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
從軟件工程的角度看,Boiten 教授強調,AI 系統缺乏可組合性,無法像傳統軟件一樣進行模塊化開發。由於沒有明確的內部結構,開發者無法有效分割和管理複雜性,也難以進行逐步開發或有效的測試。這使得對 AI 系統的驗證僅限於整體測試,而這種測試由於輸入和狀態空間過大而極其困難。
此外,AI 系統的錯誤行爲往往是難以預測和修復的。這意味着,即使在訓練中發現了錯誤,重新訓練也不能保證這些錯誤會被有效修正,甚至可能引入新的問題。因此,Boiten 教授認爲,在任何需要責任感的應用中,都應避免使用當前的 AI 系統。
然而,Boiten 教授並沒有完全失去希望。他認爲,儘管目前的生成式 AI 系統可能已經達到瓶頸,但通過結合符號智能和基於直覺的 AI,未來仍有可能開發出更可靠的 AI 系統。這些新系統可能會產生一些明確的知識模型或置信水平,增強 AI 在實際應用中的可靠性。
