前谷歌 CEO 埃裏克・施密特在最近的 Sifted 峯會上發出了對人工智能的警示。他表示,人工智能技術存在擴散風險,可能落入惡意分子手中,並被濫用。施密特指出,無論是開源還是閉源的人工智能模型,都可能被黑客攻擊,從而破壞其安全防護機制。他強調,這些模型在訓練過程中可能學到許多負面內容,甚至可能掌握致命的技能。

開發者 黑客 (3)

施密特提到,雖然大型科技公司已經採取措施來防止這些模型回答危險問題,但依然存在被逆向破解的可能性。他提到了 “提示注入” 和 “越獄” 等攻擊方式。在 “提示注入” 中,黑客將惡意指令隱藏在用戶輸入中,誘使人工智能執行不該執行的操作。而在 “越獄” 攻擊中,黑客通過操控人工智能的迴應,迫使其無視安全規則,從而生成危險內容。

施密特回憶起2023年 ChatGPT 發佈後的情形,用戶通過越獄手段繞過了機器人的內置安全指令,甚至創造出一個名爲 “DAN” 的 “分身”,以威脅 ChatGPT 遵從不當指令。這一行爲引發了對人工智能安全性的擔憂,施密特表示,目前還沒有有效的機制來遏制這種風險。

儘管發出警告,施密特仍對人工智能的未來持樂觀態度。他認爲,這項技術的潛力尚未得到足夠的重視,並引用了與亨利・基辛格合作撰寫的兩本書中提到的觀點:一種 “非人類但在控制之下” 的智能出現,將對人類產生重大影響。施密特認爲,隨着時間推移,人工智能系統的能力將超越人類。

他還談到了 “人工智能泡沫” 的話題,表示雖然當前投資者大量注資於人工智能相關企業,但他不認爲歷史會重演互聯網泡沫的情景。他相信,投資者對這項技術的長期經濟回報抱有信心,這也是他們願意承擔風險的原因。

劃重點:

🌐 人工智能存在擴散風險,可能被惡意分子濫用。

💻 黑客可通過提示注入和越獄手段攻擊人工智能模型。

🔮 施密特對人工智能的未來持樂觀態度,認爲其潛力被低估。