在現代科技飛速發展的今天,人工智能尤其是大型語言模型(LLMs)正逐漸成爲焦點。然而,美國的網絡安全法律似乎跟不上這個快速變化的領域。最近,哈佛大學的一組學者在黑帽大會上指出,現行的《計算機欺詐和濫用法》(CFAA)並不能有效保護那些從事 AI 安全研究的人,反而可能讓他們面臨法律風險。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
這些學者包括哈佛法學院的凱德拉・阿爾伯特(Kendra Albert)、拉姆・尚卡爾・西瓦庫馬爾(Ram Shankar Siva Kumar)和喬納森・佩尼(Jonathon Penney)。阿爾伯特在接受採訪時提到,現有的法律對於像 “提示注入攻擊” 這樣的行爲並沒有明確的界定,這使得研究人員很難判斷他們的行爲是否觸犯了法律。她表示,雖然某些行爲如未經許可訪問模型是明確違法的,但如果研究人員已經獲得了使用 AI 系統的權限,卻在其不希望的方式下使用這些模型,是否就構成了違法,這就變得模糊不清。
2021年,美國最高法院的 “範布倫訴美國” 案改變了對 CFAA 的解釋,規定該法只適用於那些未經授權訪問計算機內部信息的人。這一判決在傳統計算機系統中有其意義,但在涉及大型語言模型時就顯得捉襟見肘。阿爾伯特指出,使用自然語言與 AI 交互的方式,使得這種法律界定變得更加複雜,很多時候,AI 的響應並不等同於從數據庫中檢索信息。
與此同時,西瓦庫馬爾也提到,關於 AI 安全研究的法律討論遠不及版權等問題受到重視,他自己也不確定是否在進行某些攻擊測試時會受到保護。阿爾伯特則表示,鑑於現有法律的不確定性,未來可能會在法庭上通過訴訟來釐清這一問題,但目前卻讓很多 “好心的” 研究人員感到無所適從。
在這個法律環境下,阿爾伯特建議安全研究人員最好尋求法律支持,以確保自己的行動不會觸犯法律。她還擔心,模糊的法律條款可能會導致有潛力的研究人員被嚇退,反而讓惡意攻擊者得以逍遙法外,造成更大的安全隱患。
劃重點:
🛡️ 美國《計算機欺詐和濫用法》對 AI 安全研究者的保護不足,可能面臨法律風險。
💡 現行法律對提示注入攻擊等行爲缺乏明確界定,導致研究人員難以判斷合法性。
⚖️ 學者們認爲,未來可能需要通過法庭訴訟來釐清相關法律條款,保護善意研究者。
