英國政府正在就一項針對AI訓練的“選擇退出”版權制度進行諮詢,該制度將要求權利持有者採取積極措施,以防止其知識產權成爲AI訓練的免費素材。
隨着大量數據訓練的生成式AI模型的興起,知識產權問題日益凸顯。許多創意人士強烈反對在未經許可(或補償)的情況下,其作品被用於訓練AI技術,而這些技術又會生成與之競爭的內容,包括文本、視覺、音頻或三者的組合。

視覺藝術、音樂、電影製作和電子遊戲等領域都可能成爲生成式AI的目標。這種AI使用高度可擴展的AI工具取代了傳統的(熟練的)人工生產過程,只需通過提示來觸發模型,即可根據訓練數據中信息模式的統計分析,立即生成內容。
隨着全球目光聚焦於OpenAI的GPT等大型語言模型(LLMs),以及基於此的流行聊天機器人ChatGPT,AI初創公司悄悄抓取網絡數據進行模型開發的時代已經過去。
目前,AI公司正在通過許可協議來獲取特定類型的內容用於訓練數據,同時,越來越多的訴訟正在挑戰未經許可使用知識產權進行AI訓練的行爲。
這種情況迫切需要法律上的明確性,而英國政府表示,希望通過這次諮詢,爲決策者在這一棘手領域制定政策提供依據。未來的英國政策制定可能會包括“提供法律確定性”的立法,儘管政府表示尚未就此做出決定。
目前,英國政府正試圖在支持英國創意產業和促進AI投資及應用之間取得平衡。然而,這種做法看起來像是試圖模糊一種傾向於AI行業的立場。
英國政府在諮詢的部長級前言中寫道:“我們的創意產業和AI領域都是英國的優勢。它們對我們發展經濟的國家使命至關重要。本次諮詢旨在制定版權和AI框架,獎勵人類創造力,鼓勵創新,併爲這兩個行業的長期增長提供法律確定性。”
毫無疑問,爲AI訓練使用知識產權設置“選擇退出”制度,將使創意人員承擔保護其作品的責任。這種情況可能會使小型創意人員與大型權利持有人相比處於不利地位。因此,這種做法不太可能在創意領域普遍或廣泛受到歡迎。
而AI公司一直在積極遊說推行這種“選擇退出”制度。
政府在諮詢文件中表示:“該提案包括一項權利持有人保留其權利的機制,使其能夠許可其作品用於AI訓練並獲得報酬。與此同時,我們建議設立一個例外,以支持AI開發人員大規模使用各種材料,前提是這些材料的權利未被保留。”“這種方法將平衡權利持有人尋求報酬的能力,同時爲AI訓練使用版權材料提供明確的法律基礎,從而使開發人員能夠在英國訓練領先的模型,同時尊重權利持有人的權利。”
政府還指出,其針對創意產業和AI產業的“關鍵目標”包括“促進這兩個行業之間更大的信任和透明度”。
其明確的目標是支持權利持有人控制其內容,並獲得使用報酬,以及通過確保廣泛合法地訪問高質量數據來開發“英國世界領先的AI模型”。如果最終結果不是貶低其中一個行業的利益,顯然需要一些巧妙的手段。
就目前的情況來看,AI行業似乎從工黨政府那裏獲得了更好的待遇。
儘管如此,部長們強調,政府最終提出的任何“干預措施”都必須解決AI行業缺乏透明度的問題。因此,儘管政府將擬議的“選擇退出”制度定位爲“平衡的”,但也明確表示,“AI開發人員的更大透明度”是該方法奏效的先決條件。
具體而言,政府表示,這意味着“公開他們用來訓練模型的材料、他們如何獲取這些材料,以及他們的模型生成的內容”。政府補充說:“這對於加強信任至關重要,我們正在就如何最好地實現這一目標徵求意見。”
另一項政府強調的“選擇退出”制度有效運作所必需的要素是開發“簡單技術手段,使創作者可以單獨或集體行使權利”。
“這將需要AI公司和創意產業共同合作,創建新的技術系統,以實現對知識產權更大程度的控制和許可的預期結果,”政府還建議。
政府補充說:“這種方法旨在保護我們的創意產業和AI行業的利益。但是,成功地實現這一目標並非易事。這需要實際的技術解決方案以及良好的政策。我們對此持開放態度,但我們樂觀地認爲,通過跨部門和跨行業的合作,我們可以取得成功。”
該諮詢將持續10周,於2025年2月25日結束。可以通過在線調查提交網絡回覆。
政府還表示:“隨着AI的快速發展,英國的應對措施必須進行調整。”並將本次諮詢定位爲“任何對這些問題感興趣的人分享他們的觀點並提供有關這些提案經濟影響的證據的機會”,並承諾在諮詢期間開展“更廣泛的參與活動”,以“確保聽到所有觀點”。