2024年8月1日,歐盟《人工智能法案》正式生效,標誌着一個嶄新的監管時代到來。這一突破性法規將爲歐盟境內的人工智能應用設定明確的標準和合規性要求。該法案的實施意味着歐盟在人工智能治理方面邁出了重要一步,也體現了歐盟基於風險管理的做法。
該法案針對不同類型的人工智能開發者和應用程序制定了交錯的合規期限。雖然大多數條款要到2026年中期纔會全面適用,但一些關鍵條款將在六個月後開始執行,這包括禁止在特定情況下使用少數人工智能技術,如執法部門在公共場所使用遠程生物識別技術。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
根據歐盟的風險管理方法,人工智能應用被分爲不同風險等級。大多數日常應用被歸類爲低風險或無風險,因此不在此法規監管範圍內。然而,一些可能對個人和公衆造成潛在危害的應用被列爲高風險,如生物識別、面部識別和基於人工智能的醫療軟件。開發這些高風險人工智能技術的公司必須確保其產品符合嚴格的風險和質量管理標準,包括進行全面的一致性評估,並有可能接受監管機構的審計。
此外,聊天機器人等被歸類爲"有限風險"的技術也需滿足一些透明度要求,確保用戶瞭解其使用情況,並防止潛在的誤導或欺詐。
《人工智能法案》還引入了分級的處罰制度。違反禁令使用高風險人工智能應用的公司將面臨嚴厲的處罰,最高可處以相當於公司全球年營業額7%的罰款。其他違規行爲,如不履行風險管理義務或向監管機構提供不正確信息,將被處以不同程度的經濟處罰,最高可達全球年營業額的3%或1.5%。
對於被稱爲通用人工智能(GPAI)的技術,歐盟也制定了專門的規定。大多數GPAI開發者將被要求滿足輕度透明度義務,包括提供訓練數據摘要和遵守版權規則。而只有最強大的GPAI模型被歸類爲可能帶來系統性風險時,才需要採取額外的風險評估和緩解措施。
隨着《人工智能法案》的生效,歐盟的人工智能生態系統迎來了新的篇章。開發者、企業和公共部門現在有了明確的合規路線圖,這將促進人工智能行業的創新和發展,同時確保其應用符合道德和安全標準。
然而,挑戰依然存在。一些具體規定,尤其是針對高風險人工智能系統的要求,仍在制定中。歐洲標準機構正在積極參與這一進程,預計將於2025年4月前完成相關標準的制定工作。