近期,國家安全部發布警告,提醒公衆注意人工智能領域的數據污染問題。隨着人工智能技術在社會經濟中扮演越來越重要的角色,訓練數據的質量顯得尤爲關鍵。國家安全部指出,虛假信息、偏見觀點以及其他不良數據正嚴重影響 AI 的性能,給社會帶來了新的安全隱患。

黑客,代碼,程序員

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

人工智能的核心要素包括算法、算力和數據,其中數據是訓練 AI 模型的重要基礎。大量高質量的數據能夠幫助 AI 更好地學習內在規律,實現智能決策與內容生成。然而,當數據中摻雜了虛假信息時,就會對 AI 模型產生嚴重的負面影響。研究表明,僅有0.01% 的虛假文本就能導致 AI 系統輸出有害內容的概率增加11.2%。即便是0.001% 的虛假文本,也會導致有害輸出上升7.2%。

數據污染不僅會影響 AI 模型的準確性和性能,還可能導致一系列現實風險。例如,在金融領域,不法分子可能利用 AI 生成的虛假信息來操縱市場,導致股價異常波動。在公共安全方面,數據污染可能誤導輿論,甚至引發社會恐慌。而在醫療健康領域,虛假的數據可能導致錯誤的診療建議,危害患者的生命安全。

爲了應對數據污染帶來的威脅,國家安全部建議加強源頭監管,防止污染數據的產生。依據《網絡安全法》《數據安全法》和《個人信息保護法》等法律,建立 AI 數據的分類分級保護制度,確保數據的安全性。同時,還需強化風險評估,保障數據在全生命週期內的安全流通。此外,定期對受污染的數據進行清洗和修復,以構建有效的數據治理框架,從根本上提高 AI 的數據安全能力。

國家安全部的發文提醒我們,面對人工智能快速發展的時代,確保數據的真實與安全是維護社會各領域安全的重要一環。

劃重點:

 🔍 僅0.01% 的虛假文本就會導致 AI 有害輸出增加11.2%,提醒公衆注意數據質量。

⚠️ 數據污染可能在金融、公共安全和醫療等領域引發重大風險,影響社會穩定。

🛡️ 國家安全部呼籲加強數據監管與清洗,確保 AI 技術的健康發展與應用安全。