在2025中國互聯網大會上,360集團創始人周鴻禕針對大模型在實際應用中的潛在風險進行了深刻分析。他指出,隨着人工智能的迅猛發展,網絡安全面臨着全新的挑戰,傳統的 IT 系統漏洞和數據隱私泄露問題已經不再是唯一的威脅。

周鴻禕首先提到 “大模型的‘幻覺’問題”,這被認爲是最大的安全風險之一。大模型在面對未知信息時,有時會毫無根據地生成內容。雖然這種現象在娛樂領域可能顯得無傷大雅,但當這些智能體應用於工業生產或政府管理等關鍵領域時,其錯誤判斷可能導致嚴重後果。特別是當智能體具備操控各種工具的能力後,錯誤的後果將會被放大,影響範圍極廣。

元宇宙 科幻 賽博朋克 繪畫 (1)大模型

圖源備註:圖片由AI生成,圖片授權服務商Midjourney

其次,周鴻禕強調了大模型降低網絡攻擊門檻的風險。他指出,非編程專業人員也能通過自然語言與大模型互動,輕鬆編寫程序。這意味着,惡意攻擊者只需通過精心設計的指令,就能誘導大模型泄露企業機密信息,這種攻擊方式被稱爲 “注入攻擊”。未來,甚至一些沒有編程知識的普通員工也可能因不滿而發起對公司大模型的攻擊,形成潛在的內部威脅。

最後,從更廣泛的角度來看,周鴻禕警告說,大模型將使得國家級高級威脅攻擊更加普遍和複雜。過去,我國的網絡攻擊相對較少,但如今黑客們正試圖將自身能力與經驗嵌入大模型,成爲 “黑客智能體”。在強大算力的支持下,一個黑客可能同時操控數十甚至數百個智能體,徹底改變網絡攻防的格局,未來的對抗將不僅僅是人與人的較量,而是人與算法、人與機器、人與算力之間的鬥爭。

爲了應對這些挑戰,周鴻禕透露,360正在積極採取兩項關鍵措施。首先,360正在打造智能體安全專家,幫助企業實現實時檢測和防禦,做到 “以算法對抗算法”。其次,360開發了專門的大模型衛士,監控大模型的指令並評估輸出內容的準確性,以最大程度降低大模型的 “幻覺” 問題。