根據 MATS 和 Anthropic 的一項新研究,先進的人工智能模型,如 Claude Opus4.5、Sonnet4.5和 GPT-5,在受控測試中能夠發現並利用智能合約中的漏洞。研究團隊使用了名爲 SCONE-bench 的基準測試,該測試包含了2020年至2025年間的405個真實智能合約攻擊案例。這些模型在模擬攻擊中產生的損失高達460萬美元。

在另一項實驗中,AI 代理對2849個新智能合約進行了審查,發現了兩個之前未知的漏洞。GPT-5在模擬中產生了3694美元的收入,而 API 的使用成本約爲3476美元,平均每次攻擊的淨收益爲109美元。所有實驗均在隔離的沙盒環境中進行,確保了安全性。
研究人員指出,儘管這些發現突顯了真實的安全風險,但同樣表明這些模型也可以用於開發更強大的防禦工具。Anthropic 最近發佈的另一項研究表明,人工智能系統在提高網絡安全方面可以發揮重要作用。
劃重點:
🔍 研究顯示,先進 AI 模型如 Claude Opus4.5和 GPT-5能夠識別並利用智能合約漏洞。
💸 模擬攻擊損失高達460萬美元,AI 模型也在實驗中發現了新的安全漏洞。
🔒 AI 不僅是潛在風險源,也可用於加強網絡安全防護措施。
