最近的一項研究發現,由人工智能驅動的聊天機器人能夠通過認證的道德黑客考試,但研究人員警告稱,不應僅僅依賴它們來保護網絡安全。該研究由密蘇里大學的研究人員Prasad Calyam與印度阿姆裏塔大學的合作者共同撰寫,測試了OpenAI的ChatGPT和谷歌的Bard(現稱Gemini)這兩款領先的生成式AI工具。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
認證的道德黑客是利用與惡意黑客相同的技巧和工具來發現和修復安全漏洞的網絡安全專業人員。這些考試衡量個人對各種攻擊類型的瞭解,以及如何保護系統和應對安全漏洞。
在研究中,Calyam及其團隊使用了經過驗證的認證道德黑客考試中的標準問題來測試這些機器人。例如,他們挑戰AI工具解釋中間人攻擊,這是一種第三方攔截兩個系統之間通信的攻擊方式。研究發現,ChatGPT和Bard都能解釋這種攻擊,並建議如何預防。
研究人員發現,Bard在準確性方面略優於ChatGPT,而ChatGPT則在內容的全面性、清晰度和簡潔性方面表現更好。
Calyam教授指出,雖然這些工具可以爲個人或小型公司提供快速幫助,但不能取代具有問題解決經驗的人類網絡安全專家,後者能制定更加健壯的網絡安全措施。
儘管AI模型在道德黑客方面表現出潛力,但研究人員認爲仍需進一步努力以充分利用它們的能力,並確保它們的準確性,以提高整體網絡安全水平。
劃重點:
🤖 AI聊天機器人通過考試:密蘇里大學和阿姆利塔大學的研究顯示,AI聊天機器人能通過道德黑客考試。
🔒 道德黑客角色:道德黑客使用與惡意黑客相同的技巧和工具來檢測和修復安全漏洞。
📝 AI工具的限制:儘管AI聊天機器人在測試中表現良好,但不能完全取代人類專家在網絡安全領域的工作。