在技術的世界裏,有一場開發者與管理層之間的“貓鼠遊戲”正在上演。這場遊戲的主角,是那些被公司明令禁止,卻依舊被開發者們悄悄使用的AI編碼工具。
根據雲安全公司Checkmarx的最新全球研究,儘管有15%的公司明確禁止使用AI編碼工具,但幾乎所有的開發團隊(99%)都在使用它們。這一現象揭示了在控制生成式AI使用方面的挑戰。
僅有29%的公司爲生成式AI工具建立了某種形式的治理機制。在70%的情況下,並沒有統一的策略,購買決策由各個部門臨時決定。這種情況讓管理層在控制AI編碼工具的使用上顯得有些力不從心。

隨着AI編碼工具的普及,安全問題也日益凸顯。80%的受訪者擔心開發者使用AI可能帶來的潛在威脅,特別是60%的人對AI產生的“幻覺”問題表示擔憂。
儘管存在擔憂,但人們對AI的潛力仍然充滿興趣。47%的受訪者對允許AI進行無監督的代碼更改持開放態度。僅有6%的人表示他們不會信任AI在軟件環境中的安全措施。
Tzruya表示:“這些全球CISOs的迴應揭示了一個現實,即開發者即使使用AI無法可靠地創建安全代碼,也在應用程序開發中使用AI,這意味着安全團隊需要應對大量新的、易受攻擊的代碼。”
微軟的工作趨勢指數最近的報告也顯示了類似的發現,許多員工在沒有提供AI工具的情況下,會使用自己的AI工具。通常,他們不會討論這種使用,這阻礙了生成式AI系統地融入業務流程。
儘管有明文禁止,99%的開發團隊仍然在使用AI工具生成代碼。只有29%的公司爲生成式AI的使用建立了治理機制。70%的情況下,各個部門關於AI工具的使用決策是臨時做出的。與此同時,安全問題也在增長。47%的受訪者對允許AI進行無監督的代碼更改持開放態度。安全團隊面臨着處理大量潛在易受攻擊的AI生成代碼的挑戰。
這場開發者與管理層之間的“貓鼠遊戲”仍在繼續,而AI編碼工具的未來將何去何從,我們拭目以待。
