在人工智能生成代碼的趨勢日益明顯的背景下,網絡安全領域的首席信息安全官(CISO)們開始擔憂初級開發者對 AI 工具的過度依賴可能會削弱他們的基本技能,從而在未來造成難以忽視的盲點。許多開發者將像 ChatGPT 這樣的 AI 編碼助手視爲提高工作效率的工具,但這種便利也帶來了長遠的風險。
據觀察,初入職場的開發者在系統深度理解方面面臨挑戰。他們能夠生成功能性代碼片段,但往往無法深入解釋其背後的邏輯或確保其安全性。微軟的一項調查也指出,依賴 AI 的員工在工作中更少進行質疑、分析和評估,這可能會影響他們的批判性思維能力。雖然 AI 工具在短期內可以提升效率,但從長遠來看,這種依賴可能會削弱開發者的創新能力和技術適應能力。

一些 CISO 對此表示憂慮,尤其是針對那些重度依賴 AI 工具的初級開發者,他們在工作中往往更關注代碼能否運行,而非其工作原理。依賴 AI 生成的代碼可能導致安全盲點,因爲這些代碼未必能滿足組織的特定安全需求。此外,使用 AI 生成的代碼也可能引發合規性和知識產權方面的法律問題,因爲這類工具可能會不經意間引入未經驗證或具有潛在風險的代碼。
隨着 AI 技術的不斷髮展,組織必須採取適當的措施,以確保開發者在使用 AI 的同時,能夠保持批判性思維和深厚的技術基礎。對此,一些專家建議在招聘時,更加關注候選人的安全推理能力和架構思維,而不僅僅是編碼技能。同時,組織應強化員工的培訓,幫助他們理解 AI 的優勢與侷限,確保在安全敏感的環境中始終保持人類干預。
雖然 AI 爲軟件開發帶來了便利,但過度依賴可能會導致深遠的負面影響。組織需要建立文化,使 AI 成爲輔助工具,而非替代人類深厚專業知識的 “補救措施”。
