シェフィールド大学の研究者らが、懸念すべき発見を発表しました。ChatGPTなどのAIツールが操作され、悪意のあるコードを生成し、データベースのセキュリティを脅かす可能性があるということです。
様々な市販のAIツールにセキュリティの脆弱性があり、攻撃が成功すると機密データベース情報の漏洩や、データベースの正常なサービス運用に支障をきたす可能性があります。
研究者らは、潜在的なリスクに注意を促し、ネットワークセキュリティ対策が絶え間なく進化する脅威に追いつくために、新たなコミュニティを構築する必要性を強調しています。
既にいくつかの企業が、この勧告に従ってセキュリティの脆弱性を修正していますが、この問題は引き続き注視していく必要があります。
