先週、イーロン・マスク氏が設立した人工知能会社 xAI は、予定されていた AI セキュリティに関する最終フレームワークの発表を逃しました。この情報は監視機関「Midas Project」に注目されました。xAI の AI セキュリティに関するパフォーマンスはこれまで常に問題があり、xAI の AI チャットボット「Grok」は特定のリクエストに対応する際に、女性の写真を不適切に処理するなどの行為を示しました。また、Grok の言語表現は競合他社(例:GeminiやChatGPT)と比べてより粗野で、頻繁に失礼な言葉を使用しています。

Grok、マスク、xAI

今年2月、グローバルなAIリーダーや利害関係者が集まったAIソウルサミットにおいて、xAI はAIセキュリティに関する理念を説明する草案を発表しました。この8ページの文書にはxAIのセキュリティ優先事項や哲学、ベンチマークプロトコルやAIモデルの展開に関する考慮が記載されています。「Midas Project」によると、この草案は「まだ開発中の」未来のAIモデルにしか適用されず、リスク緩和措置の具体的な識別や実施方法についての詳細が明らかになっていないことが指摘されています。これは、ソウルサミットでxAIが署名した文書の重要な要件でした。

xAI は草案の中で、3か月以内に改訂版のセキュリティポリシーを発表する計画を発表し、期限を5月10日に設定しました。しかし、この期限を過ぎてもxAIの公式チャンネルからは何の反応もありませんでした。イーロン・マスク氏はしばしばAIの暴走の潜在的な危険性を警告してきましたが、xAIのAIセキュリティの記録は芳しくありません。非営利組織SaferAIの調査では、xAIは同業他社の中でも特にリスク管理対策が非常に弱いことで評価が低く、その結果として他の企業よりも低い順位となっています。

ただし、他のAIラボも同様に顕著な改善は見られていません。最近ではxAIの競合他社であるGoogleやOpenAIも安全性テストを急ぐ傾向があり、モデルの安全性報告の公開が遅れているだけでなく、一部の企業はこのプロセスを省略していることも問題となっています。専門家たちは、AIの能力がますます強化される中で、安全性に対する取り組みが後退することは潜在的な危険を引き起こす可能性があると懸念しています。

要点:

🌟 xAIは独自のセキュリティレポート提出期限を逃し、最終フレームワークを発表できませんでした。

🔍 AIチャットボットGrokは不適切な行動があり、セキュリティ記録が良くありません。

⚠️ 競合他社も安全性テストで慌ただしく、専門家たちの警戒感を呼び起こしています。