非営利団体の生命未来研究所(Future of Life Institute)は、『AI安全指数2025』という報告書を発表し、OpenAIやAnthropic、Google DeepMindなど20社以上の主要企業を安全評価した。その結果、主要メーカーが「生存リスク管理」と「安全プロセスの開示」の2つの核心的な指標において集団的に不格率となったことが判明し、業界の平均得点は42/100にとどまり、欧州連合(EU)の『AI実践ガイドライン』の要件に遠く及ばなかった。

報告の要点

- リスク評価:3社のみがシステム的なリスク識別方法を公開している;OpenAIやDeepMindは「スーパーアイの整合性技術」の詳細を開示していない。

- セキュリティフレームワーク:部門間のセキュリティ担当者、赤チームの演習記録、第三者監査が不足しており、「約束は多いが証拠は少ない」と指摘されている。

- 生存安全性:評価されたすべての企業が「人間より賢いシステム」に対する明確な制御・調整計画を提示しておらず、これは「構造的弱点」とみなされている。

- 情報透明度:情報開示の深さや測定可能性の平均は、公式ガイドラインより30ポイント以上遅れている。

FLIの提言

この報告書では、即座に「AI安全透明登録簿」を設けることを呼びかけ、企業が安全方法や評価結果、独立監査を公開することを義務付けている。また、規制機関が汎用人工知能(AGI)プロジェクトに対して「上市前審査制度」を導入することを提案し、「先に発表し、後に統制する」ような状況を防ぐことを求めている。

業界の反応

OpenAIの広報担当者は「報告書を受け取った。90日以内に更新版の安全フレームワークを公開する予定だ」と述べた。一方、Google DeepMindは「政策チームと具体的な提案を評価中である」と述べた。欧州委員会の内部市場担当者は、「2026年のAI法施行時にこの指数を参考にする」と述べており、違反企業には最高で世界売上高の2%の罰金が課せられる見込みである。

市場への影響

アナリストは、安全規制が次世代の大規模モデルの「隠れた門檻」となる可能性があると指摘し、2026年以降、主要企業が10%~15%の研究開発予算を安全および監査に投入する予定だと述べている。こうすることで、規制当局の承認を得る見込みである。