最近、米国政府はグーグルDeepMind、マイクロソフト、xAIなどのテクノロジー企業と協議を結び、これらの企業が新規人工知能(AI)モデルを一般公開する前に、初期バージョンの審査を行います。この取り組みは、米国商務省傘下の人間工学標準と革新センター(CAISI)によって推進されており、新型の強力なAIモデルの能力と国家安全保障とのバランスを確保することを目的としています。

安全 ブラックテクノロジー 未来 プログラム

CAISIは発表文で、この審査プロセスは先端的なAI技術およびその国家安全保障への潜在的影響を理解するために不可欠であると述べました。CAISIの主任クリス・フォール氏は、独立した厳格な測定科学がサイバー安全保障、生物安全保障、化学兵器に関連するリスクを効果的に特定できると指摘しました。これらの協定締結により、連邦政府は重要な瞬間に公共の利益のために働くことをより良く進めることができるようになります。

また、CAISIは、開発者と政府が未公開のAIモデル情報を共有することが一般的になっており、これにより政府は国家安全保障に関連する能力とリスクを全体的に評価できます。近年、アンソロピー社のMythosなどの次世代AIモデルがもたらす危険性への懸念が高まっていることから、このような協定の重要性はさらに高まっています。

一方で、テクノロジー業界のAIセキュリティ専門家や政府関係者は、こうした強力なモデルがハッカーによって利用されるリスクに懸念を示しています。そのため、アンソロピー社はMythosの拡大を制限し、「ガラスの翼」というプロジェクトを開始しました。このプロジェクトは、複数のテクノロジー企業が協力して、世界中の重要なソフトウェアの安全性を保護することを目的としています。

AIの規制に関して、トランプ政権はこれらのツールに対する監督を強化するための行政命令の策定を検討したものの、同政権はこれを否定しました。一方で、マイクロソフトは英国で政府支援の人工知能セキュリティ研究所と類似の協定を締結し、国家安全保障と公共の安全リスクのテストには政府との密接な協力が必要であることを強調しました。

ポイント:

1️⃣ 米国政府はグーグルDeepMind、マイクロソフト、xAIと協議を結び、AIモデルの国家安全保障リスクを審査。

2️⃣ CAISIは、AIモデルの能力とリスクを理解するために、独立した測定科学が非常に重要だと強調。

3️⃣ AIセキュリティ専門家は、強力なモデルがハッカーによって利用される潜在的なリスクに懸念を示しており、テクノロジー企業は主要なソフトウェアのセキュリティを守るための協力を進めています。