最近、米国商務省は、最先端のAIモデルを開発する企業や、それに必要なインフラを提供する事業者に対し、報告を義務付ける新たな提案を発表しました。
この新ルールは、バイデン政権が昨年秋に発表した「安全で信頼できるAIの開発と利用」に関する大統領令への対応です。この命令に基づき、商務省は恒久的な報告基準を明確化し、維持する必要があります。
画像出典:AI生成画像、画像ライセンス提供元Midjourney
新ルールの核心は、1026回を超える整数または浮動小数点演算を必要とするAIモデルはすべて報告が義務付けられることです。生物学的配列データに基づくモデルの場合は、演算量の閾値が1023回に引き下げられます。
さらに、これらのモデルを開発する企業は、モデルの能力、情報セキュリティ保護対策、そしてモデルに対するレッドチームテストの結果を公開する必要があります。これは、これらのAI技術が厳格な安全基準を満たし、サイバー攻撃に耐え、外国の敵対勢力や非国家行為者による悪用リスクを軽減することを保証するためです。
商務省が懸念しているのは、十分に高度なモデルがサイバー犯罪に利用される可能性、さらには生物兵器、化学兵器、核兵器、およびダーティボムの開発のハードルを下げる可能性があることです。そのため、これらの脅威を検知、識別、軽減するための措置を講じることは非常に重要です。同時に、インフラ事業者は、計算クラスタのネットワーク能力を報告する必要があります。それが300Gbit/秒を超える場合、または理論上の性能が毎秒1020回を超える整数または浮動小数点演算能力がある場合は報告が義務付けられます。この基準の引き上げは、過去と比べて、計算能力に対する要求が厳しくなったことを意味します。
なお、これらの新ルールはすべての企業に普遍的に適用されるわけではなく、該当するインフラプロバイダーは比較的少ないと予想されます。ジーナ・レモンド商務長官は、AIの急速な発展に伴い、この提案は国家安全保障と国防の維持に役立つと述べています。
要点:
1. 📊 米国商務省は、大規模なAIモデル開発者とインフラ事業者に対し、技術能力と安全対策を定期的に報告することを求める提案を発表しました。
2. 🔍 1026回を超える演算を必要とするAIモデルの開発プロジェクトは厳格に監視され、情報セキュリティテストの結果の開示が求められます。
3. 🌍 この新ルールは、国家安全保障を強化し、AI技術がサイバー犯罪や軍事目的で使用されることを防ぐことを目的としています。