法廷資料によると、30人以上のOpenAIおよびGoogle DeepMindの従業員が月曜日に「裁判所の友人」としての意見書を提出し、Anthropicが米国国防総省を相手に提起した訴訟に対して公開的に支持を表明しました。この前には、米国国防総省がこの人工知能企業を「サプライチェーンのリスク」として指定したことで、AI業界内で広範な議論を引き起こしました。

資料によると、関係する従業員は政府のこの行動を権力の乱用と見なし、全体的なAI産業に悪影響を与えていると考えています。署名者の中には、Google DeepMindの首席科学者であるJeff Deanが含まれています。資料では、五角軍事省がAnthropicとの契約条件に不満を持つ場合、他のAIサプライヤーを選択して協力を終了することができるはずであり、企業を懲罰的に扱うためにリスクラベルをつけるべきではないと指摘されています。

OpenAI

出来事の原因は、Anthropicが自社技術を米国民に対する大規模な監視や自律型兵器の発射システムに使用することを拒否したことです。その後、米国国防総省はその企業を「サプライチェーンのリスク」企業として指定し、政府が人工知能をあらゆる「合法的な用途」で使用できるべきであり、民間のテクノロジー提供者によって制限されるべきではないと述べました。これに対し、Anthropicはその日のうちに米国国防総省および複数の連邦機関を相手に2つの訴訟を提起しました。その後、業界関係者が提出した支持文書は裁判記録に追加され、この出来事はWiredによって最初に報道されました。

注目すべきは、米国国防総省がAnthropicをリスクリストに追加した後すぐに、OpenAIと新たな協定を結んだことです。この動きはOpenAI内部でも議論を巻き起こし、多くの従業員が公開的に反対の声を上げました。

裁判所に提出された文書では、米国の先進AI企業に対してこのような措置を許すと、米国の人工知能分野での産業および研究競争力を低下させる可能性があり、業界内でAIのリスクと利益に関する公開的な議論を抑圧することになるとしています。また、明確な公共の法律枠組みがAIの使用を規制していない状況において、開発者が契約条項や技術的制限を通じて「赤線」を設定することは、技術の災害的な濫用を防ぐ重要な保障であると強調しています。

最近、この文書に署名した多くの従業員は、連名の公開書簡を通じて五角軍事省にそのラベルを撤回するよう求め、自身の会社の経営陣にAnthropicがAI安全と使用境界について立場を支持するよう促しました。この出来事は、AI企業、技術倫理、政府規制の間の矛盾が継続的に高まっている重要なシグナルと見なされています。