近日,美國政府與谷歌 DeepMind、微軟以及 xAI 等科技公司簽署協議,在這些公司的新人工智能模型向公衆發佈之前,進行早期版本的審查。此項合作由美國商務部下屬的人工智能標準與創新中心(CAISI)推動,旨在確保新型強大 AI 模型的能力與國家安全之間的平衡。

安全 黑科技 未來 程序

CAISI 在一份新聞稿中表示,這項審查過程對於理解前沿 AI 技術及其對國家安全的潛在影響至關重要。CAISI 主任克里斯・福爾指出,獨立且嚴格的測量科學能夠有效識別與網絡安全、生物安全及化學武器相關的風險。這些合作協議的簽署將幫助聯邦政府在關鍵時刻更好地推進爲公共利益而開展的工作。

此外,CAISI 還強調,開發者與政府分享未發佈 AI 模型的信息已成爲一種常見做法,這有助於政府全面評估與國家安全相關的能力與風險。近年來,隨着對新一代 AI 模型(如 Anthropic 公司的 Mythos)可能帶來的危險的擔憂加劇,這類協議的重要性愈發凸顯。

與此同時,科技行業的 AI 安全專家和政府官員對這些強大模型可能被黑客利用的風險表示關注。因此,Anthropic 公司決定限制 Mythos 的推廣範圍,併發起名爲 “玻璃之翼” 的合作項目,旨在聯合多家科技公司共同保護全球關鍵軟件的安全。

對於 AI 的監管,特朗普政府曾考慮制定行政命令來加強對這些工具的監督,但該政府對此表示否認。與此同時,微軟也在英國宣佈與政府支持的人工智能安全研究所達成類似協議,強調國家安全與公共安全風險的測試需要與政府的緊密合作。

劃重點:

1️⃣ 美國政府與谷歌 DeepMind、微軟及 xAI 達成協議,審查 AI 模型的國家安全風險。

2️⃣ CAISI 強調獨立的測量科學對於理解 AI 模型的能力與風險至關重要。

3️⃣ AI 安全專家對強大模型被黑客利用的潛在風險表示擔憂,科技公司正聯合保護關鍵軟件安全。