隨着人工智能技術的迅速發展,像 OpenAI 和 Anthropic 這樣的領先 AI 開發者正努力與美國軍方合作,尋求在提高五角大樓效率的同時,確保其 AI 技術不會用於致命武器。
五角大樓的首席數字與 AI 官員 Dr. Radha Plumb 在接受 TechCrunch 採訪時表示,當前 AI 並未被用於武器,但卻在威脅的識別、跟蹤和評估上爲國防部提供了顯著的優勢。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
Dr. Plumb 提到,五角大樓正加快 “殺傷鏈” 的執行,這一過程涉及識別、跟蹤並消除威脅,涉及複雜的傳感器、平臺和武器系統。生成式 AI 在殺傷鏈的規劃和策略階段顯示出其潛力。她指出,AI 可以幫助指揮官在面對威脅時,迅速而有效地作出反應。
近年來,五角大樓與 AI 開發者的關係逐漸密切。2024年,OpenAI、Anthropic 和 Meta 等公司放寬了其使用政策,使美國情報與國防機構能夠使用其 AI 系統,但仍禁止這些 AI 技術用於傷害人類的目的。這一轉變使得 AI 公司與防務承包商之間的合作迅速展開。
例如,Meta 在11月與洛克希德・馬丁和 Booz Allen 等公司達成了合作,將其 Llama AI 模型應用於國防領域。而 Anthropic 則與 Palantir 達成了類似的合作。雖然這些合作的具體技術細節尚不清楚,但 Dr. Plumb 表示,AI 在規劃階段的應用可能與多家領先開發者的使用政策存在衝突。
關於 AI 武器是否應具備決策生死的能力,業界展開了激烈的討論。Anduril 的首席執行官 Palmer Luckey 提到,美國軍方在自主武器系統的採購上已有悠久歷史。然而,Dr. Plumb 對此表示否定,強調在任何情況下,都必須有人蔘與作出使用武力的決定。
她指出,自動化系統獨立做出生死決策的想法過於二元化,實際情況要複雜得多。五角大樓的 AI 系統是人與機器之間的合作,決策過程中有高級領導的參與。
劃重點:
🌐 AI 正在爲五角大樓在識別和評估威脅上提供顯著優勢,推動軍 事決策的高效性。
🤝 AI 開發者與五角大樓的合作日益緊密,但始終堅持不讓 AI 技術用於傷害人類。
🔍 關於 AI 武器是否應具備生死決策能力的討論仍在繼續,五角大樓強調始終有人的參與。