最近,人工智能公司 Anthropic 發佈了其 “負責任擴展” 政策的最新更新,明確了哪些模型需要額外的安全保護。這一舉措旨在確保在推出新技術前,能夠有效防範可能的風險。
據 Anthropic 在其博客中所述,如果在對某個 AI 模型進行壓力測試時發現,該模型有可能幫助一個 “資源適中的國家程序” 開發化學和生物武器,Anthropic 將會在正式推出該技術之前,首先採取新的安全保護措施。此外,若模型有能力全自動化初級研究員的工作,或在技術快速擴展中帶來過大的加速效應,公司也會相應地加強安全措施。

Anthropic 在本月早些時候完成了一輪新的融資,估值達到615億美元,成爲 AI 初創公司中估值最高的之一。不過,與 OpenAI 相比,這一估值仍然顯得微不足道,後者近日宣佈完成了400億美元融資,總估值達到了3000億美元。未來十年,生成性 AI 市場預計將超過1萬億美元,市場競爭愈發激烈,包括谷歌、亞馬遜和微軟等科技巨頭都在積極推出新產品和功能。而來自中國的競爭也逐漸顯現,例如 DeepSeek 的 AI 模型在美國的迅速走紅便是一個例子。
在去年十月發佈的 “負責任擴展” 政策中,Anthropic 還提到會進行物理辦公室的安全檢查,旨在發現潛在的監控設備。該公司確認,已成立了高管風險委員會,並建立了內部安全團隊。此外,他們還將引入 “物理” 安全流程,利用先進的檢測設備和技術進行監控設備的偵測,確保公司內部的安全。
Anthropic 在 AI 安全和責任方面的不斷努力,不僅是爲了保護自身的技術,更是對整個行業健康發展的重要保障。
