科技巨頭們在AI領域的競爭日趨白熱化,而最近曝光的一則消息再次將行業競爭的暗流涌動推向了臺前。據TechCrunch獲得的內部通信內容顯示,負責改進谷歌Gemini人工智能模型的承包商,竟然在將其答案與Anthropic的競品模型Claude的輸出進行比較。此舉引發了外界對於谷歌是否獲得Anthropic授權使用Claude進行測試的合規性質疑。

在科技公司競相開發更優秀AI模型的當下,通常是通過行業基準測試來評估模型性能,而非由承包商耗費大量精力去評估競爭對手的AI回覆。然而,據爆料,Gemini的承包商需要根據真實性和冗長性等多個標準,對看到的每個回覆進行評分。承包商最多有30分鐘的時間來判斷Gemini或Claude的答案哪個更好。

Gemini,Google DeepMind,人工智能,AI

內部聊天記錄顯示,承包商注意到Claude的回覆似乎比Gemini更強調安全性。一位承包商表示:“在所有AI模型中,Claude的安全設置是最嚴格的。”在某些情況下,Claude不會迴應其認爲不安全的提示詞,例如扮演不同的AI助手。在另一次測試中,Claude避免回答某個提示詞,而Gemini的回覆則因包含“裸體和束縛”而被標記爲“嚴重的安全違規”。

Anthropic的商業服務條款明確禁止客戶未經批准訪問Claude“以構建競爭產品或服務”或“訓練競爭AI模型”。值得注意的是,谷歌是Anthropic的主要投資者。這一背景更增加了外界對谷歌行爲合規性的質疑。

對此,谷歌DeepMind(負責Gemini)發言人McNamara表示,DeepMind確實會“比較模型輸出”以進行評估,但並未在Anthropic模型上訓練Gemini。“當然,按照行業慣例,在某些情況下,我們會比較模型輸出作爲評估過程的一部分,”McNamara說,“然而,任何關於我們使用Anthropic模型訓練Gemini的說法都是不準確的。”

儘管谷歌否認使用Claude訓練Gemini,但其“比較模型輸出”的說辭仍然顯得模棱兩可,無法完全消除外界的疑慮。這一事件再次引發了人們對AI模型開發過程中數據使用和合規性的關注。在競爭激烈的AI領域,如何維護公平競爭,尊重知識產權,將成爲行業發展過程中需要持續關注和探討的重要議題。