近期,科技新聞網站TechCrunch披露了一則消息,谷歌正在使用Anthropic公司的Claude AI模型來評估其自家的Gemini AI模型性能,這一行爲引發了業界對於合規性的廣泛討論。

谷歌大模型Gemini

據報道,TechCrunch查看了內部通信文件,顯示谷歌Gemini項目的承包商正在將Gemini的迴應與Claude的迴應進行對比分析,以評定Gemini輸出的準確性和質量。

在這一評估過程中,承包商需要在30分鐘內判斷哪個AI模型的回答更爲優秀。報道還提到,在谷歌內部用於AI模型比較的平臺上,Claude的迴應中出現了對自身明確的引用。在安全性方面,Claude似乎比Gemini更爲重視,有時會拒絕回答被認爲是不安全的提示,或者給出更爲謹慎的迴應。例如,Gemini的一個迴應因涉及“裸體和束縛”內容而被標記爲“巨大的安全違規”。

Anthropic的服務條款明確規定,未經批准,不得使用Claude來構建競爭產品或訓練競爭AI模型。谷歌DeepMind的發言人確認了他們確實會爲了評估目的比較不同模型的輸出,但否認使用Anthropic的模型來訓練Gemini。值得注意的是,谷歌也是Anthropic的主要投資者之一。

谷歌DeepMind的發言人Shira McNamara表示:“按照行業標準實踐,我們有時會比較模型輸出作爲評估過程的一部分。然而,任何關於我們使用Anthropic模型來訓練Gemini的說法都是不準確的。”

劃重點:

📜 谷歌使用Anthropic的Claude AI評估Gemini,可能違反服務條款。

🔐 Claude在安全性方面的表現似乎比Gemini更爲嚴格。

💼 谷歌DeepMind否認使用Anthropic模型訓練Gemini,同時確認了評估模型輸出的做法。