據TechCrunch獲得的內部通訊顯示,谷歌正讓承包商將其Gemini AI與Anthropic的Claude進行對比評測,此舉引發了合規性質疑。
文件顯示,負責改進Gemini的承包商需要在30分鐘內根據真實性和詳盡度等多個標準,對比評估Gemini和Claude的回答質量。承包商近期在谷歌內部評測平臺上發現了明確提及Claude的內容,其中包含"我是Claude,由Anthropic創建"的字樣。
內部討論顯示,承包商注意到Claude在安全方面的表現更爲嚴格。有承包商稱"Claude的安全設置是所有AI模型中最嚴格的"。在某些案例中,當Gemini的回答因涉及"裸體和束縛"被標記爲"嚴重違反安全規定"時,Claude則直接拒絕迴應相關提示。
值得注意的是,作爲Anthropic的主要投資者,谷歌的這一做法可能違反了Anthropic的服務條款。該條款明確禁止未經批准訪問Claude來"構建競爭產品"或"訓練競爭AI模型"。當被問及是否獲得了Anthropic的授權時,Google DeepMind發言人Shira McNamara拒絕正面迴應。
McNamara表示,儘管DeepMind確實會"比較模型輸出"用於評估,但否認使用Anthropic模型訓練Gemini。"這符合行業標準做法,"她說,"但任何聲稱我們用Anthropic模型訓練Gemini的說法都是不準確的。"
此前,谷歌要求AI產品承包商評估Gemini在其專業領域外的回答,這引發了承包商對於AI在醫療保健等敏感領域可能產生不準確信息的擔憂。
截至發稿時,Anthropic發言人尚未就此事發表評論。