近日,谷歌旗下的 AI 項目 Gemini 因其內部新規引發了對信息準確性的擔憂。據報道,負責評估 AI 生成內容的外包人員被要求對他們不具備專業知識的領域進行評分,尤其是在醫療健康等敏感話題上。

谷歌大模型Gemini

這些外包人員來自於全球技術服務公司 GlobalLogic,谷歌要求他們評估 AI 生成的回覆,主要考量 “真實性” 等因素。此前,外包人員可以選擇跳過那些他們沒有相關專業知識的問題,例如,他們可以在遇到關於心臟病學的專業問題時,選擇不作評估。這樣做是爲了確保評分的準確性,只有具備相關背景的人員才能進行有效評估。

然而,上週 GlobalLogic 宣佈了谷歌的最新要求,外包人員現在不再被允許跳過這類專業領域的問題,而是被要求對他們理解的部分進行評分,並說明他們缺乏相關領域的知識。這一變化引發了外包人員的廣泛擔憂,他們認爲這種做法可能會影響 Gemini 在某些複雜話題上的準確性。

例如,一些外包人員在內部通訊中提到,之前的跳過選項是爲了提高評分的準確性,然而新規的實施卻使得他們不得不評估一些自己毫無經驗的問題,如罕見疾病等。內部郵件顯示,原本的規定是:“如果你對這個任務沒有必要的專業知識,請跳過。” 而新規定則是:“不應跳過需要專業知識的提示。” 這一政策的轉變,讓外包人員感到不安。

在新規下,外包人員只能在兩種情況下跳過評估任務:一種是完全缺失信息,例如缺少完整的提示或回覆;另一種是內容可能有害,需要特殊同意才能進行評估。雖然這些新規旨在提升 Gemini 的性能,但卻可能在實際操作中影響其對複雜話題的理解與反饋。

谷歌方面對此事並未做出迴應,而外包人員的擔憂也在逐漸發酵。

劃重點:

🔍 外包人員被要求評估他們不具備專業知識的 AI 生成回覆,尤其是醫療等敏感領域。

🚫 新規取消了 “跳過” 選項,要求外包人員在缺乏專業知識的情況下仍需評分。

📉 這一政策可能影響 Gemini 在複雜話題上的準確性,引發外包人員的不安與擔憂。