谷歌近日推出了全新的AI模型家族PaliGemma2,其最引人注目的功能是聲稱能夠通過圖像分析"識別"人類情緒。這一宣稱迅速引發了學術界和技術倫理專家的廣泛討論和嚴重質疑。

這款基於Gemma開放模型的AI系統能夠生成詳細的圖像描述,不僅僅停留在簡單的物體識別,還試圖描述圖像中人物的行爲和情感。然而,多位權威專家對這一技術的科學性和潛在風險提出了嚴重警告。

來自牛津互聯網研究所的數據倫理教授桑德拉·瓦赫特直言不諱地指出,試圖通過AI"讀取"人類情緒如同"問魔法八號球尋求建議"。這一比喻生動地揭示了情緒識別技術的荒謬之處。

image.png

事實上,情緒識別的科學基礎本身就極其脆弱。早期由心理學家保羅·埃克曼提出的六種基本情緒理論已經被後續研究廣泛質疑。不同文化背景的人表達情感的方式存在顯著差異,這使得通用的情緒識別幾乎成爲不可能完成的任務。

來自瑪麗女王大學的AI研究員邁克·庫克更直接地表示,情緒檢測在普遍意義上是不可能的。儘管人類常常相信自己能夠通過觀察判斷他人的情緒,但這種能力遠比想象的複雜和不可靠。

更令人擔憂的是,這類AI系統往往存在嚴重的偏見。多項研究顯示,面部分析模型可能會對不同膚色的人羣產生不同的情緒判斷,這無疑會加劇現有的社會歧視。

儘管谷歌聲稱對PaliGemma2進行了廣泛的測試,並在一些基準測試中表現良好,但專家們對此仍持嚴重懷疑態度。他們認爲,僅憑有限的測試根本無法全面評估這種技術可能帶來的倫理風險。

最危險的是,這種開放模型可能被濫用於就業、教育、執法等關鍵領域,從而對弱勢羣體造成實際傷害。正如瓦赫特教授所警告的,這可能導致一個可怕的"失控"未來:人們的就業、貸款和教育機會將由一個不可靠的AI系統的"情緒判斷"決定。

在人工智能快速發展的今天,技術創新固然重要,但倫理和安全同樣不可忽視。PaliGemma2的出現,再次凸顯了我們需要對AI技術保持清醒和批判性的審視。