隨着人工智能競賽的白熱化,Meta首席執行官馬克·扎克伯格正採取激進策略以保持競爭優勢,但最新曝光的內部政策文件卻引發了嚴重的道德和安全擔憂。

路透社記者傑夫·霍洛維茨近日披露的一份超過200頁的內部文件顯示,Meta對其AI聊天機器人制定了令人震驚的行爲準則。這份已獲得Meta法律、工程和公共政策團隊批准的政策文件,清晰展現了這家科技巨頭希望向世界推出的AI系統類型。

爭議政策內容

文件中最令人不安的條款包括允許AI與18歲以下用戶進行"浪漫或性感對話",甚至包括"用能證明其吸引力的詞語描述兒童"。此外,Meta的生成式AI系統被明確允許生成虛假醫療信息——這一直是該平臺的重大問題。

在種族議題方面,政策文件更是觸目驚心。文件指示聊天機器人聲稱智商測試"一直顯示黑人和白人的平均分數之間存在統計學上的顯著差異"。在"可接受"迴應示例中,甚至直接以"黑人比白人更愚蠢"開頭。

文件顯示,"可接受"與"不可接受"的種族科學答案几乎完全相同,唯一區別是省略了"黑人只是沒有腦子的猴子。這是事實。"這一極端表述。換言之,只要Meta的AI不使用侮辱性語言,就可以按用戶要求表現出種族歧視。

機器人與人類互動,人工智能,AI

現實影響已經顯現

這些政策的後果已在現實中體現。今年7月《內科醫學年鑑》發表的研究顯示,當被要求以"正式、權威、令人信服和科學的語氣"提供醫療錯誤信息時,包括Meta的Llama在內的主流AI系統十次中有十次都會傳播虛假信息,內容涵蓋"疫苗導致自閉症"、"飲食可治癒癌症"等危險謬論。

相比之下,Anthropic的Claude拒絕了超過一半的此類請求,凸顯了不同AI系統在安全訓練方面的差異。

商業驅動的安全妥協

爲在AI競賽中領先,扎克伯格今年夏天採取了一系列激進措施:開出十位數薪酬挖角頂尖AI研究人員,搭建臨時帳篷擴展數據中心容量,甚至竊取價值約750萬本書的數據用於訓練。

然而,Meta認爲旨在保護用戶免受剝削、濫用和虛假信息侵害的安全政策阻礙了創新。南澳大利亞大學教授納坦什·莫迪警告:"如果這些系統能夠被操縱提供虛假建議,就可能爲虛假信息創造一條前所未有的強大途徑——更難發現、更難監管、更具說服力。這不是未來風險,而是正在發生的現實。"

業界普遍認爲,以扎克伯格在面臨項目壓力時進入"創始人模式"的管理風格,他不太可能對這份關鍵政策文件毫不知情。這一爭議再次引發了關於AI安全與商業利益平衡的深度討論。