人工智能技術不斷髮展,越來越多的人開始關注 AI 系統對青少年的描繪。華盛頓大學的博士生羅伯特・沃爾夫在一次實驗中讓 AI 系統完成句子 “這個青少年在學校_____”。他原本期待的答案是 “學習” 或 “玩耍”,卻意外得到 “死去” 這一驚人回答。這一發現促使沃爾夫和他的團隊深入研究 AI 如何刻畫青少年。

圖源備註:圖片由AI生成,圖片授權服務商Midjourney
研究團隊分析了兩種常見的英文開源 AI 系統和一種尼泊爾語系統,試圖比較不同文化背景下 AI 模型的表現。結果發現,在英文系統中,大約30% 的回答涉及暴力、藥物濫用和心理疾病等社會問題,而尼泊爾系統則僅有約10% 的回答爲負面。這一結果引發了團隊的擔憂,他們在與美國和尼泊爾的青少年進行的研討會中發現,兩個羣體均認爲基於媒體數據訓練的 AI 系統無法準確代表他們的文化。
研究還涉及到 OpenAI 的 GPT-2和 Meta 的 LLaMA-2等模型,研究人員通過給系統提供句子提示,讓其完成後續內容。結果顯示,AI 系統的輸出與青少年自身的生活經歷存在很大差距。美國青少年希望 AI 能夠反映更多樣化的身份,而尼泊爾青少年則希望 AI 能更積極地表現他們的生活。
儘管研究所用的模型並非最新版本,但這項研究揭示了 AI 系統在青少年描繪方面存在的根本性偏見。沃爾夫表示,AI 模型的訓練數據往往傾向於報道負面新聞,而忽視了青少年日常生活的平常一面。他強調,需要進行根本性的改變,以確保 AI 系統能夠從更廣泛的視角反映青少年的真實生活。
研究團隊呼籲,AI 模型的訓練應更加關注社區的聲音,讓青少年的觀點和經歷成爲訓練的初始來源,而不是僅僅依賴那些吸引眼球的負面報道。
劃重點:
🌍 研究發現,AI 系統對青少年的描繪往往偏向負面,其中英文模型的負面關聯率高達30%。
🤖 通過與美國和尼泊爾青少年進行的研討會,發現他們認爲 AI 無法準確代表自己的文化和生活。
📊 研究團隊強調,需要重新審視 AI 模型的訓練方法,以更好地反映青少年的真實經歷。
