近期,多倫多大學和麻省理工學院科學家團隊的實驗發現,使用描述性標籤訓練的AI系統可能做出比人類更爲苛刻的決定,對未來生活帶來威脅。研究揭示了AI算法訓練存在深刻缺陷,可能導致租房、貸款、手術等方面的決策問題。實驗以狗圖像數據集爲例,結果顯示描述性標籤導致對違規狗的判斷更嚴厲,可能引發社會不公。算法可能在博士申請、招聘等領域強化社會偏見,加劇不平等。研究人員敦促及早糾正這一問題,強調在AI主導的時代,正確標註數據以避免算法偏見至關重要,否則將對人類生活產生嚴重影響。