2026年4月28日,來自倫敦帝國理工學院、
技術分析顯示,AI 文本正導致顯著的“語義收縮”與“積極性轉變”。由於語言模型傾向於向訓練數據的平均值收斂,AI 生成內容的語義相似度比人類原創內容高出33%,長期演化可能導致網絡空間思想範圍的收窄。同時,AI 文本的積極情感得分比人類內容高出107%,呈現出一種人工化的樂觀傾向。這種由模型“過度順從”引發的基調轉變,被認爲可能在無形中邊緣化人類的異議與鮮明觀點。儘管公衆普遍擔憂 AI 會加劇事實錯誤或導致寫作風格消失,但數據層面尚未發現顯著的負面相關性。
研究人員警告稱,互聯網內容的同質化與樂觀化正誘發公衆的“現實冷漠症”,即用戶可能因無法分辨虛實而對在線信息的整體可信度產生懷疑。此外,高佔比的 AI 內容也大幅提升了“模型崩潰”的風險,即後續模型因在自身輸出的數據上訓練而導致性能退化。這一趨勢正促使行業重新思考搜索與推薦算法的邏輯,未來或將更側重於對語義多樣性的識別與加密溯源標準的建立。
