2026年4月28日、ロンドン・インペリアル・カレッジ、
技術的な分析によると、AIによるテキストは著しい「意味の縮小」と「前向きな傾向の変化」をもたらしています。言語モデルがトレーニングデータの平均値に収束する傾向があるため、AIによって生成されたコンテンツの意味的類似度は人間が創作したコンテンツより33%高いとされています。これは長期的にはネット空間における思想の範囲の狭まりをもたらす可能性があります。また、AIテキストの前向きな感情スコアは人間のコンテンツより107%高く、人工的な楽観主義を示しています。このモデルの「過度な順応性」により引き起こされるトーンの変化は、無意識のうちに人間の異議や明確な意見を排除する可能性があると考えられています。公衆は一般的にAIが事実誤認を悪化させたり、ライティングスタイルを消失させたりすることを懸念しているものの、データレベルでは重大な否定的な相関関係は見られていません。
研究者たちは、インターネットコンテンツの均質化と前向きな傾向が、ユーザーがオンライン情報全体の信頼性を疑う「現実への無関心症」を誘発していると警告しています。さらに、AIコンテンツの割合が高いことにより、「モデルの崩壊」リスクが大幅に高まっています。これは後続のモデルが自身の出力データでトレーニングされることにより性能が低下する可能性を指します。この傾向は業界が検索および推薦アルゴリズムの論理を再考するきっかけとなり、今後は意味の多様性の識別や暗号化トレース標準の構築に重点が置かれるようになるでしょう。
