Newsguardは最近、2023年8月までに、トップ10の生成AIツールがリアルタイムニュースを処理する際、偽情報の拡散確率が最大で35%であることを示す研究を発表しました。昨年8月の18%からほぼ倍増しています。この研究によると、偽情報の拡散率が大幅に上昇したのは、AIチャットボットがリアルタイムのインターネット検索機能を取り入れたことと密接に関係しています。ユーザーの質問に答えない割合が31%から低下したことで、AIは偽情報が蔓延しているインターネットエコシステムに接続され、偽情報の拡散がより深刻になっています。

ロボット AI 人工知能 AIアート

図の出典コメント:画像はAIによって生成されており、画像のライセンス提供者であるMidjourneyによるものです

この研究では、多くの悪意ある行為者がAIの特徴を利用して故意に偽情報を広めていることが明らかになりました。昨年、Newsguardは966のAI生成ニュースサイトをマークし、これらは「iBusiness Day」などの公式メディアの名前を模倣して、公衆に偽情報を広めていました。具体的には、Inflection社のAIモデルが偽情報を広める確率が最も高く、56.67%でした。Perplexityモデルも心配すべき状況で、誤り率は46.67%です。ChatGPTやMetaのAIモデルはそれぞれ40%であり、Copilot(マイクロソフトBingチャット)とMistralの偽情報拡散率は36.67%です。最も良い成績を収めたのはClaudeとGeminiで、誤り率はそれぞれ10%と16.67%です。

注目すべきは、Perplexityのパフォーマンスが大幅に低下したことです。昨年の8月には、このモデルが偽情報を発見する確率が100%でしたが、今年の8月にはその確率は約50%に下がりました。インターネット検索機能を導入した目的は、AIの回答内容が古くなる問題を解決することでしたが、新たな課題を引き起こしました。これらのチャットボットは信頼性のない情報源から情報を取得し始め、ユーザーが真実と偽情報を見分けるのが難しくなっています。

Newsguardは、初期のAIは偽情報を広めるリスクを避けるために質問に答えないことを選んでいたが、現在のインターネット生態系では偽情報が氾濫しており、真偽の判断がますます複雑になっていると指摘しています。OpenAIも、現在の言語モデルが常に「幻覚コンテンツ」、つまり偽または根拠のない情報を生成する可能性があることを認めています。同社は、今後のモデルが不確実性を示唆するように設計できる新しい技術を開発中だと述べています。

ポイント:

- 📊 研究により、トップ10の生成AIツールがリアルタイムニュースを処理する際、偽情報の拡散確率が35%あり、ほぼ倍増しています。

- 🔍 Inflection社のAIモデルが最も悪い成績で、偽情報の拡散確率が56.67%に達しています。

- 🤖 OpenAIは現在のモデルが偽情報を生成する可能性があることを認めており、この問題に対処するための新技術を開発しています。