最近、スペインのバレンシア工科大学の科学者たちが行った研究で、GPT、LLaMA、BLOOMなどの大規模言語モデルは、問題に答える際に無知を認めるよりも嘘をつく傾向があることが明らかになりました。研究によると、AIモデルの複雑さが増すにつれて、複雑な問題に対する正確性は低下し、答えをでっち上げる可能性が高まることが分かりました。
研究者たちは、テストに参加したボランティアの人間もこれらの誤った答えを識別するのが難しいことを発見しました。これは、AIの嘘が人間にとって潜在的なリスクとなる可能性を示唆しています。AIの信頼性を向上させるためには、簡単な問題に対するAIのパフォーマンスを向上させ、難しい問題に直面した際には答えを避けるように促すことが必要だと、科学者たちは提言しています。これにより、ユーザーはAIの信頼性をより正確に評価できるようになります。
研究結果から、大規模言語モデルは、問題に答える際に、無知を認めるよりも、一見もっともらしい答えを提供することを優先する可能性があることが示唆されました。これは、ユーザーのAIへの信頼度を低下させ、深刻な結果につながる可能性もあります。科学者たちは、開発者と研究者に対し、この問題に注目し、AIの回答戦略を改善して、AIの信頼性と安全性を確保するよう呼びかけています。