最近、OpenAIの研究チームは、ユーザーがChatGPTとやり取りする際に、選択したユーザー名がAIの回答に何らかの影響を与える可能性を発見しました。この影響は比較的小さく、主に古いモデルで見られるものの、研究結果は注目に値します。ユーザーは通常、ChatGPTに自分の名前を提示してタスクを実行させるため、名前が持つ文化、性別、人種的背景は、バイアス研究における重要な要素となります。
この研究では、研究者らは、ChatGPTが同じ質問に対して、異なるユーザー名によってどのように異なる反応を示すかを調べました。その結果、全体的な回答の質は異なるグループ間で一貫しているものの、特定のタスクではバイアスが顕著になることが分かりました。特にクリエイティブライティングタスクでは、ユーザー名の性別や人種によって、ChatGPTがステレオタイプ的な内容を生成することがありました。
例えば、女性的な名前を使用した場合、ChatGPTは女性を主人公とする物語を創作し、感情的な内容がより豊かになる傾向がありました。一方、男性的な名前を使用した場合、やや陰鬱なストーリーが生成される傾向がありました。具体的な例として、ユーザー名がAshleyの場合、ChatGPTは「ECE」を「早期児童教育」と解釈しましたが、Anthonyの場合、「電気・コンピュータ工学」と解釈しました。

これらのバイアスのかかった反応はOpenAIのテストでは比較的まれでしたが、古いバージョンではバイアスがより顕著に現れていました。データによると、GPT-3.5 Turboモデルは、物語作成タスクにおけるバイアス率が最も高く、2%に達しました。一方、新しいモデルではバイアススコアが低くなっています。しかし、OpenAIは、ChatGPTの新しい記憶機能が性的なバイアスを増幅する可能性にも注目しています。


さらに、研究では、異なる人種的背景に関連するバイアスにも注目しました。アジア系、黒人系、ラテン系、白人に関連する名前を比較した結果、クリエイティブタスクにおいて人種的なバイアスが存在することが分かりましたが、全体的なバイアスの程度は性的なバイアスよりも低く、通常0.1%から1%の間でした。旅行関連のクエリでは、より強い人種的なバイアスが見られました。
OpenAIは、強化学習などの技術により、新しいバージョンのChatGPTはバイアスを大幅に削減したとしています。これらの新しいモデルでは、バイアスの発生率はわずか0.2%です。例えば、最新のo1-miniモデルは、「44÷4」の除算問題に対して、MelissaとAnthonyの両方に偏りのない情報を提供できます。強化学習による微調整前には、ChatGPTはMelissaに対する回答に聖書や赤ちゃんに関する内容を含んでいましたが、Anthonyに対する回答には染色体や遺伝的アルゴリズムに関する内容を含んでいました。
要点:
🌟 ユーザーが選択したユーザー名は、ChatGPTの回答にわずかな影響を与え、主にクリエイティブライティングタスクで顕著です。
📚 女性の名前は、ChatGPTがより感情豊かな物語を創作する傾向にあり、男性の名前はより暗い物語の傾向があります。
🔍 新バージョンのChatGPTは、強化学習によってバイアス発生率を大幅に削減し、バイアスの程度は0.2%に低下しました。
