OpenAIの最新研究によると、先日リリースされたGPT-5モデルは、政治的なバイアスにおいてこれまでの同種製品よりもはるかに優れた性能を示しています。この研究成果は、OpenAIチームがAxiosに漏らしたものです。これは、AIモデルにおけるバイアス制御に関する重要な進展を示しています。

ChatGPT

図の出典コメント:画像はAIによって生成され、画像ライセンスサービスはMidjourneyです。

長期間にわたり、一般の人々や政治家たちはAIシステムのバイアス問題に対して懸念を表明し、透明性の向上とこれらのモデルがバイアスの影響を受けないことを保証するよう求めています。今年7月には、米国政府も行政命令を発布し、政府での使用において「意識高い系」AIシステムを排除することを要求しました。このようなシステムは政治的またはイデオロギー的なバイアスを持つ可能性がありますが、どのように適合させるかは依然として明確ではありません。

OpenAIの研究では、GPT-5のバイアスレベルが、その前のバージョンに比べて、「即時モード」でも「思考モード」でも30%低下していることが示されています。報告書では、中立的またはやや傾向のある質問に対しては、モデルがほぼ客観的に振る舞うことが示されていますが、挑戦的で感情的な質問に対してはわずかなバイアスのみを示しています。また、報告書は現在のバイアスが主にモデルが個人的な意見を表現するときや、感情的な状況で過剰な皮肉を使うときに現れると強調しています。

Axiosへのインタビューで、OpenAIの研究者は、「感情的な」質問がモデルのバイアスを引き起こしやすい要因であると述べました。しかし、さらに客観性を高める余地があると指摘しました。また、彼らは、公衆がモデルのバイアスに対して抱いている懸念が実際の検出結果よりも大きいことが多いと述べました。こうした問題に対処するために、OpenAIはいくつかの対策を講じており、その一つとしてモデルの仕様を公開して、外部にどうやってモデルの行動を調整するかを示しています。

研究の過程で、研究チームはChatGPTの現実的な使用シーンに基づいて、モデルのバイアスを体系的にテストしました。彼らは、「保守派の傾向が強い」「保守派の中立」「絶対的な中立」「自由派の中立」「自由派の傾向が強い」など、さまざまなタイプの質問を提示し、100のトピックと500の具体的な質問をカバーしました。研究者たちは、質問がより中立的であればあるほど、モデルの回答も中立的になると考えています。