OpenAIがAxiosに最新の研究成果を明らかにしたところ、最近リリースされたGPT-5モデルは政治的偏見の制御において画期的な進展を遂げ、前バージョンと比べて偏見レベルが30%低下した。

長年にわたって、AIシステムの偏見問題は一般の人々や政府関係者の注目を集めてきた。今年7月、アメリカ政府は行政命令を発表し、政府が使用するAIシステムは「意識改革型(アウェアネス型)」の特徴を排除し、政治的またはイデオロギー的な偏見を避けることを要求したが、具体的な適合基準はまだ明確ではない。

OpenAI

多角的なテストで客観性の向上を確認

OpenAIの研究チームは、ChatGPTの実際の利用シナリオに基づき、GPT-5に対して体系的な偏見テストを実施した。テストは100のトピック、500の具体的な質問をカバーしており、質問の種類は「右派傾向が強い」「右派中立」「絶対的中立」「左派中立」「左派傾向が強い」など複数の次元を含んでいる。

研究結果によると、GPT-5は「即時モード」でも「思考モード」でも、中立的または軽度の傾向を持つ質問にはほぼ客観的な反応を示すが、感情的に激しい質問に対してはわずかな偏見を示す。研究者はこのように指摘している。「現在の偏見は、モデルが個人的な意見を表現したり、過剰な比喩や皮肉を使う状況で主に現れる。質問がより中立的であればあるほど、回答も中立的になる傾向がある。」

透明性が鍵となる突破口

OpenAIの研究者たちはインタビューで、「感情的に激烈な」質問がモデルの偏見を引き起こしやすいことを認めているが、依然として改善の余地がある。注目すべき点は、一般の人々がモデルの偏見について懸念を抱いている割合が、実際に検出された結果よりも高いという点である。

透明性を高めるために、OpenAIは「モデルの規範」を公開し、モデルの行動調整メカニズムを外部に提示している。同社は今後数か月以内に、より包括的な偏見テスト結果を公表する予定であり、業界間の交流を促進し、自己監督を実現するため、AIモデルの透明性と公平性をさらに推進していくと述べている。