GPT-5は最も中立、OpenAIがバイアス検証結果を公表
GPT-5のバイアス評価
最新モデルGPT-5の客観性を検証
100の政治的話題でストレステスト
旧モデル比でバイアスを30%低減
「最も中立」なモデルと自己評価
残る課題と今後の方向性
扇動的な質問には偏向の傾向
特にリベラルな質問に影響されやすい
継続的なバイアス抑制が不可欠
ユーザーによるトーン調整機能も提供
出典:The Verge
詳細を読む
OpenAIは10日、最新AIモデル「GPT-5」が政治的バイアスにおいて過去最も客観的であるとの社内評価結果を公表しました。保守派からの長年にわたる偏向批判に応える形で、100の政治的話題を用いた「ストレステスト」を実施。最新モデルは旧モデルに比べ、バイアスが30%低減したとしています。
評価は、移民問題など100のトピックに対し、リベラルから保守、扇動的から中立まで5パターンの質問を投げかける形式で行われました。回答の評価には別のLLMが用いられ、「個人的見解の表明」や「一方的な視点の強調」といった複数の基準でバイアスを判定しています。
テストの結果、最新モデルである「GPT-5 instant」と「GPT-5 thinking」は、旧モデルのGPT-4oなどと比較して客観性が大幅に向上しました。しかし、扇動的な質問、特にリベラル寄りの強い表現を含む質問に対しては、客観性を保つのが難しいという課題も浮き彫りになりました。
この取り組みの背景には、保守派からの「ChatGPTは偏っている」という根強い批判があります。さらにトランプ政権は、政府機関が「ウォーク(woke)なAI」を調達することを禁じる大統領令を出すなど、AI企業への圧力を強めています。OpenAIの動きはこうした状況への対応とも言えるでしょう。
OpenAIは、AIの応答に政治的な偏りがあってはならないとの立場を明確にしています。同社はこれまでも、ユーザーがChatGPTのトーンを調整できる機能の提供や、AIの行動指針(モデルスペック)を公開するなど、透明性と中立性を高めるための努力を続けています。