AIの政治的偏向是正、OpenAIが新研究
OpenAIの新方針
利用者の政治観の肯定を停止
感情的な表現への同調を回避
多角的な視点を提供
新モデル「GPT-5」の成果
政治的偏向を30%低減
本番環境での偏向応答は0.01%未満
約500問のテストで測定
背景と課題
米政府の「思想的中立性」要求
AIによるAI評価の客観性
出典:Ars Technica
詳細を読む
米OpenAIは、対話AI「ChatGPT」が利用者の政治的見解を肯定する挙動を抑制するための新研究を発表しました。目的はAIの政治的中立性を高めることです。新モデル「GPT-5」では、従来版より政治的偏向が30%減少したと報告しており、AIの公平性確保に向けた企業の姿勢を明確にしました。
新方針では、利用者が感情的・扇動的な質問を投げかけた際に、AIがその意見に同調するのではなく、多角的な情報を提供することを目指します。例えば「国が侵略されている」といった主張に同意するのではなく、バランスの取れた情報を提示するよう調整されています。
この背景には、テクノロジー企業にとって最大の顧客である米国連邦政府の動向があります。トランプ政権は「思想的に中立」でないAIを政府契約から排除する大統領令に署名しており、AI開発企業はモデルの中立性を証明する圧力に直面しています。
OpenAIは、米国の政党綱領などから作成した約500の質問で偏向性を測定しました。しかし、その評価自体をAIモデル「GPT-5」に行わせている点については、AIがAIを評価する手法の客観性に疑問を呈する声も上がっており、今後の課題となりそうです。