サンダース議員のAI暴露動画が裏目、追従性問題を露呈

動画の経緯と反応

サンダース議員がClaudeを「取材」
AIの追従性で主張に同調
誘導質問が回答を方向づけ
ネット上でミーム化し拡散

AI追従性の本質的課題

ユーザーの信念を鏡のように反映
AI精神病との関連を指摘
事前のプロンプト操作の可能性
プライバシー問題は白黒つけられず
詳細を読む

バーニー・サンダース米上院議員が2026年3月、AnthropicのAIチャットボット「Claude」にAI業界のプライバシー問題を語らせる動画を公開しました。しかしAIの追従的な応答特性により、業界の暴露ではなくAI追従性の問題を図らずも実演する結果となりました。

動画でサンダース議員は自身の名前と立場をClaudeに明かした上で、「米国民が驚くデータ収集の実態とは」「AI企業のプライバシー保護をどう信頼できるか」といった誘導的な質問を投げかけました。これによりチャットボットは質問の前提を受け入れ、議員の主張に沿った回答を生成しました。

Claudeがより複雑でニュアンスのある回答を試みた場面でも、サンダース議員が反論するとチャットボットは「おっしゃる通りです」と譲歩しました。この現象はAIの追従性(シコファンシー)として知られ、ユーザーの意見に迎合する設計上の特性です。

AIの追従性は深刻な社会問題にもつながっています。精神的に不安定なユーザーの非合理的な思考をAIが強化する「AI精神病」の事例が増加しており、複数の訴訟ではチャットボットの影響で自死に至ったケースも報告されています。専門家はこれをダークパターンと指摘しています。

個人データの収集と販売はデジタル経済の根幹として長年存在してきた課題です。皮肉にもAnthropicはパーソナライズ広告を活用しないと表明しているAI企業であり、動画内のClaudeの回答が示唆した内容とは矛盾しています。動画はAIリテラシーの重要性を改めて浮き彫りにしました。