トランプ政権下で揺れるAnthropic「社会影響チーム」の命運
少数精鋭が暴く「不都合な真実」
企業の「良心」は維持できるか
詳細を読む
米AI企業Anthropicにて、AIの負の側面を研究する「社会影響チーム」が存続の岐路に立たされています。2025年12月、The Vergeが報じたところによると、トランプ政権による「Woke AI」規制の圧力が強まる中、同チームの独立性が脅かされています。AIが社会に与えるリスクを直視する同社の試みは、業界の良心として機能するのか、それとも形骸化するのかが問われています。
従業員2000名のうちわずか9名で構成されるこのチームは、自社製品に関する「不都合な真実」を調査しています。チャットボットがユーザーのメンタルヘルスや労働市場、さらには選挙に及ぼす影響を分析し、公表することが彼らの任務です。自社の利益を損なう可能性があっても、事実を追求する姿勢が求められています。
しかし、逆風はかつてないほど強まっています。2025年7月に発令された「Woke AI」を禁じる大統領令により、政治的な偏りを是正するという名目で、AIの安全性研究自体が政治問題化しているからです。シリコンバレーの主流派が規制反対でホワイトハウスと歩調を合わせる中、同チームの立場は特異です。
過去にはMetaなどのSNS企業が、同様の監視チームを規模拡大後に縮小させた歴史があります。利益相反や政治的圧力を前に、企業内の倫理的防波堤が機能し続けることは容易ではありません。研究成果が製品開発に反映されず、単なる「広報用の飾り」になってしまうリスクが常に存在します。
AnthropicのCEOであるダリオ・アモデイ氏は、業界では珍しくAI規制に前向きな姿勢を示しています。OpenAI出身者が設立した同社が、安全性最優先の理念を貫けるかが今後の焦点です。経営者やリーダーにとっても、AIの倫理的リスクへの対応が企業価値を左右する時代において、同社の動向は重要な先行指標となるでしょう。