Anthropic、AIの「不都合な真実」を可視化し信頼獲得
出典:The Verge
詳細を読む
米Anthropicには、AIが社会に及ぼす負の影響を専門に調査する9人の精鋭部隊が存在します。彼らは数千人規模の組織の中で、経済への打撃や偏見といった「不都合な真実」をあえて可視化し、公表することで企業の信頼性を高めています。
リーダーのDeep Ganguli氏は元スタンフォード大の研究者で、学術界や非営利団体出身の多様なメンバーを率いています。彼らはテック業界の高額報酬よりも、AIを正しく導くというミッションを優先し、社内の開発競争に対する「監視役」として機能しています。
チームの最大の成果の一つが、Claudeの利用状況を分析するツール「Clio」です。プライバシーに配慮しつつユーザーの行動をトピック化し、ポルノ生成やSEOスパムなどの悪用を検知。このデータは社内全体で共有され、安全性向上のための改善に直結しています。
多くの企業がリスク情報の開示をためらう中、同チームは自社製品の弱点も含めて外部に論文を発表します。経営陣はこの透明性を支持しており、規制当局や政策立案者との信頼関係構築につなげていますが、企業価値向上に伴う圧力への懸念も残ります。
今後はAIのIQだけでなく、EQ(感情知能)が人間に与える影響に焦点を当てます。ユーザーがAIに精神的に依存する「AI精神病」などのリスク解明を目指しますが、チャット画面を超えた実社会での行動変容までは追跡しきれない技術的限界にも直面しています。
