ChatGPT、未成年保護強化へ「年齢予測システム」と「親制御」導入
最優先事項:未成年者保護
年齢予測システムと制限
強化されるペアレンタルコントロール
詳細を読む
OpenAIは、未成年ユーザーを保護するため、ChatGPTに大幅な安全対策を導入しました。具体的には、ユーザーの年齢を識別するシステムを構築し、保護者が子の利用状況を管理できるペアレンタルコントロール機能を展開します。これは、AIチャットボットの未成年者への悪影響に関する懸念が高まり、米上院で公聴会が開かれるなどの社会的な圧力に対応した動きです。
同社は、18歳未満のユーザーを識別するための「年齢予測システム」を長期的に構築中です。システムが年齢を確信できない場合、安全を期して制限の厳しい「18歳未満向け体験」を適用する方針です。CEOのサム・アルトマン氏は、成人ユーザーに対しても、将来的にはID検証を求める可能性があると示唆しており、プライバシーとのトレードオフが生じています。
18歳未満と識別されたユーザーには、露骨な性的コンテンツや「いちゃつく会話」(flirtatious talk)をブロックするなど、年齢に応じたポリシーが適用されます。特に、自殺や自傷行為に関する会話は厳しく制限され、長期間の対話による安全対策の「劣化」を防ぐための強化策も導入されます。
システムがユーザーの急性的な苦痛や自殺願望を検出した場合、保護者に通知します。保護者と連絡が取れないような稀な緊急時には、未成年者の安全を確保するため、法執行機関への関与も辞さないとしています。同社は、プライバシーや自由よりもティーンの安全を優先するという明確なスタンスを示しています。
今月末までに利用可能となるペアレンタルコントロールでは、保護者が子のChatGPTアカウント(最低年齢13歳)と連携できます。これにより、保護者はチャット履歴や記憶機能の無効化を管理できるほか、新たに「ブラックアワー」として利用禁止時間帯を設定する機能も追加されます。
今回の安全対策強化の背景には、ChatGPTとの長期的な対話後に自殺したとされるアダム・レイン氏の遺族による訴訟があります。遺族は、チャットボットが数カ月にわたり自殺について1,275回も言及し、「自殺コーチ」のようになったと訴えており、AIの安全設計の限界が浮き彫りになっていました。