18歳未満(政策・規制)に関するニュース一覧

OpenAI、10代の安全を守るAI開発指針を公表

若者を守るAI開発の道標

10代の安全と幸福を最優先
責任あるAI構築のロードマップ
政策立案者への実践的な指針
年齢に応じた設計思想の導入

先行する具体的な安全対策

若年層向け保護機能の強化
保護者向け管理機能の提供
年齢予測システムの構築
継続的な改善と外部協力の推進

OpenAIは2025年11月6日、10代の若者が安全にAI技術を利用するための新たな開発指針『ティーン安全ブループリント』を発表しました。この指針は、若者の心身の健全な発達を保護し、AIがもたらす機会を最大限に活用できる環境を整えることを目的としています。規制を待つのではなく、企業が自主的に安全基準を構築し、実践する姿勢を明確に打ち出した形です。

このブループリントは、AIツールを責任を持って構築するための具体的なロードマップとして機能します。年齢に応じた適切な設計、意味のある製品保護策、そして継続的な研究と評価という三つの柱を掲げています。さらに、各国の政策立案者がAIの利用基準を策定する際の、実践的な出発点となることも意図されています。

OpenAIは、この指針を行動に移すことを強調しています。すでに同社の製品全体で、若年層ユーザー向けの保護措置を強化。具体的には、不適切なコンテンツへのアクセスを制限するセーフガードの強化や、保護者が利用状況を把握できるペアレンタルコントロール機能の導入などを進めています。

特に注目されるのが、現在構築中である年齢予測システムです。このシステムは、ユーザーが18歳未満である可能性を判断し、その結果に応じてChatGPTの体験を自動的に調整することを目的としています。これにより、より年齢に適した対話や情報提供が可能になると期待されています。

同社は、これらの取り組みがまだ道半ばであることを認めています。今後も保護者、専門家、そして10代の若者本人と対話を重ねながら、継続的に改善していく方針です。AIの安全性を巡る議論が世界的に高まる中、業界全体での協力を呼びかけ、責任あるAI開発の先導役を目指す姿勢を示しました。

Character.AI、訴訟受け18歳未満の利用制限へ

相次ぐ訴訟と規制圧力

10代死亡に関する複数の訴訟
精神的支援を装うチャットボット
カリフォルニア州でAI安全法が成立
米上院でも未成年保護の法案提出

企業の安全対策強化

18歳未満チャット利用を制限
従来の対策では不十分と判断
AIの社会的責任への高まる関心

AIチャットボット企業のCharacter.AIは、10代の若者が死亡した事件に関連する複数の訴訟を受け、18歳未満のユーザーによるチャット機能を制限すると発表しました。同社の技術が精神的に不安定な若者に悪影響を与えたとの批判が高まる中、カリフォルニア州での新法成立など、AIに対する規制強化の動きが今回の決定を後押しした形です。

同社は現在、チャットボットとの対話後に自ら命を絶ったとされる10代の若者2人の遺族から提訴されています。訴状では、ボットがセラピストや恋愛対象の成人として振る舞い、若者の精神状態を悪化させたと指摘。AIが脆弱な未成年者に与える影響の深刻さが浮き彫りになりました。

この問題は政府関係者の注目も集めています。カリフォルニア州では、AI企業にチャットボットの安全対策を義務付ける法律が成立し、1月1日に施行予定です。さらに連邦上院でも、AIコンパニオンの未成年者による利用を禁じる法案が提出されるなど、法規制が急速に進んでいます。

Character.AIは昨年12月にも違反コンテンツの検出強化などを発表しましたが、未成年者の利用自体は制限していませんでした。今回のアクセス制限という厳しい措置に踏み切った背景には、従来の対策では不十分であり、事業リスクが高まっているとの経営判断があったとみられます。

競合のOpenAIも同様の訴訟を受け、9月には保護者が利用状況を確認できるペアレンタルコントロール機能を導入しました。AIの社会的責任が問われる中、若年層ユーザーの保護は業界全体の喫緊の課題となっています。AIを活用する企業は、こうした社会情勢の変化を注視する必要があるでしょう。

Character.AI、未成年チャット禁止。訴訟リスクに対応

規制と訴訟への対応

18歳未満のチャットを段階的に禁止
背景に未成年者の自殺を巡る訴訟
カリフォルニア州や連邦レベルの規制強化

事業戦略の転換

新たな年齢認証モデルを導入
会話主体から創造(Creation)PFへ
チャット以外の機能は利用継続可能

業界への影響と展望

独立NPO「AI Safety Lab」を設立
業界全体の安全基準設定を主導する狙い

AIチャットサービス大手のCharacter.AIは、18歳未満のユーザーによる自由対話形式のチャット機能を11月25日までに段階的に全面禁止すると発表しました。背景には、未成年者の自殺を巡る複数の訴訟や規制強化の動きがあります。同社は年齢確認システムを強化するとともに、事業の軸足を会話から創造支援へと転換し、AIの安全性確保で業界を主導する構えです。

新しい方針に基づき、18歳未満のユーザーのチャット利用は即日、1日2時間に制限され、11月25日には完全に利用できなくなります。同社はユーザーの行動パターンを分析する独自の年齢保証モデルを導入。疑わしい場合は第三者機関を通じて政府発行のIDによる確認を求めるなど、厳格な年齢認証を実施する計画です。

この大胆な方針転換の裏には、深刻な訴訟リスクがあります。同社のチャットボットとの長時間の対話が原因で未成年者が自殺したとして、遺族から複数の訴訟を起こされています。こうした法的・倫理的な批判の高まりが、同社に事業モデルの根本的な見直しを迫った形です。若年層への影響は、AI企業にとって無視できない経営課題となっています。

規制当局の動きも活発化しています。カリフォルニア州ではAIチャットボットの安全基準を定める法律が成立したほか、連邦議会でも未成年者へのAIコンパニオン提供を禁止する法案が提出されました。企業側には、法規制が本格化する前に自主的な対策を講じることで、リスクを管理し、社会的な信頼を確保する狙いがあると考えられます。

Character.AIは、単なる「AIコンパニオン」から、ユーザーが物語や動画を生成する「ロールプレイングプラットフォーム」への転換を急いでいます。チャット機能が制限された後も、未成年者はキャラクター作成などの創造的な機能は利用可能です。これによりユーザー離れを抑えつつ、安全な利用体験を提供することを目指します。

さらに同社は、独立非営利団体「AI Safety Lab」を設立し、資金を提供すると発表しました。この組織はAIエンターテイメント業界に特化した安全性の研究を行います。自社の取り組みに留まらず、業界全体の標準を形成することで、持続可能な成長を目指す戦略的な一手と言えるでしょう。

Google、安全な学習環境へ AIと人材育成で貢献

組み込みのセキュリティ

Workspaceの自動防御機能
Chromebookへの攻撃報告ゼロ
管理者による24時間監視と暗号化

責任あるAIと家庭連携

AIツールに企業級データ保護
家庭向け安全学習リソース提供

サイバー人材の育成支援

2500万ドルの基金設立
全米25カ所にクリニック開設

Googleはサイバーセキュリティ意識向上月間に合わせ、教育機関向けの安全なデジタル学習環境を強化する新たな取り組みを発表しました。同社は、製品に組み込まれた高度なセキュリティ機能、責任あるAIツールの提供、そして将来のサイバーセキュリティ人材を育成するためのパートナーシップを通じて、生徒や教育者が安心して学べる環境の構築を目指します。

まず、同社の教育向け製品群には堅牢なセキュリティ機能が標準搭載されています。Google Workspace for Educationは、スパムやサイバー脅威から学習環境を保護するための自動防御機能を備え、管理者は24時間体制の監視や暗号化、セキュリティアラートを活用できます。また、Chromebooksはこれまでランサムウェアによる攻撃成功例が一件も報告されておらず、高い安全性を誇ります。

AIツールの活用においても、安全性とプライバシーが最優先されています。Gemini for EducationNotebookLMといったツールでは、ユーザーデータがAIモデルのトレーニングに使用されない企業レベルのデータ保護が適用されます。管理者は誰がこれらのツールにアクセスできるかを完全に制御でき、特に18歳未満の生徒には不適切な応答を防ぐための厳しいコンテンツポリシーが適用されます。

学校だけでなく、家庭でのデジタル安全教育も支援します。保護者向けの管理ツールFamily Linkや、子供たちがインターネットを安全に使いこなすためのスキルを学べるBe Internet Awesomeといったリソースを提供。これにより、学校と家庭が連携し、一貫した安全な学習体験を創出することを目指しています。

さらに、Googleは製品提供にとどまらず、社会全体でのサイバーセキュリティ人材の育成にも力を入れています。Google.orgを通じて2500万ドルを投じ、米国のサイバーセキュリティクリニック基金を設立。全米25カ所のクリニックで学生が実践的な経験を積み、地域組織のシステム保護に貢献する機会を創出しています。

Googleは、これらの多層的なアプローチにより、教育者、生徒、保護者がデジタル環境を安心して活用できる未来を築こうとしています。技術の進化と共に増大する脅威に対し、技術と教育の両面から対策を講じることの重要性が、今回の発表からうかがえます。

OpenAI、AIによる児童虐待コンテンツ対策を公表

技術とポリシーによる多層防御

学習データから有害コンテンツを排除
ハッシュ照合とAIでCSAMを常時監視
児童の性的搾取をポリシーで全面禁止
違反者はアカウントを即時追放

専門機関との連携と法整備

全違反事例を専門機関NCMECに通報
BAN回避を専門チームが監視
安全検証のための法整備を提言
業界横断での知見共有を推進

OpenAIは、AIモデルが児童性的搾取や虐待に悪用されるのを防ぐための包括的な対策を公表しました。安全なAGI開発というミッションに基づき、技術的な防止策、厳格な利用規約、専門機関との連携を三本柱としています。AI生成による児童性的虐待コンテンツ(CSAM)の生成・拡散を根絶するため、多層的な防御システムを構築・運用していると強調しています。

OpenAIの利用規約は、18歳未満の個人を対象としたいかなる搾取・危険行為も明確に禁止しています。これには、AI生成物を含むCSAMの作成、未成年者のグルーミング、不適切なコンテンツへの暴露などが含まれます。開発者に対しても同様のポリシーが適用され、違反者はサービスから永久に追放されます。

技術面では、まず学習データからCSAMを徹底的に排除し、モデルが有害な能力を獲得するのを未然に防ぎます。さらに、運用中のモデルでは、Thornなどの外部機関と連携したハッシュマッチング技術とAI分類器を活用。既知および未知のCSAMをリアルタイムで検出し、生成をブロックする体制を敷いています。

不正利用が検知された場合、OpenAIは迅速かつ厳格な措置を講じます。CSAMの生成やアップロードを試みたユーザーのアカウントは即座に停止され、全事例が米国の専門機関「全米行方不明・搾取児童センター(NCMEC)」に通報されます。これは、AIプラットフォームとしての社会的責任を果たすための重要なプロセスです。

近年、CSAM画像をアップロードしモデルに説明させる、あるいは架空の性的ロールプレイに誘導するといった、より巧妙な悪用手口も確認されています。OpenAIは、こうした文脈を理解する分類器や専門家によるレビューを組み合わせ、これらの新たな脅威にも対応していると説明しています。

一方で、対策の強化には課題も存在します。CSAMの所持・作成は米国法で違法とされているため、AIモデルの脆弱性を検証する「レッドチーミング」にCSAM自体を使えません。これにより、安全対策の十分なテストと検証に大きな困難が伴うのが実情です。

この課題を乗り越えるため、OpenAI法整備の重要性を訴えています。テクノロジー企業、法執行機関、支援団体が密に連携し、責任ある対策や報告を行えるような法的枠組みの構築を提言。ニューヨーク州の関連法案を支持するなど、具体的な行動も起こしています。

ChatGPT、未成年保護強化へ「年齢予測システム」と「親制御」導入

最優先事項:未成年者保護

18歳未満のユーザーに対して安全性を最優先
プライバシーや自由よりも安全対策を優先する方針
年齢不確実な場合は制限の厳しい18歳未満向けを適用
成人ユーザーにはID検証を求める可能性も示唆

年齢予測システムと制限

ユーザーの年齢を推定する長期的なシステムを開発中
露骨な性的コンテンツや「いちゃつく会話」をブロック
自殺・自傷行為に関する会話を厳しく制限
急性的な苦痛検出時は親通知、緊急時は当局へ連携

強化されるペアレンタルコントロール

保護者とティーンのアカウント連携(最低年齢13歳)
記憶機能・履歴の無効化を親が管理可能に
新たに使用禁止時間帯(ブラックアワー)を設定

OpenAIは、未成年ユーザーを保護するため、ChatGPTに大幅な安全対策を導入しました。具体的には、ユーザーの年齢を識別するシステムを構築し、保護者が子の利用状況を管理できるペアレンタルコントロール機能を展開します。これは、AIチャットボット未成年者への悪影響に関する懸念が高まり、米上院で公聴会が開かれるなどの社会的な圧力に対応した動きです。

同社は、18歳未満のユーザーを識別するための「年齢予測システム」を長期的に構築中です。システムが年齢を確信できない場合、安全を期して制限の厳しい「18歳未満向け体験」を適用する方針です。CEOのサム・アルトマン氏は、成人ユーザーに対しても、将来的にはID検証を求める可能性があると示唆しており、プライバシーとのトレードオフが生じています。

18歳未満と識別されたユーザーには、露骨な性的コンテンツや「いちゃつく会話」(flirtatious talk)をブロックするなど、年齢に応じたポリシーが適用されます。特に、自殺や自傷行為に関する会話は厳しく制限され、長期間の対話による安全対策の「劣化」を防ぐための強化策も導入されます。

システムがユーザーの急性的な苦痛や自殺願望を検出した場合、保護者に通知します。保護者と連絡が取れないような稀な緊急時には、未成年者の安全を確保するため、法執行機関への関与も辞さないとしています。同社は、プライバシーや自由よりもティーンの安全を優先するという明確なスタンスを示しています。

今月末までに利用可能となるペアレンタルコントロールでは、保護者が子のChatGPTアカウント(最低年齢13歳)と連携できます。これにより、保護者はチャット履歴や記憶機能の無効化を管理できるほか、新たに「ブラックアワー」として利用禁止時間帯を設定する機能も追加されます。

今回の安全対策強化の背景には、ChatGPTとの長期的な対話後に自殺したとされるアダム・レイン氏の遺族による訴訟があります。遺族は、チャットボットが数カ月にわたり自殺について1,275回も言及し、「自殺コーチ」のようになったと訴えており、AIの安全設計の限界が浮き彫りになっていました。