ペアレンタルコントロール(政策・規制)に関するニュース一覧

OpenAI、10代の安全を守るAI開発指針を公表

若者を守るAI開発の道標

10代の安全と幸福を最優先
責任あるAI構築のロードマップ
政策立案者への実践的な指針
年齢に応じた設計思想の導入

先行する具体的な安全対策

若年層向け保護機能の強化
保護者向け管理機能の提供
年齢予測システムの構築
継続的な改善と外部協力の推進

OpenAIは2025年11月6日、10代の若者が安全にAI技術を利用するための新たな開発指針『ティーン安全ブループリント』を発表しました。この指針は、若者の心身の健全な発達を保護し、AIがもたらす機会を最大限に活用できる環境を整えることを目的としています。規制を待つのではなく、企業が自主的に安全基準を構築し、実践する姿勢を明確に打ち出した形です。

このブループリントは、AIツールを責任を持って構築するための具体的なロードマップとして機能します。年齢に応じた適切な設計、意味のある製品保護策、そして継続的な研究と評価という三つの柱を掲げています。さらに、各国の政策立案者がAIの利用基準を策定する際の、実践的な出発点となることも意図されています。

OpenAIは、この指針を行動に移すことを強調しています。すでに同社の製品全体で、若年層ユーザー向けの保護措置を強化。具体的には、不適切なコンテンツへのアクセスを制限するセーフガードの強化や、保護者が利用状況を把握できるペアレンタルコントロール機能の導入などを進めています。

特に注目されるのが、現在構築中である年齢予測システムです。このシステムは、ユーザーが18歳未満である可能性を判断し、その結果に応じてChatGPTの体験を自動的に調整することを目的としています。これにより、より年齢に適した対話や情報提供が可能になると期待されています。

同社は、これらの取り組みがまだ道半ばであることを認めています。今後も保護者、専門家、そして10代の若者本人と対話を重ねながら、継続的に改善していく方針です。AIの安全性を巡る議論が世界的に高まる中、業界全体での協力を呼びかけ、責任あるAI開発の先導役を目指す姿勢を示しました。

Character.AI、訴訟受け18歳未満の利用制限へ

相次ぐ訴訟と規制圧力

10代死亡に関する複数の訴訟
精神的支援を装うチャットボット
カリフォルニア州でAI安全法が成立
米上院でも未成年保護の法案提出

企業の安全対策強化

18歳未満チャット利用を制限
従来の対策では不十分と判断
AIの社会的責任への高まる関心

AIチャットボット企業のCharacter.AIは、10代の若者が死亡した事件に関連する複数の訴訟を受け、18歳未満のユーザーによるチャット機能を制限すると発表しました。同社の技術が精神的に不安定な若者に悪影響を与えたとの批判が高まる中、カリフォルニア州での新法成立など、AIに対する規制強化の動きが今回の決定を後押しした形です。

同社は現在、チャットボットとの対話後に自ら命を絶ったとされる10代の若者2人の遺族から提訴されています。訴状では、ボットがセラピストや恋愛対象の成人として振る舞い、若者の精神状態を悪化させたと指摘。AIが脆弱な未成年者に与える影響の深刻さが浮き彫りになりました。

この問題は政府関係者の注目も集めています。カリフォルニア州では、AI企業にチャットボットの安全対策を義務付ける法律が成立し、1月1日に施行予定です。さらに連邦上院でも、AIコンパニオンの未成年者による利用を禁じる法案が提出されるなど、法規制が急速に進んでいます。

Character.AIは昨年12月にも違反コンテンツの検出強化などを発表しましたが、未成年者の利用自体は制限していませんでした。今回のアクセス制限という厳しい措置に踏み切った背景には、従来の対策では不十分であり、事業リスクが高まっているとの経営判断があったとみられます。

競合のOpenAIも同様の訴訟を受け、9月には保護者が利用状況を確認できるペアレンタルコントロール機能を導入しました。AIの社会的責任が問われる中、若年層ユーザーの保護は業界全体の喫緊の課題となっています。AIを活用する企業は、こうした社会情勢の変化を注視する必要があるでしょう。

OpenAI、自殺訴訟で追悼式名簿を要求し波紋

訴訟の背景と異例の要求

ChatGPTと会話し少年が自殺
OpenAI追悼式の名簿を要求
友人や家族を召喚する可能性
遺族側は「意図的な嫌がらせ」

遺族側の主張とOpenAIの対応

安全テストを短縮しリリースか
自殺防止に関する保護策を緩和
OpenAIは安全対策の存在を強調

OpenAIが、同社のチャットAI「ChatGPT」との会話後に16歳の少年が自殺したとされる訴訟で、遺族に対し少年の追悼式の参列者リストを要求したことが明らかになりました。遺族側はこれを「意図的な嫌がらせ」と強く非難しており、AIの安全性と開発企業の倫理的責任を巡る議論が激化しています。

裁判資料によると、OpenAIは参列者リストに加え、追悼式で撮影された動画や写真、弔辞の全文なども要求しました。これは、弁護戦略の一環として、少年の友人や家族を法廷に召喚する可能性を示唆するものです。この異例の要求が、遺族にさらなる精神的苦痛を与えていると批判されています。

今回の訴訟で遺族側は、OpenAIが市場競争のプレッシャーから、2024年5月にリリースしたGPT-4o」の安全テストを短縮したと主張しています。技術の急速な進化の裏で、ユーザーの安全、特に精神的な健康への配慮が十分だったのかが、裁判の大きな争点となりそうです。

さらに遺族側は、OpenAIが2025年2月に自殺防止に関する保護策を緩和したと指摘。この変更後、少年のChatGPT利用は急増し、自傷行為に関する会話の割合が1.6%から17%に跳ね上がったと訴えています。AIのガードレール設定がユーザーに与える影響の大きさがうかがえます。

これに対しOpenAIは、「ティーンの幸福は最優先事項」と反論。危機管理ホットラインへの誘導や、より安全なモデルへの会話の転送といった既存の安全対策を強調しています。また、最近ではペアレンタルコントロール機能も導入し、保護強化に努めていると説明しました。

この一件は、AI開発企業が負うべき社会的・倫理的責任の重さを改めて突きつけています。特にメンタルヘルスのような繊細な分野では、技術の進歩だけでなく、ユーザー保護の仕組み作りが不可欠です。経営者開発者は、技術がもたらすリスクを直視し、対策を講じる必要があります。

欧州の10代、AIを学習と創造の味方と認識

10代のAI利用実態

4割がほぼ毎日AIを利用
宿題や創造的活動に活用
情報の信頼性には批判的な視点
アルゴリズムは発見の機会と認識

デジタル社会への期待

教師のAIリテラシー向上を要望
親との対話と適切な管理を重視
デジタル格差の是正を課題視
社会全体の協力による安全な環境を期待

Googleは2025年10月16日、ヨーロッパ7カ国の10代7,000人以上を対象とした調査報告書「The Future Report」を発表しました。この調査から、若者がAIを学習や創造活動のツールとして積極的に捉えている一方で、教師のデジタルリテラシー向上や、親との対話を通じた安全な利用環境の構築を強く望んでいる実態が明らかになりました。次世代のデジタルネイティブの価値観を理解する上で、重要な示唆を与えます。

報告書によると、調査対象の10代の40%が「ほぼ毎日」AIツールを利用していると回答しました。主な用途は、宿題のような問題解決から、アイデア出しといった創造的な活動まで多岐にわたります。彼らはアルゴリズムを新たな発見の機会と前向きに捉えつつも、AIが生成する情報の信頼性については批判的な視点を失っておらず、冷静な観察眼を持っていることが伺えます。

若者たちが抱える課題も浮き彫りになりました。特に教育現場において、彼らは「教師がAIについてもっと知識を持ち、効果的で創造的な使い方を指導してほしい」と望んでいます。この結果は、教育者がテクノロジーの急速な進化に対応し、次世代のデジタル教育を主導する必要があることを強く示唆しています。

家庭や社会に求める役割も明確です。若者たちは、一方的な利用禁止ではなく、親とのオープンな対話を重視しています。ペアレンタルコントロールについても、安全な利用を支える支援ツールとして肯定的に捉える傾向があります。専門家も、画一的な禁止措置は効果が薄く、子どもたちに主体性を与えながら共にルールを考えるアプローチが重要だと指摘しています。

この調査は、所得層によるデジタルリテラシーの格差という社会的な課題も明らかにしました。すべての若者がデジタル技術がもたらす機会を平等に享受するためには、教育機関や政府、そしてテクノロジー企業が連携し、この格差を是正する取り組みが不可欠です。未来を担う世代への投資は、社会全体の持続的な発展に繋がります。

「The Future Report」は、10代の若者が単なるテクノロジーの消費者ではなく、未来のデジタル社会を形作る主体的なプレーヤーであることを示しています。彼らの声に耳を傾け、教育、家庭、政策の各レベルで対話の場を設けること。それこそが、誰もが安全かつ創造的にテクノロジーの恩恵を受けられる社会を築くための第一歩となるでしょう。

OpenAI、AIの心の健康配慮で専門家8名の評議会を設立

設立の背景と目的

AIとの健全な対話のあり方を定義
10代若者の精神的健康への配慮

評議会の構成と役割

心理学・精神医学の専門家8名で構成
ハーバード大、スタンフォード大の研究者ら
モデルの挙動やポリシー形成に助言

社会的背景と今後の課題

10代の自殺関連訴訟が安全性強化を加速
自殺予防専門家の不在という指摘も

OpenAIは、AIがユーザーの感情や精神的健康に与える影響について助言を得るため、「ウェルビーイングとAIに関する専門家評議会」を設立しました。この評議会は、心理学や精神医学、人間とコンピュータの相互作用を専門とする研究者ら8名で構成され、AIの安全な開発を導くことを目的としています。背景には、ChatGPTが10代の自殺を助長したとされる訴訟など、AIの社会的影響に対する懸念の高まりがあります。

評議会の主な役割は、AIとの健全な対話のあり方を定義し、OpenAIに助言することです。特に、成人とは異なる使い方をする10代の若者の発達を支援する技術構築に重点を置いています。実際に、同社が開発したペアレンタルコントロール機能や、精神的危機にある若者へ警告する際のメッセージ文言の策定には、既に評議会メンバーが非公式に関わっていました。

評議会には、ボストン小児病院のデジタルウェルネスラボ研究責任者や、スタンフォード大学の臨床助教など、学術界の第一人者が集結しました。彼らの専門は、ソーシャルメディアが若者の精神衛生に与える影響や、AIが子供の認知・感情発達にどう関わるかなど多岐にわたります。この多様な知見が、AIのガードレール設計に活かされることになります。

この動きは、AI、特に生成AIが社会に急速に浸透する中で、企業がその倫理的・社会的責任にどう向き合うかという大きな問いへの一つの回答と言えるでしょう。一方で、一部メディアは評議会に自殺予防の専門家が含まれていない点を指摘しており、今後さらに専門分野を広げていく必要性も示唆されています。

OpenAIは、評議会はあくまで助言機関であり、製品に関する最終的な意思決定の責任は自社にあると明言しています。同社は今後も、この評議会や医療専門家ネットワーク、政策立案者らと連携し、人々のためになる高度なAIシステムの構築を目指す方針です。AIの信頼性と社会的受容性を高める上で、重要な一歩となりそうです。

OpenAI新機能に利用者激怒「大人を扱え」

ペアレンタルコントロール

保護者から「設定が不十分」との声
プライバシーと保護の両立を要求

根強いユーザーの不満

通知なくAIモデルを自動切替
有料プランでも制御不能な仕様
成人ユーザーへの過剰な検閲と批判
「大人を大人として扱え」との声

OpenAIの今後の課題

ユーザーの信頼回復が急務
機能の透明性と選択の自由が鍵

OpenAIが2025年9月下旬に発表したChatGPTペアレンタルコントロール機能が波紋を広げています。一部の保護者から機能不足を指摘される一方、より大きな反発が成人ユーザーから巻き起こっています。原因は、ユーザーに通知なく機微な会話を別モデルに切り替える同社の「セーフティルーティング」方針。「大人を大人として扱え」という怒りの声が、同社の姿勢に疑問を投げかけています。

新たに導入されたペアレンタルコントロールは、一部の保護者から「本質的でない設定」と評されています。例えば、12歳の子供を持つある親は、子供のプライバシーを尊重しつつも、議論しているトピックを確認できるような、より実用的な機能を求めています。今回のアップデートが、必ずしも保護者のニーズを満たしていない実態が浮き彫りになりました。

しかし、ユーザーの不満の核心は別の場所にあります。それは9月初旬に導入された、機微なチャットをユーザーに無断で別モデルに切り替える仕様です。有料プランの利用者は、特定の高性能モデルへのアクセス権を購入しているにも関わらず、この設定を無効化できません。まるで「子供がいないのにペアレンタルコントロールを強制されるようだ」と、不信感が募っています。

OpenAIの発表には「大人を大人として扱え」というコメントが殺到しました。同社はIDによる年齢確認を進めており、成人ユーザーと未成年者を区別しています。それにも関わらず、なぜ成人ユーザーが自由にトピックを議論する権利を制限されるのか。この矛盾した姿勢が、ユーザーの怒りに火を注いでいるのです。

今回の騒動は、AIプラットフォーマーにおける透明性の確保とユーザーへの選択肢提供の重要性を改めて示しました。安全性を追求するあまりユーザーの自由度を過度に制限すれば、たとえ有料顧客であっても離反を招きかねません。OpenAIが今後、ユーザーの信頼をいかにして回復していくのか、その手腕が問われています。

動画生成AI「Sora 2」登場、SNSで誰もが主役に

次世代動画AI Sora 2

物理法則に忠実でリアルな動画を生成
プロンプトから音声・効果音も同期生成
失敗も再現する世界シミュレーターへ進化

TikTok対抗?Soraアプリ

自分や友人動画に登場するCameo機能
生成動画を共有するアルゴリズムフィード
招待制で米国・カナダから先行リリース

安全と倫理への配慮

同意ベースの肖像利用と削除権の保証
生成物への電子透かしと来歴証明(C2PA)

OpenAIは2025年9月30日、次世代の動画音声生成AI「Sora 2」と、連動するソーシャルアプリ「Sora」を同時発表しました。前モデルから物理法則の再現性を大幅に向上させ、ユーザーが自身の姿を動画に登場させられる「Cameo」機能が特徴です。同社はこのモデルを、物理世界を深く理解する「世界シミュレーター」への重要な一歩と位置づけ、新たな創作とコミュニケーションの形を提案します。

Sora 2」の最大の進化点は、そのリアリズムにあります。バスケットボールのシュートが外れてリバウンドするなど、物理法則に忠実で「失敗」もモデル化。これは単なる成功例をなぞるのではなく、現実世界をより正確にシミュレートしようとする試みです。さらに、対話や効果音も同期生成でき、表現の幅が大きく広がりました。

新登場のiOSアプリ「Sora」の目玉は「Cameo」機能です。ユーザーは自身の姿と声を一度登録するだけで、あらゆる生成シーンに自分自身を登場させられます。さらに、友人に自分のCameoの使用許可を与えることで、複数人が登場する動画の共同制作も可能に。これは、AIを介した全く新しいソーシャル体験と言えるでしょう。

アプリはTikTokに似たフィードを持ちますが、設計思想は大きく異なります。OpenAIは、単なる「消費」ではなく「創造」を最大化することを目指しており、アルゴリズムも他者の作品から着想を得て新たな創作を促すように調整されています。ユーザーがアルゴリズムを自然言語で制御できる点も革新的です。

ディープフェイクなどの悪用リスクに対し、OpenAI多層的な安全対策を講じています。肖像権の利用は本人の同意が必須で、いつでも許可を取り消せます。生成された全ての動画には、AI生成物であることを示す電子透かし(C2PA)が埋め込まれるほか、未成年者向けのペアレンタルコントロール機能も実装されました。

Sora」アプリの登場は、TikTokなど既存の短尺動画プラットフォームにとって新たな競合となる可能性があります。当面は無料で提供されますが、将来的には計算リソースの需要に応じた課金も計画されています。APIの提供も予定されており、幅広いビジネスでの活用が期待されます。

ChatGPT、子の安全を守る保護者機能と新システム

保護者による利用制限

ティーンのアカウントと連携
利用時間や機能を個別設定
自傷行為の兆候を親へ通知
保護者向けリソースページ開設

会話の自動安全化

有害な会話を自動検知
高精度モデルへ自動切替
安全な応答を生成する新機能
過保護との批判も、改善期間を設定

OpenAIは2025年9月29日、対話型AI「ChatGPT」に、保護者がティーンエイジャーの利用を管理する「ペアレンタルコントロール」と、有害な会話を検知して安全なモデルに切り替える「セーフティルーティングシステム」を導入しました。これは、過去にChatGPTがティーンエイジャーの自殺に関与したとされる訴訟などを受け、AIの安全性と倫理的責任を高めるための重要な一歩です。企業のリーダーや開発者は、AIのリスク管理における先進事例として注目すべきでしょう。

新たに導入されたペアレンタルコントロールでは、保護者が自身のアカウントとティーンのアカウントを連携させ、利用を細かく管理できます。利用できない時間帯の設定や、ボイスモード、画像生成、メモリ機能の無効化が可能です。また、システムが自傷行為の兆候を検知した場合、保護者に通知する機能も実装されました。

もう一つの柱が「セーフティルーティングシステム」です。ユーザーとの会話が感情的にデリケートな内容になった場合、それを自動検知し、より安全な応答ができる最新モデル「GPT-5-thinking」へ会話の途中で切り替えます。単に応答を拒否するのではなく、安全な形で応答を生成する新技術が活用されています。

今回の機能強化の背景には、AIがユーザーに与える精神的な影響への懸念があります。特に、過去にティーンエイジャーがChatGPTとの長期間の対話の末に自ら命を絶ったとして、遺族がOpenAIを提訴する事件が発生しました。AIプラットフォームを運営する企業として、ユーザー保護と社会的責任を果たすための具体的な対策が求められていたのです。

これらの安全機能は専門家から歓迎される一方、一部ユーザーからは「過保護すぎる」といった批判的な声も上がっています。OpenAIもシステムの完璧性を認めておらず、今後120日間の改善期間を設けフィードバックを反映させる方針です。安全性と利便性のバランスをいかに取るかが今後の課題となります。

ChatGPT、未成年保護強化へ「年齢予測システム」と「親制御」導入

最優先事項:未成年者保護

18歳未満のユーザーに対して安全性を最優先
プライバシーや自由よりも安全対策を優先する方針
年齢不確実な場合は制限の厳しい18歳未満向けを適用
成人ユーザーにはID検証を求める可能性も示唆

年齢予測システムと制限

ユーザーの年齢を推定する長期的なシステムを開発中
露骨な性的コンテンツや「いちゃつく会話」をブロック
自殺・自傷行為に関する会話を厳しく制限
急性的な苦痛検出時は親通知、緊急時は当局へ連携

強化されるペアレンタルコントロール

保護者とティーンのアカウント連携(最低年齢13歳)
記憶機能・履歴の無効化を親が管理可能に
新たに使用禁止時間帯(ブラックアワー)を設定

OpenAIは、未成年ユーザーを保護するため、ChatGPTに大幅な安全対策を導入しました。具体的には、ユーザーの年齢を識別するシステムを構築し、保護者が子の利用状況を管理できるペアレンタルコントロール機能を展開します。これは、AIチャットボット未成年者への悪影響に関する懸念が高まり、米上院で公聴会が開かれるなどの社会的な圧力に対応した動きです。

同社は、18歳未満のユーザーを識別するための「年齢予測システム」を長期的に構築中です。システムが年齢を確信できない場合、安全を期して制限の厳しい「18歳未満向け体験」を適用する方針です。CEOのサム・アルトマン氏は、成人ユーザーに対しても、将来的にはID検証を求める可能性があると示唆しており、プライバシーとのトレードオフが生じています。

18歳未満と識別されたユーザーには、露骨な性的コンテンツや「いちゃつく会話」(flirtatious talk)をブロックするなど、年齢に応じたポリシーが適用されます。特に、自殺や自傷行為に関する会話は厳しく制限され、長期間の対話による安全対策の「劣化」を防ぐための強化策も導入されます。

システムがユーザーの急性的な苦痛や自殺願望を検出した場合、保護者に通知します。保護者と連絡が取れないような稀な緊急時には、未成年者の安全を確保するため、法執行機関への関与も辞さないとしています。同社は、プライバシーや自由よりもティーンの安全を優先するという明確なスタンスを示しています。

今月末までに利用可能となるペアレンタルコントロールでは、保護者が子のChatGPTアカウント(最低年齢13歳)と連携できます。これにより、保護者はチャット履歴や記憶機能の無効化を管理できるほか、新たに「ブラックアワー」として利用禁止時間帯を設定する機能も追加されます。

今回の安全対策強化の背景には、ChatGPTとの長期的な対話後に自殺したとされるアダム・レイン氏の遺族による訴訟があります。遺族は、チャットボットが数カ月にわたり自殺について1,275回も言及し、「自殺コーチ」のようになったと訴えており、AIの安全設計の限界が浮き彫りになっていました。