コンテンツフィルタ(政策・規制)に関するニュース一覧

米TavusのAIサンタ、感情認識と記憶機能で長時間対話へ

進化した「Tavus PAL」

視覚・聴覚を持ち人間らしく振る舞うAIエージェントを採用
表情やジェスチャーを認識し会話内容や興味を長期記憶
Web検索やメール下書きなど自律的なタスク実行が可能

高い没入度と安全性

1日数時間対話し利用制限に達する長時間利用が多発
昨年の数百万回を大幅に上回るペースでアクセス急増
フィルターやデータ削除機能を実装し家族の安全に配慮

米国のAIスタートアップTavusは、音声と顔のクローニング技術を用いた「AIサンタ」の提供を開始しました。昨年に続く2年目の取り組みですが、今年は感情認識や長期記憶といった高度な機能を搭載し、大幅に進化しています。創業者によると、ユーザーが1日に数時間も話し込むケースが見られるなど、極めて高いエンゲージメントを記録しています。

今年のAIサンタは、同社のリアルタイムAIエージェント基盤「Tavus PAL」によって駆動されています。ユーザーの表情やジェスチャーを視覚的に認識して反応するほか、過去の会話内容や興味を記憶することで、よりパーソナライズされた体験を提供します。さらに、プレゼントのアイデアをWebで検索したり、メールの下書きを作成したりするなど、自律的なアクションも可能です。

実際のテストでは、特定のゲームタイトルについて掘り下げるなど、文脈を理解した自然な会話が確認されました。CEOのHassaan Raza氏によれば、昨年の数百万アクセスを大幅に上回るペースで利用が拡大しており、多くのユーザーが日々の利用制限に達するほど熱中しています。一方で、AI特有の長い沈黙や声の抑揚など、改善の余地も残されています。

長時間のAI対話がもたらす子供への影響も懸念されますが、Tavusはこれを「家族で楽しむ体験」と位置づけています。不適切な会話を防ぐコンテンツフィルタの実装や、必要に応じたメンタルヘルスリソースへの誘導など、安全対策を強化しています。また、収集されたデータはユーザーの要求に応じて削除可能であり、プライバシー保護にも配慮されています。

ChatGPT、チーム協業の新機能 日本で先行公開

チームでAIと共同作業

日本など4地域で試験導入
最大20人が同時利用可能
無料プランから利用できる
招待リンクで簡単参加

最新モデルと安全設計

高性能なGPT-5.1 Autoを搭載
画像生成・ファイル共有も可
会話内容は学習データに不使用
人間同士の会話は上限対象外

OpenAIは2025年11月14日、日本、ニュージーランド、韓国、台湾の4地域で、ChatGPTの新機能「グループチャット」のパイロット版を公開しました。これにより、最大20人のユーザーが単一のチャット空間でAIと対話しながら共同作業できます。本機能はチームでの生産性向上や新たなコラボレーションの形を模索する企業にとって、重要な試金石となりそうです。

グループチャットの利用は簡単です。新規または既存のチャットでアイコンを選び、参加者を招待するだけ。共有リンクでの参加も可能で、無料プランを含む全ユーザーが対象です。グループはサイドバーに整理され、簡単にアクセスできます。既存の会話から派生させても、元の対話は保護される設計となっています。

この新機能は、最新のGPT-5.1 Autoモデルを搭載。文脈に応じて最適なモデルを自動で選択し、高度な対話を実現します。さらに、ウェブ検索画像生成、ファイルアップロードといった既存の強力な機能もグループ内で利用可能です。特筆すべきは、人間同士のメッセージ交換はプランごとの利用上限にカウントされない点でしょう。

OpenAIプライバシー保護を重視しています。グループチャットでの会話は、ユーザー個人の応答を最適化する「メモリ」機能から完全に独立しており、モデルの学習データとして使用されることはありません。これにより、機密性の高いアイデアの議論やプロジェクトの共同作業も安心して行えます。未成年者向けのコンテンツフィルターも標準で搭載されています。

本機能は、ChatGPTを単なる対話ツールから「共有のコラボレーション空間」へと進化させるOpenAIの戦略の第一歩です。MicrosoftAnthropicといった競合も共同作業機能を強化しており、AIアシスタント市場の競争は新たな局面に入りました。今回のパイロット運用で得られたフィードバックを基に、今後、対象地域や機能が拡充される見込みです。

企業にとって、この機能は大きな可能性を秘めています。エンジニアチームのブレインストーミング、マーケティング部門のコンテンツ共同制作、さらにはデータ分析チームの知見共有など、部門横断的なプロジェクトでの活用が期待されます。API経由での利用は現時点で未定ですが、今後の動向が企業のAI導入戦略を大きく左右するでしょう。

PowerSchool、SageMakerで実現した教育AI向けコンテンツフィルタリング

K-12教育特化AIの安全確保

K-12教育向けAIアシスタント「PowerBuddy」
歴史教育などでの誤検出(False Positive)を回避
いじめ・自傷行為の即時検知を両立させる必要性

SageMaker活用によるモデル育成

Llama 3.1 8BをLoRA技術で教育特化ファインチューニング
高い可用性とオートスケーリングを要件にSageMakerを採用
有害コンテンツ識別精度約93%、誤検出率3.75%未満

事業へのインパクトと将来性

学校現場での教師の負担を大幅に軽減
将来的にマルチアダプター推論で運用コストを最適化

教育分野向けのクラウドソフトウェア大手PowerSchoolは、AIアシスタント「PowerBuddy」の生徒安全を確保するため、AWSAmazon SageMaker AIを活用し、コンテンツフィルタリングシステムを構築しました。オープンな基盤モデルであるLlama 3.1を教育ドメインに特化してファインチューニングし、高い精度と極めて低い誤検出率を両立させ、安全な学習環境の提供を実現しています。

このソリューションが目指したのは「責任あるAI(Responsible AI)」の実現です。ジェネリックなAIフィルタリングでは、生徒が歴史的な戦争やホロコーストのような機微な学術的話題を議論する際に、誤って暴力的コンテンツとして遮断されるリスクがありました。同時に、いじめや自傷行為を示唆する真に有害な内容は瞬時に検知する必要があり、ドメイン特化の調整が不可欠でした。

PowerSchoolは、このカスタムモデルの開発・運用基盤としてAmazon SageMaker AIを選定しました。学生の利用パターンは学校時間帯に集中するため、急激なトラフィック変動に対応できるオートスケーリング機能と、ミッションクリティカルなサービスに求められる高い信頼性が決め手となりました。また、モデルの重みを完全に制御できる点も重要でした。

同社はLlama 3.1 8Bモデルに対し、LoRA(Low Rank Adaptation)技術を用いたファインチューニングをSageMaker上で行いました。その結果、教育コンテキストに特化した有害コンテンツ識別精度は約93%を達成。さらに、学術的な内容を誤って遮断する誤検出率(False Positive)を3.75%未満に抑えることに成功しました。

この特化型コンテンツフィルタリングの導入は、学生の安全を確保するだけでなく、教育現場に大きなメリットをもたらしています。教師はAIによる学習サポートにおいて生徒を常時監視する負担が減り、より個別指導に集中できるようになりました。現在、PowerBuddyの利用者は420万人以上の学生に拡大しています。

PowerSchoolは今後、SageMaker AIのマルチアダプター推論機能を活用し、コンテンツフィルターモデルの隣で、教育ドメインに特化した意思決定エージェントなど複数の小型言語モデル(SLM)を展開する計画です。これにより、個別のモデルデプロイが不要となり、専門性能を維持しつつ大幅なコスト最適化を目指します。

OpenAI動画アプリSora、熱狂と懸念でApp Store1位

驚異的な滑り出し

公開2日で16.4万DL達成
米国App Store総合1位を獲得
招待制ながら異例のバイラルヒット

主な機能と特徴

テキストから10秒の動画を自動生成
自身のAIアバターを作るカメオ機能
ミーム化しやすいソーシャル体験

浮上する深刻な懸念

偽情報拡散リスクと悪用
アニメキャラ等の著作権侵害問題

OpenAIが2025年10月初旬にリリースしたAI動画生成アプリ「Sora」が、公開直後から爆発的な人気を集め、米国App Storeで総合1位を獲得しました。テキストからリアルな動画を手軽に生成できる一方、ディープフェイクによる偽情報の拡散や著作権侵害といった深刻な懸念も同時に浮上しており、その影響が注目されています。

Sora米国とカナダで招待制として公開されたにもかかわらず、最初の2日間で16.4万ダウンロードを記録。これは他の主要AIアプリのローンチを上回る勢いです。この異例のスタートダッシュは、消費者の間でAIによる動画生成・共有体験への強い需要があることを明確に示しています。

アプリの魅力は、テキストから10秒の動画を生成する手軽さに加え、自身のAIアバターを作れる「カメオ」機能にあります。友人や著名人(本人の許可が必要)を登場させたパロディ動画やミームがSNSで拡散され、バイラルヒットの大きな原動力となりました。

しかし、そのリアルさ故に偽情報の温床となるリスクが最大の課題です。アプリ内の透かし(ウォーターマーク)は画面録画や別ツールで容易に除去可能とされ、悪意あるディープフェイク動画が本物として拡散される危険性が専門家から指摘されています。

著作権侵害も深刻な問題です。人気アニメや映画のキャラクターが無断で生成された事例が既に報告されており、OpenAIコンテンツフィルターが不十分である可能性が露呈しました。知的財産の保護と生成AIの自由度の両立は、依然として大きな挑戦です。

OpenAI社内からも、この技術の社会実装に対する期待と同時に懸念の声が上がっています。「現実と非現実の境界を曖昧にする」と評されるSoraは、利便性の裏に潜むリスクを社会全体でどう管理していくのか、重い問いを投げかけていると言えるでしょう。

Stability AI、AI安全対策を強化。年次透明性レポート公開

安全設計と実績値

学習データからの有害コンテンツ排除
モデル・APIの多層的な悪用防止
全生成AIモデル(100%)リスク評価
学習データからのCSAM検出は0%
NCMECへの不正利用報告は計13件

透明性とガバナンス

API生成コンテンツへのC2PAメタデータ付与
リリース前におけるレッドチーミングの継続実施
業界団体や法執行機関との連携強化

Stability AIは2025年9月、2024年4月から2025年4月までの期間を対象とした年次「インテグリティ透明性レポート」を公開しました。同社は、責任ある生成AI開発の取り組みとして、児童性的虐待素材(CSAM)の防止に重点を置き、具体的な安全対策と実績値を開示しています。透明性を通じて信頼を構築し、ガバナンス強化を目指す方針です。

同社の安全対策は、「データ」「モデル」「プラットフォーム」の三層で構成されています。特に学習データについては、社内開発およびオープンソースのNSFW分類器に加え、業界団体のCSAMハッシュリストを適用し、有害コンテンツを徹底的に排除しています。報告期間中、学習データからのCSAM検出は0%でした。

モデルのリリース前には、厳格なリスク評価手法である「レッドチーミング」を実施しています。Stable Diffusion 3を含む全生成AIモデル(100%)がCSAM/CSEM生成能力に関してストレス評価を受けました。有害な生成能力が特定された場合、リリース前に概念を除去するセーフティ・ファインチューニングが施されます。

プラットフォームAPIレベルでは、入力と出力の両方に対し、リアルタイムでのコンテンツフィルターを適用しています。既知のCSAMを検出・ブロック・報告するためのハッシュシステムも統合されています。これにより、AUP(許容利用ポリシー)違反の入出力を即座に阻止する多層的な防御を実現しています。

AIコンテンツの真正性を担保するため、Stability AIはAPIを通じて生成された画像動画音声C2PAメタデータを付与しています。このメタデータにはモデル名やバージョン番号が含まれ、AI生成物であることを特定可能にし、コンテンツの透明性向上に貢献します。

悪用防止のため、自動検出ツールと人間による審査を組み合わせたコンテンツモデレーション体制を敷いています。実際にCSAMに関連する試行が検出された場合、NCMEC(行方不明・搾取児童センター)へ迅速に報告を実施。報告期間中のNCMECへの報告総数は13件でした。