ディープフェイク(脅威・リスク)に関するニュース一覧

xAI、AI恋人開発に従業員の生体情報を強制利用

「職務要件」としてのデータ収集

AIチャットボット'Ani'の訓練が目的
従業員の顔と声のデータ提供を指示
拒否が難しい'職務要件'との説明
永続的・世界的ライセンスへの同意要求

従業員から噴出する懸念

ディープフェイクなどデータ悪用の懸念
AIの性的な性質への不快感
一部従業員からの反発や戸惑いの声

イーロン・マスク氏率いるAI企業xAIが、女性AIチャットボット「Ani」の訓練のため、従業員に顔や声といった生体認証データの提供を「職務要件」としていたことが判明しました。米紙報道によると、一部従業員からはデータの悪用や倫理的な問題に対し強い懸念が示されています。

このデータ収集は「プロジェクト・スキッピー」というコードネームの機密プログラムの一環でした。AIチューターに任命された従業員は、自身の顔と声について、xAI永続的かつ世界的に使用、複製、配布できるライセンスを許諾する同意書への署名を求められたと報じられています。

一部の従業員は、提供したデータが他社に売却されたり、ディープフェイク動画に悪用されたりするリスクを危惧しました。また、チャットボット「Ani」が持つ性的な性質や、日本の「ワイフ」文化を彷彿とさせるキャラクター設定にも不快感を示したとのことです。

従業員の懸念に対し、xAIの弁護士は社内会議で、データ収集は「xAIの使命を前進させるための職務要件」と説明しました。これにより、従業員が拒否しにくい状況が作られていた模様です。企業の目的達成と個人の権利のバランスが問われる事態となっています。

話題の「Ani」はXの有料サービスで提供され、一部で「現代版テレホンセックス」とも評されます。AIの人間らしさを追求する裏で、開発手法の倫理と透明性が問われる形となりました。AI活用企業にとって、従業員のデータ取り扱いは避けて通れない経営課題となりそうです。

OpenAIの動画AI「Sora」、Android版を提供開始

Android版の提供概要

日米など7カ国で提供開始
iOS版は1週間で100万DL
TikTok風の動画フィード
本人登場のCameo機能を搭載

課題と今後の展開

著作権保護ポリシーの変更
キャラクターカメオ機能の拡充
基本的な動画編集ツールも実装予定

OpenAIは2025年11月4日、動画生成AIアプリ「Sora」のAndroid版を、日本米国、カナダなど7カ国で提供開始しました。9月に先行リリースされたiOS版は公開から1週間で100万ダウンロードを突破しており、Android市場への参入でユーザー基盤のさらなる拡大が期待されます。本アプリは、文章から動画を生成するだけでなく、SNS風のフィード機能も特徴です。

Android版の登場により、より多くのクリエイターがAI動画を手軽に制作・共有できるようになります。アプリの核となるのは、ユーザー自身の容姿を使って動画を生成できる「Cameo」機能です。iOS版と同様の機能がすべて搭載されており、TikTokのようなインターフェースで他のユーザーの作品を閲覧することもできます。

Soraの急成長は、動画共有プラットフォーム市場の競争を激化させる可能性があります。Meta社が「Vibes」と呼ばれるAI動画フィードを投入するなど、既存の巨大プラットフォームであるTikTokInstagramもAI機能の強化を迫られるでしょう。OpenAIの参入は、ショート動画市場の勢力図を塗り替える一因となるかもしれません。

一方で、Soraディープフェイク著作権の問題にも直面しています。過去には歴史上の人物の不適切な動画が問題となり、同社は生成に関するガードレールを強化しました。また、著作権で保護されたキャラクターの無断使用への批判を受け、権利者が利用を許諾する「オプトイン」方式へポリシーを変更する対応を取りました。

OpenAIは今後もSoraの機能拡充を続ける方針です。ペットや無生物を使った「キャラクターカメオ」機能や、複数の動画を繋ぎ合わせる基本的な編集ツールの追加を計画しています。ユーザーが自身のフィードをより細かく管理できるカスタマイズ機能も実装予定で、クリエイターにとって魅力的なプラットフォームを目指しています。

トランプ氏、米初の「AIスロップ大統領」に

トランプ氏のAI動画活用

低品質なAI生成動画を頻繁に投稿
人種差別的・奇妙な描写も
支持者向けプロパガンダに活用

投稿の裏側とリスク

側近が投稿を代行・管理
明確な戦略なきトローリング目的か
真実と虚構の境界が曖昧に
民主主義への潜在的脅威

ドナルド・トランプ米大統領が、低品質なAI生成動画、いわゆる『AIスロップを自身のSNSで頻繁に投稿し、米国初の『生成AI大統領』と化しています。これらの動画はトランプ氏自身が作成したものではなく、側近が管理している模様です。明確な戦略は見られず、主に反対派への嘲笑や支持者へのアピールが目的とみられますが、国のトップが真実と虚構の境界を曖昧にすることへの懸念が広がっています。

投稿された動画には、自身が戦闘機を操縦し抗議者に汚物を投下する映像や、政敵を人種差別的に描いたものなど、奇抜で物議を醸す内容が多く含まれます。これらは、専門家が警告してきた選挙妨害目的の高度なディープフェイクとは異なり、むしろその低品質さと奇妙さが特徴です。しかし、その手軽さゆえに拡散力は無視できません。

トランプ氏はキーボード操作を避けることで知られ、動画制作にも関与していません。ホワイトハウス高官によると、トランプ氏自身が面白いと感じた動画を保存して投稿することもありますが、大半は側近スタッフが候補を見つけ、承認を得て投稿しています。特に、長年の側近であるダン・スカヴィーノ氏とナタリー・ハープ氏が投稿作業を担っていると複数の関係者が指摘しています。

これらの動画投稿に一貫した戦略があるのか、という問いに対し、ホワイトハウスは明確な回答を避けています。多くの専門家は、これは単なるトローリング(荒らし)や嘲笑が目的であり、深い戦略的意図はないと分析しています。しかし、大統領の発信が社会に与える影響は大きく、戦略がないこと自体がリスクであるとの見方も出ています。

これまで危惧されてきたのは、選挙を覆すような精巧な偽情報でした。現状の『AIスロップ』はそれとは異なりますが、国のリーダーが率先して真偽不明な情報を拡散するという新たな脅威を生み出しています。事実とフィクションの区別がつかなくなる社会では、健全な民主主義は機能しません。大統領の行動が、今後の情報戦のあり方に悪影響を及ぼす可能性が指摘されています。

動画AI「Sora」に待った、Cameoが商標侵害でOpenAI提訴

提訴の概要

OpenAISora'cameo'機能を搭載
Cameo社が商標権侵害を主張し提訴
ブランド価値の希釈化・毀損を懸念
消費者の混乱を招くリスクを指摘

両社の主張と今後

Cameo「意図的な名称使用だ」
OpenAI「'cameo'は一般名詞」
Cameoは名称使用の差し止めを要求
OpenAIは法廷で争う姿勢

パーソナライズド動画メッセージサービスを手がける米Cameoは28日、AI開発大手のOpenAIを商標権侵害でカリフォルニア州の連邦裁判所に提訴しました。動画生成AI「Sora」の新機能「cameo」が自社のサービス名と酷似し、消費者の混乱を招くと主張。機能名の使用差し止めと損害賠償を求めています。

Cameo社は訴状で、OpenAIが「cameo」という名称を意図的に選択し、同社が築き上げたブランドの評判に便乗しようとしていると非難。このままでは、自社ブランドが「粗悪なAIスロップディープフェイク」といった否定的なイメージと結びつけられ、価値が毀損されると強い懸念を示しています。

Cameo社のスティーブン・ガラニスCEOは声明で、「OpenAI側と友好的に問題解決を試みたが、彼らは『Cameo』の名称使用中止を拒否した」と説明。ブランドと顧客を守るため、やむを得ず提訴以外の選択肢はなかったと経緯を明らかにしました。

一方、OpenAIの広報担当者は「訴状は精査中」としながらも、「『cameo』という単語の独占的所有権を誰も主張することはできない」と反論。Cameo社の主張には同意しないとし、法廷で自社の正当性を主張する構えを見せています。今後の司法判断が注目されます。

Cameoは2017年設立の著名人動画サービスで人気を博しています。対するOpenAISoraは、ユーザーが自身のディープフェイクアバターを作成し、他者が動画に登場させられる「cameo」機能を9月末に発表。利便性の裏で、同意なきディープフェイク生成の問題も指摘されていました。

Cameo、OpenAIを提訴。動画AI「Sora」の機能名巡り

訴訟の概要

Cameo社がOpenAI商標権侵害で提訴
動画AI「Sora」の機能名「cameo」が原因
ブランド価値の希釈化・毀損を主張

両社の主張

Cameo「意図的な名称で消費者が混乱
OpenAI「『cameo』は独占できる単語ではない
Cameoは名称使用差止と損害賠償を要求

著名人からのパーソナライズ動画サービスを手がける米Cameo社は10月29日、米OpenAIを商標権侵害でカリフォルニア州の連邦裁判所に提訴しました。動画生成AI「Sora」に搭載された「cameo」機能が自社のサービス名と酷似し、消費者の混乱を招きブランド価値を毀損する恐れがあると主張。同機能の名称使用差し止めなどを求めています。

訴状でCameo社は、OpenAIが意図的に「cameo」という名称を選んだと指摘。これにより、自社ブランドが「粗悪なAI生成物やディープフェイク」と関連付けられ、長年築き上げてきた評判が傷つけられるリスクを懸念しています。消費者が両者を混同し、ブランド価値が希釈化・毀損されることを強く警戒しているのです。

2017年に始まったCameoは、著名人に有料でビデオメッセージを依頼できるサービスです。一方、OpenAIが9月末に発表したSoraの「cameo」機能は、ユーザーが自身のディープフェイクアバターを作成し、他のユーザーが動画内で使用できるというもの。両者は全く異なるサービスですが、名称の類似性が問題となっています。

Cameo社のスティーブン・ガラニスCEOは「友好的な解決を試みたが、OpenAIが名称使用の中止を拒否した」と提訴の経緯を説明。対するOpenAIの広報担当者は「『cameo』という言葉の独占的所有権を誰も主張できない」と述べ、法廷で争う姿勢を示しており、両者の主張は真っ向から対立しています。

今回の訴訟は、急速に普及する生成AI技術が、既存のビジネスモデルやブランド価値といかにして衝突しうるかを示す象徴的な事例と言えるでしょう。裁判所の判断は、今後のAI関連サービスにおける商標戦略やネーミングに大きな影響を与える可能性があり、その行方が注目されます。

AI動画Sora、ディープフェイク検出標準の形骸化示す

検出標準C2PAの現状

OpenAIも推進する来歴証明技術
大手SNSが導入も表示は不十分
ユーザーによる確認は極めて困難
メタデータは容易に除去可能

求められる多層的対策

来歴証明と推論ベース検出の併用
プラットフォームの自主規制には限界
高まる法規制の必要性
OpenAI矛盾した立ち位置

OpenAI動画生成AI「Sora」は、驚くほどリアルな映像を作り出す一方、ディープフェイク検出技術の脆弱性を浮き彫りにしています。Soraが生成した動画には、その来歴を示すC2PA標準のメタデータが埋め込まれているにもかかわらず、主要SNSプラットフォーム上ではほとんど機能していません。この現状は、AI生成コンテンツがもたらす偽情報リスクへの対策が、技術の進化に追いついていないことを示唆しています。

C2PAは、アドビなどが主導しOpenAIも運営委員を務める、コンテンツの来歴を証明する業界標準です。しかしSoraで生成された動画がSNSに転載されても、その来歴情報はユーザーに明示されません。AI製か否かを見分けるのは極めて困難なのが実情です。

問題の根源は大手プラットフォーム側の対応にあります。MetaTikTok、YouTubeなどはC2PAを導入済みですが、AI生成を示すラベルは非常に小さく、簡単に見逃せます。投稿者がメタデータを削除するケースも後を絶たず、制度が形骸化しているのです。

AIコンテンツの真偽を確かめる負担は、現状ではユーザー側にあります。ファイルを保存し検証サイトにアップロードする手間は非現実的です。「検出の責任はプラットフォーム側が負うべきだ」と専門家は指摘しており、一般ユーザーが偽情報から身を守ることは極めて難しい状況です。

解決策として、C2PAのような来歴証明と、AI特有の痕跡を見つける推論ベース技術の併用が提唱されています。メタデータが除去されやすい弱点を補うためです。しかし、いずれの技術も完璧ではなく、悪意ある利用者とのいたちごっこが続くのが現状です。

技術企業の自主規制には限界があり、米国では個人の肖像権などを保護する法整備の動きが活発化しています。強力なツールを提供しながら対策が不十分なOpenAIの姿勢は「偽善的」との批判も免れません。企業には、より積極的で実効性のある対策が社会から求められています。

AIによる肖像権侵害、法規制が本格化へ

AI肖像生成の無法地帯

AIによる有名人の偽動画が拡散
既存の著作権法では対応困難
連邦法がなく州ごとにバラバラな規制

米国で進む法規制の動き

NO FAKES Act法案が提出
テネシー州などで州法が先行
YouTubeも独自規約で対応

表現の自由との両立

表現の自由を侵害するリスク
パロディなど例外規定も議論の的

AIによる無許可の肖像生成、いわゆるディープフェイクが社会問題化する中、米国で個人の「顔」や「声」を守るための法整備が本格化しています。俳優組合などが後押しする連邦法案「NO FAKES Act」が提出され、技術の進化と個人の権利保護のバランスを巡る議論が加速。これは、AIを活用するすべての企業・個人にとって無視できない新たな法的フロンティアの幕開けです。

きっかけは、AIが生成した人気歌手の偽楽曲や、リアルな動画生成AI「Sora」の登場でした。これらは著作物の直接的な複製ではないため、既存の著作権法での対応は困難です。そこで、個人の顔や声を財産的価値として保護する「肖像権(Right of Publicity)」という法分野に、解決の糸口として注目が集まっています。

規制を求める動きは具体的です。米国では俳優組合(SAG-AFTRA)などの働きかけで、連邦レベルの「NO FAKES Act」法案が提出されました。これは、本人の許可なく作成されたデジタルレプリカの使用を制限するものです。エンタメ産業が盛んなカリフォルニア州やテネシー州では、同様の趣旨を持つ州法がすでに成立しています。

一方で、規制強化には慎重な意見も根強くあります。電子フロンティア財団(EFF)などは、この法案が表現の自由を過度に制約し、風刺や批評といった正当なコンテンツまで排除しかねないと警告。新たな「検閲インフラ」になりうるとの批判も出ており、権利保護と自由な表現の線引きが大きな課題となっています。

法整備を待たず、プラットフォームも対応を迫られています。YouTubeは、AIで生成された無許可の肖像コンテンツクリエイター自身が削除申請できるツールを導入しました。こうした企業の自主的なルール作りが、事実上の業界標準となる可能性も指摘されており、今後の動向が注目されます。

AI技術の進化は、法や社会規範が追いつかない領域を生み出しました。AIを事業で活用する経営者エンジニアは、肖像権という新たな法的リスクを常に意識し、倫理的な配慮を怠らない姿勢がこれまで以上に求められるでしょう。この問題は、技術開発のあり方そのものを問い直しています。

ChatGPT、成人向けエロティカ生成を12月解禁へ

OpenAIの方針大転換

12月よりエロティカ生成を解禁
認証済み成人ユーザーが対象
CEOは「成人の自由」を主張

新たなAIとの関係性

親密な対話が常態化する可能性
ユーザー定着率の向上が狙いか
人間関係を補完する新たな選択肢

浮上するリスクと課題

個人情報のプライバシー漏洩懸念
感情の商品化によるユーザー操作

OpenAIは2025年12月に実施するアップデートで、AIチャットボットChatGPT」の利用規約を改定し、年齢認証済みの成人ユーザーに限り「エロティカ」を含む成熟したテーマのコンテンツ生成を許可する方針です。同社のサム・アルトマンCEOがSNSで公表しました。この方針転換は、AIと人間のより親密な関係性を促し、ユーザーエンゲージメントを高める可能性がある一方、プライバシー倫理的な課題も提起しています。

アルトマンCEOはSNSへの投稿で、今回の変更は「成人の自由」を尊重する同社の大きな姿勢の一部だと説明。「我々は世界の倫理警察ではない」と述べ、これまでの方針を大きく転換する考えを示しました。かつて同社は、自社モデルを成人向けコンテンツに利用した開発者に対し、停止命令を送付したこともありました。

この動きは、ユーザーとAIの関係を根本的に変える可能性があります。専門家は、人々が自身の性的嗜好といった極めてプライベートな情報をAIと共有することが常態化すると指摘。これにより、ユーザーのプラットフォームへの滞在時間が伸び、エンゲージメントが向上する効果が期待されます。

一方で、この変化を肯定的に捉える声もあります。専門家は、人々が機械と性的な対話を試みるのは自然な欲求だとし、AIコンパニオンが人間関係を代替するのではなく、現実世界では満たせないニーズを補完する一つの選択肢になり得ると分析しています。

最大の懸念はプライバシーです。チャット履歴が万が一漏洩すれば、性的指向などの機微な個人情報が流出しかねません。また、ユーザーの性的欲求がAI企業の新たな収益源となる「感情の商品化」につながり、ユーザーが感情的に操作されるリスク専門家は指摘しています。

今後、テキストだけでなく画像音声の生成も許可されるのか、詳細はまだ不明です。もし画像生成が解禁されれば、悪意あるディープフェイクの拡散も懸念されます。OpenAIがどのような年齢認証や監視体制を導入するのか、その具体的な実装方法が今後の大きな焦点となるでしょう。

YouTube、AI肖像検出ツールでクリエイター保護

AI肖像検出ツールの概要

AIによる顔や声の無断利用を検出
対象動画を一覧で確認・レビュー
YouTube Studioから削除申請が可能

利用方法と注意点

パートナープログラム参加者が対象
政府発行IDと自撮り動画で本人確認
開発途上で誤検出の可能性も

導入の背景

ディープフェイクによるブランド毀損を防止
著作権保護のContent IDと類似

YouTubeは2025年10月21日、AIによって無断で顔や声が使用された動画を検出する新ツールを、パートナープログラム参加クリエイター向けに正式展開しました。生成AIによるディープフェイクの脅威が増す中、クリエイターが自身のブランドや肖像権を守るための強力な手段となります。対象動画は専用画面から確認し、削除を申請できます。

この「肖像検出ツール」は、著作権侵害コンテンツを自動検出する「Content ID」と同様の仕組みで機能します。クリエイターはYouTube Studio内の「コンテンツ検出」タブから、自身の肖像が使われている可能性のある動画リストを確認。内容をレビューし、AIによる無断利用と判断した場合は、プライバシーガイドライン違反または著作権侵害として削除を要求できます。

ツールの利用には、厳格な本人確認が必要です。対象となるクリエイターは、政府発行の身分証明書の写真と、短い自撮り動画を提出し、本人であることを証明しなければなりません。このプロセスを経て初めて、ツールへのアクセスが許可されます。対象者には順次Eメールで通知され、今後数ヶ月かけて展開される計画です。

一方で、YouTubeはこのツールがまだ開発段階にあることも認めています。そのため、AIが生成した合成コンテンツだけでなく、クリエイター本人が出演している動画の切り抜きなど、正規のコンテンツを誤って検出する可能性も指摘されています。利用者は、申請前に各動画の内容を慎重に確認する必要があります。

この機能導入の背景には、ディープフェイク技術の進化と悪用の深刻化があります。著名人の顔や声を無断で利用し、商品広告や誤情報を拡散する事例が後を絶ちません。プラットフォームとしてクリエイターを保護する責任を果たすと同時に、米国の「NO FAKES Act」のような法規制の動きとも歩調を合わせる狙いがあります。

YouTubeは肖像検出ツールに加え、AIで生成・編集されたコンテンツに対してラベル表示を義務付けるなど、包括的な対策を進めています。生成AIの普及と、それに伴うリスク管理は、プラットフォーム事業者にとって喫緊の課題。今回の新機能は、その最前線での重要な一歩と言えるでしょう。

リアルタイム音声偽装、ビッシング詐欺の新次元へ

技術的ハードルの低下

公開ツールと安価な機材で実現
ボタン一つでリアルタイム音声偽装
低品質マイクでも高精度な音声

詐欺への応用と脅威

遅延なく自然な会話で騙す手口
ビッシング」詐欺の成功率向上
本人なりすましの実験で実証済

新たな本人認証の必要性

音声・映像に頼れない時代へ
新たな認証手法の確立が急務

サイバーセキュリティ企業NCC Groupは2025年9月の報告書で、リアルタイム音声ディープフェイク技術の実証に成功したと発表しました。この技術は、公開ツールと一般に入手可能なハードウェアを使い、標的の声をリアルタイムで複製するものです。これにより、声で本人確認を行うシステムを突破し、より巧妙な「ビッシング」(ボイスフィッシング)詐欺が可能となり、企業や個人に新たな脅威をもたらします。

NCC Groupが開発したツールは、ウェブページのボタンをクリックするだけで起動し、遅延をほとんど感じさせることなく偽の音声を生成します。実演では、ノートPCやスマートフォンに内蔵されたような低品質マイクからの入力でも、非常に説得力のある音声が出力されることが確認されており、攻撃者が特別な機材を必要としない点も脅威です。

従来の音声ディープフェイクは、事前に録音した文章を読み上げるか、生成に数秒以上の遅延が生じるため、不自然な会話になりがちでした。しかし、この新技術はリアルタイムでの応答を可能にし、会話の途中で予期せぬ質問をされても自然に対応できるため、詐欺を見破ることが格段に難しくなります。

NCC Groupは顧客の同意を得て、この音声偽装技術と発信者番号の偽装を組み合わせた実証実験を行いました。その結果、「電話をかけたほぼ全てのケースで、相手は我々を本人だと信じた」と報告しており、この技術が実際の攻撃で極めて高い成功率を持つ可能性を示唆しています。

この技術の最も懸念すべき点は、その再現性の高さにあります。高価な専用サービスは不要で、オープンソースのツールと、一般的なノートPCに搭載されているGPUでもわずか0.5秒の遅延で動作します。これにより、悪意のある攻撃者が容易に同様のツールを開発し、攻撃を仕掛けることが可能になります。

音声だけでなく、ビデオディープフェイクの技術も急速に進歩していますが、高品質な映像をリアルタイムで生成するにはまだ課題が残ります。しかし専門家は、音声だけでも脅威は十分だと警告します。今後は「声や顔」に頼らない、合言葉のような新たな本人認証手段を企業や個人が導入する必要があるでしょう。

OpenAI、俳優の懸念受けSoraの肖像権保護を強化

問題の発端と俳優の懸念

人気俳優クランストン氏の動画が生成
俳優組合SAG-AFTRAが懸念を表明

OpenAIの対応策

肖像権保護のガードレール強化を約束
意図しない生成について遺憾の意を表明
違反報告への迅速なレビュー体制

今後の法整備への期待

俳優組合は法整備の必要性を強調
「NO FAKES Act」法案に言及

OpenAIは、同社の動画生成AI「Sora」で俳優ブライアン・クランストン氏らのディープフェイク動画が無許諾で作成された問題を受け、俳優組合SAG-AFTRAなどと共同声明を発表しました。同社は肖像権保護のガードレールを強化し、意図しない生成だったとして遺憾の意を表明。生成AIの急速な進化が、著名人の肖像権保護という新たな課題を浮き彫りにしています。

問題の発端は、俳優のブライアン・クランストン氏の動画が、本人の許諾なくSora上で公開されたことです。動画には、故マイケル・ジャクソン氏と自撮りをするなど、現実にはあり得ない内容も含まれていました。クランストン氏自身はSoraの利用に同意しておらず、この事態が俳優やクリエイター業界に大きな波紋を広げました。

クランストン氏や俳優組合からの懸念を受け、OpenAIは迅速に対応。共同声明で「意図しない生成」と遺憾の意を表明しました。具体的な技術的変更点は明らかにされていませんが、声や肖像の利用に関するオプトインポリシーガードレールを強化し、違反報告には迅速に対処すると約束しています。

この対応に対し、クランストン氏は「OpenAIの方針とガードレールの改善に感謝する」と肯定的な声明を出しました。一方で、俳優組合のショーン・アスティン会長は、個別の対応だけでは不十分だと指摘しています。「複製技術による大規模な権利の不正利用から表現者を守る法律が必要だ」と述べ、連邦レベルでの法整備の必要性を強く訴えました。

OpenAIは当初、Sora 2を著作権者が利用を拒否できる「オプトアウト」方式で提供しましたが、批判を受け方針転換した経緯があります。今回の件は、AI開発企業が倫理的・法的な課題とどう向き合うべきか、技術の進化に法整備が追いついていない現状を改めて示す事例と言えるでしょう。

OpenAI方針転換、AIセクスティング市場が過熱

市場を牽引する主要プレイヤー

xAI恋愛コンパニオンGrok
成人向けに方針転換したOpenAI
月間2千万人超のCharacter.ai
恋愛AIの草分け的存在Replika

拡大がもたらす深刻なリスク

未成年者への精神的悪影響
ユーザーの自殺との関連性を指摘
ディープフェイクポルノの拡散
犯罪ロールプレイングへの悪用

OpenAIが2025年12月から、年齢認証済みの成人向けにエロティカを含むAI生成コンテンツを許可する方針を打ち出しました。イーロン・マスク氏率いるxAIが「Grok」で先行する中、この動きはAIと人間の関係性を新たな段階に進め、巨大テクノロジー企業がAIセクスティング市場へ本格参入する号砲となりそうです。背景には、AI開発に必要な莫大なコストを賄うための収益化圧力があります。

この市場を牽引するのが、イーロン・マスク氏のAIスタートアップxAIです。同社はAIチャットボットGrok」に、アニメ風のアバターと対話できる「コンパニオン」機能を追加。ユーザーに恋人のように振る舞い、性的な会話にも応じるこの機能は、月額30ドルからの有料プランで提供され、新たな収益源として注目されています。

対するOpenAIサム・アルトマンCEOは「成人ユーザーを成人として扱う」原則を掲げ、方針転換を表明しました。かつてAI恋愛ボットを短期的な利益追求と批判していましたが、姿勢を転換。背景には、AGI(汎用人工知能)という目標達成に向けた、莫大な計算コストと収益化への強い圧力があるとみられています。

しかし、AIとの親密な関係性の拡大は、深刻なリスクを伴います。特に未成年者への精神的な悪影響が懸念されており、AIチャットボットとのやり取りの末に少年が自殺したとされる訴訟も起きています。また、犯罪者が性的虐待のロールプレイングに悪用したり、ディープフェイクポルノが拡散したりする事例も後を絶ちません。

こうした問題に対し、規制の動きも始まっています。例えばカリフォルニア州では、AIチャットボットが人間でないことを明示するよう義務付ける法律が成立しました。しかし、テクノロジーの進化の速さに法整備が追いついていないのが現状です。企業側の自主規制努力も一部で見られますが、実効性のある対策が急務となっています。

巨大AI企業が収益性を求めアダルト市場へ舵を切る中、私たちはAIとどう向き合うべきでしょうか。利便性の裏に潜むリスクを直視し、倫理的なガイドライン法整備を急ぐ必要があります。ユーザーと開発者の双方が、この新技術の社会的影響に責任を持つ時代が訪れています。

米共和党、ディープフェイク動画で政敵を攻撃

AI偽動画の政治利用

米共和党が政敵動画を公開
政府閉鎖を喜ぶ印象操作
実際の音声引用も文脈を無視

プラットフォームの対応

Xは規約違反でも動画を削除せず
警告ラベルの表示もなし
AI生成の透かしのみ表示
過去にも政治家の動画を放置

米国上院の共和党全国委員会が、民主党のチャック・シューマー上院院内総務のディープフェイク動画をX(旧Twitter)に投稿しました。政府機関の閉鎖が続く中、民主党がそれを歓迎しているかのような印象操作が狙いです。Xは自社の規約に反する可能性があるにもかかわらず、動画を削除していません。

問題の動画では、AIで生成されたシューマー氏が「日々、我々にとって状況は良くなる」という言葉を繰り返します。これは実際に報道された同氏の発言ですが、本来は医療保険制度に関する戦略を語ったものであり、文脈を完全に無視した切り取りです。

Xは「害を及ぼす可能性のある合成メディア」を禁じる規約を持ちながら、今回の動画の削除や警告ラベル表示を行っていません。AI生成を示す透かし表示のみにとどまり、プラットフォームとしての対応の甘さが指摘されています。

米国では28州が政治ディープフェイクを規制する法律を持ちますが、多くは明確な開示があれば容認されます。選挙への影響を意図したものを禁じる州もありますが、巧妙化する手口に法整備が追いついていないのが現状です。

共和党側は批判に対し、「AIは現実だ。適応して勝つか、手をこまねいて負けるかだ」と反論し、AIの積極利用を宣言しました。倫理的な課題を抱えつつも、政治やビジネスにおけるAI情報戦はさらに激化する見通しです。

AI肖像権問題、OpenAIがキング牧師動画を停止

キング牧師動画の生成停止

遺族の苦情で動画生成を停止
「無礼な」動画の拡散が背景
歴史上の人物の利用拒否権を導入

AIと肖像権の法的課題

著作権問題での方針転換と類似
連邦法はなく州法で対応が分かれる
カリフォルニア州は死後の権利を保護
企業のAI倫理対応が問われる局面に

OpenAIは2025年10月17日夜(現地時間)、動画生成AI「Sora」で故マーティン・ルーサー・キング・ジュニア牧師のディープフェイク動画生成を停止したと発表しました。キング牧師の遺族から「無礼だ」との苦情が寄せられたことが原因です。同社は今後、他の歴史上の人物の遺族らも肖像の利用を拒否できる仕組みを導入します。

問題の発端は、Soraのユーザーによってキング牧師の「無礼な」AI生成動画が作成・拡散されたことです。これに対し、キング牧師の娘であるバーニス・キング氏がSNS上で、父親のAI動画を送るのをやめるよう訴えていました。キング牧師の遺産を管理する団体からの正式な要請を受け、OpenAIは今回の措置を決定しました。

今回の決定に伴い、OpenAI歴史上の人物の肖像権に関する新たな方針を打ち出しました。今後は、故人の公式な代理人や遺産管理団体が、Soraでの肖像利用を拒否(オプトアウト)する申請が可能になります。表現の自由とのバランスを鑑みつつ、著名人や家族が肖像の使われ方を管理する権利を尊重する考えです。

OpenAIのこの対応は、サービス開始当初の著作権への姿勢と重なります。Soraは当初、アニメキャラクターなどの著作物を無断で生成し批判を浴び、後に権利者が利用を許諾する「オプトイン」方式へと方針を転換した経緯があります。倫理や権利に関する「後追い」での対応が再び浮き彫りになった形です。

米国では個人の肖像権を保護する連邦法は存在しませんが、州レベルでは法整備が進んでいます。特にOpenAIが本社を置くカリフォルニア州では、俳優などの死後のプライバシー権がAIによるデジタルレプリカにも適用されると定めています。AI技術の進化に法整備が追いついていない現状が課題となっています。

生成AIが社会に浸透する中、故人を含む個人の尊厳や権利をどう守るかが大きな焦点となっています。今回のOpenAIの対応は、テクノロジー企業が直面する倫理的・法的な課題の複雑さを示唆しています。企業は技術開発と並行し、社会的責任を果たすための明確なガイドライン策定が急務と言えるでしょう。

カリフォルニア州、AIディープフェイクの罰金上限を25万ドルに

AIコンパニオン規制

自殺念慮の特定義務
治療者詐称の禁止
児童向け安全対策
危機通知の統計公表

ディープフェイク罰則強化

損害賠償上限25万ドル
わいせつ物の流布を対象
意図的な配布者が対象
児童保護が目的

カリフォルニア州は13日、子どもをAIから守るため、米国初となるAIコンパニオン規制法と、ディープフェイク画像罰則を強化する法律に署名しました。これは、チャットボット関連の自殺事件や、偽のわいせつ画像によるいじめ問題への対策として、2026年1月から施行されます。

新法では、ChatGPTなどを提供する企業に対し、利用者の自殺念慮や自傷行為を特定し対処するプロトコルの作成と公表を義務付けます。また、危機防止センターへの通知回数を保健当局に報告し、ウェブサイトで公開することも求められます。

さらに、チャットボット治療者であると偽ることを禁止。子どもには休憩を促す通知を送ったり、わいせつな画像の閲覧をブロックしたりするなど、追加の安全措置も義務付けられました。

もう一つの法律は、ディープフェイクによるわいせつな画像意図的に配布した第三者に対する罰則を強化します。被害者は1件あたり最大25万ドルの損害賠償を請求できるようになり、以前の上限15万ドルから大幅に引き上げられました。

これらの法整備は、急速に発展するAI技術に対し、いかに社会が安全性を確保していくかという課題に一つの答えを示すもの。他の州や国でも同様の規制の動きが加速する可能性があります。

カリフォルニア州、AI同伴者を規制

法の目的と背景

子どもや脆弱なユーザー保護
全米初のAI同伴者規制
企業の法的責任を明確化
自殺や性的な会話が契機

主な義務付け項目

年齢確認の導入
AIであることの明示
自殺予防対策の義務化
医療専門家のなりすまし禁止
違法ディープフェイクへの罰則強化

カリフォルニア州のニューサム知事は10月13日、AI同伴者チャットボットを規制する全米初の法律SB 243に署名しました。この法律は、子どもや脆弱なユーザーを有害なコンテンツから守るため、企業に安全プロトコルの実装を義務付けます。

今回の規制は、AIとの対話をきっかけに十代が自殺した悲劇や、メタのAIが子どもと「ロマンチック」な会話をしていた内部文書の流出を受けたものです。

法律は2026年1月1日に施行され、事業者には年齢確認、AIであることの明示、自殺や自傷行為への対応策確立などが求められます。

メタやOpenAIといった大手からCharacter AI、Replikaなどの専門企業まで、安全基準を満たさない場合の法的責任が問われます。

一部企業は既に安全対策を導入済みです。この規制は他州や連邦政府レベルでの議論を促す一歩となるでしょう。

OpenAIのSora、5日で100万DL ChatGPT超え

驚異的な初期成長

公開5日未満で100万DLを達成
招待制にもかかわらず爆発的な伸び
ChatGPTの初期成長を凌駕
米・加のApp Storeで総合1位に

新たな機能と課題

最新モデル「Sora 2」を搭載
本人や友人を動画に登場させる機能
コンテンツ管理機能の強化が急務

OpenAIが2025年9月30日にリリースした動画生成AIアプリ「Sora」が、わずか5日足らずで100万ダウンロードを達成しました。招待制での提供にもかかわらず、この驚異的なペースは同社の対話型AI「ChatGPT」の初期成長を上回り、AI生成コンテンツ市場の新たな可能性を示唆しています。

Soraの責任者であるビル・ピーブルズ氏がこの快挙を発表。アプリ分析会社Appfiguresのデータでも、最初の7日間でiOSSoraは62.7万ダウンロードを記録し、ChatGPTの60.6万を上回りました。誰もが利用できたChatGPTとは異なり、Sora招待制であるため、この数字の持つ意味は非常に大きいと言えるでしょう。

このアプリは最新の動画生成モデル「Sora 2」を搭載し、ユーザーはAI動画の作成や閲覧が可能です。特に、自身や友人の姿を動画に挿入できる「カメオ」機能が話題を呼んでいます。SNS上では、Soraで生成されたミームや動画爆発的に拡散し、ダウンロード数を押し上げる一因となりました。

一方で、急速な普及は課題も浮き彫りにしています。著作権で保護されたキャラクターの無断生成や、故人を再現するディープフェイクなどが問題視され、大きな反発を呼びました。OpenAIはこれを受け、著作権者が自身のコンテンツを管理しやすくする機能の提供など、対策に乗り出しています。

現在アプリは米国とカナダでのみ利用可能ですが、今後提供地域が拡大される見込みです。ピーブルズ氏は「チームは急成長に対応するため懸命に努力している。さらなる機能追加や、過度なモデレーションの修正も予定している」と述べ、今後のサービス改善と拡大に意欲を見せています。

テイラー・スウィフトAI疑惑で炎上、ファンはブランド倫理を重視

AIプロモ疑惑の発生

新作プロモ動画にAI生成の痕跡を指摘
「不自然な手」や奇妙な物体など多数の矛盾点
AI検出企業も「極めて高い」と指摘

ファンの反発と倫理観

「#SwiftiesAgainstAI」で謝罪と説明を要求
過去のAI被害発言とのダブルスタンダードを批判
クリエイターの雇用や芸術性の維持を重視
AI利用はブランドイメージに直結する課題

ポップスターのテイラー・スウィフト氏が新作アルバムのプロモ動画で生成AIを使用した疑惑が浮上し、熱心なファン層から強い反発を受けています。ファンは「#SwiftiesAgainstAI」のハッシュタグで抗議を展開し、AI利用の倫理性と透明性を求めています。この騒動は、AIをビジネスに取り込む際、顧客やコミュニティの信頼とブランド倫理がいかに重要かを示しています。

疑惑の発端は、Googleと連携したスカベンジャーハントの一環で公開された動画です。ファンは、ナプキンを通り抜けるバーテンダーの手や、二つの頭を持つメリーゴーランドの馬など、不自然で「質の低い」描写を次々と指摘しました。AI検出企業リアリティ・ディフェンダーのCEOも、動画の一部がAI生成である可能性は「極めて高い」と述べています。

ファンが特に失望しているのは、スウィフト氏が過去にAIの危険性について公に警鐘を鳴らしていた点です。彼女はAIディープフェイクによる性的搾取の被害を受け、また政治的誤情報の拡散にも標的とされてきました。この経験を持つにもかかわらずAIを利用した疑惑は、「知っているはずだ、より良く行動すべきだ」という強い批判につながっています。

反発の広がりを受け、疑惑のプロモ動画の多くはYouTubeやX(旧Twitter)から削除されましたが、スウィフト氏やGoogleからの公式なコメントは出ていません。ファンは、単なる動画の削除では不十分であり、AI使用の有無と判断基準について明確な説明を求めています。沈黙は、結果的にファンとの信頼関係を損なうリスクを高めます。

この事例は、クリエイティブ産業におけるAI導入が、生産性向上だけでなく、顧客の倫理観や芸術性への期待と衝突する可能性があることを示します。ファンはAIが「アートを無視し、単なる製品に変える」ことに懸念を示しており、企業やリーダーは、AI利用の透明性を確保し、ブランドが掲げる価値観に沿った利用が求められます。

Soraの著作権・倫理問題は想定外、OpenAIがポリシーを急遽転換

予期せぬ著作権侵害への対応

著作権コンテンツ想定外に大量発生
当初のオプトアウト制を急遽撤回
権利者主体で利用可否を決定する方針へ

利用者からの要望と規制強化

AI生成アバター(カメオ)への細かな使用制限
ユーザーが不適切な発言を禁止する機能追加
ウォーターマークの削除対策が急務となる

技術的進歩とインフラの課題

普及速度はChatGPT以上インフラ不足が顕在化
高品質動画社会的課題を提起し共進化が必要

OpenAIサム・アルトマンCEOは、動画生成AI「Sora」のローンチ後、著作権侵害や不適切なディープフェイク利用に関する予想外の大きな反響があったと認めました。当初の想定と異なり、ユーザーや権利者から「もっとコントロールが欲しい」という声が殺到。この状況を受け、同社は急遽、著作権ポリシーとモデレーション機能の強化・転換を進めています。

最大の問題の一つが著作権侵害です。当初、Soraはメディア企業が不使用を申し出る「オプトアウト」方式を採用しましたが、「ナチス風スポンジボブ」などの権利侵害コンテンツが多発しました。これに対しOpenAIは方針を転換し、今後は著作権所有者が自ら利用可否を決定できる「より多くのコントロール」を提供するとしています。

また、ディープフェイクリスクも深刻です。特に、自身のAIアバターを生成する「カメオ」機能について、ユーザーは公開の可否だけでなく、「不適切な発言はさせたくない」といった複雑な制限を求めました。これに対応するため、OpenAIはユーザーが利用目的をテキストで指定し、細かく制御できる機能を追加しています。

しかし、アルトマン氏は、社会がこの変化に対応する必要性を強調します。Soraのように識別が困難な高品質動画は社会的な課題をもたらすが、OpenAIが先導して「技術的・社会的共進化」を進め、世界が体験を通じて理解することが唯一の解決策だと位置付けています。

Soraの採用曲線はChatGPTを上回る勢いで、この爆発的な需要から、OpenAIは計算資源(コンピュート)の絶対的な不足を最大の教訓と捉えています。同社は、Stargateプロジェクトなど、AIインフラへの積極的な投資を通じて、このボトルネックを解消する方針を明確に示しています。

OpenAI、Sora 2活用AI動画SNSを投入。ディープフェイク対策と著作権の課題

新アプリの概要

AI生成動画専用のソーシャルアプリを公開
動画生成モデルSora 2を基盤技術に使用
縦型フィードやスワイプ操作などTikTok型UIを採用

主要な特徴

本人確認でデジタルアバターを自動生成
プロンプト入力で自分をAI動画の主役に設定可能
ユーザー間の交流とコンテンツ生成を重視

倫理・法的側面

ディープフェイク露骨な内容はガードレールで制限
他者の肖像利用は設定許可が必須
著名キャラクターに関する著作権保護の基準が曖昧

OpenAIは、AI生成動画に特化した新しいソーシャルアプリをローンチしました。基盤技術には動画生成モデル「Sora 2」を使用し、TikTokのような縦型フィード形式を採用しています。ユーザーは自身のデジタルアバターを作成し、プロンプトを通じて自分や友人をフィーチャーした動画を簡単に生成できる点が最大の特徴です。この動きは、AIエンターテイメントの未来像を提示しています。

このアプリの設計思想は、ユーザーに単なる視聴ではなく、積極的なコンテンツ生成を促す点にあります。本人確認プロセスとして、画面の指示に従い数字を読み上げる自身の動画を撮影させることで、顔と声のデジタルアバターが作成されます。これにより、ユーザーは自分や友人を人魚にするなど、現実離れしたシナリオの動画を手軽に制作可能です。

OpenAIは、悪用を防ぐための厳格なガードレールを導入しています。特に懸念されるディープフェイクポルノやヌード画像、露骨なロマンスの描写は生成がブロックされます。また、他者の肖像権(likeness)の利用は、本人が設定で許可しない限り不可能となっており、プライバシー保護に配慮しています。

一方で、著作権の扱いは依然としてグレーゾーンです。テイラー・スウィフトやダース・ベイダーといった明らかな著名キャラクターの生成は制限されていますが、ピカチュウなど他の有名キャラクターの動画生成は許可されている事例が確認されています。OpenAIは今後、フィルターを回避しようとするユーザーとの間で、いたちごっこ(Whack-a-Mole)が続くと予想されます。

OpenAIによる今回のアプリ投入は、ソーシャルメディアの未来がAIエンターテイメントにあるという見方を強化します。Metaも以前にAI生成動画アプリを試みましたが失敗しています。AIコンテンツから距離を置くTikTokとは対照的に、OpenAIパーソナライズされた「偽の世界」を提供することで、先行者としての地位を確立しようとしています。

Sora、AI分身と著作物利用制御を強化

AI分身の利用制限

AI生成動画への出演制限を設定
政治的な文脈での利用を禁止
特定ワードやシチュエーションの排除
好みの属性を強制する細かな設定

著作権ポリシーの転換

物議を醸したオプトアウト方式を転換
権利者向けのオプトインモデルへ移行
将来的には公式キャラクター導入へ
権利者への収益分配を検討開始

OpenAI動画生成AI「Sora」に対し、ユーザーのAI生成分身(カメオ)および著作物の利用に関する制御機能を大幅に強化しました。これは、急速に広がるディープフェイク著作権侵害といった混乱に対応し、プラットフォームの健全性を確保するための重要な政策転換です。

今回のアップデートの核は、ユーザーが自分のAI分身の利用範囲を厳格に制限できる点です。政治的なコンテンツへの登場や特定の単語の使用、特定のシチュエーションでの出現などを個別に禁止可能となり、不適切な利用リスクを低減します。

さらにOpenAIは、権利者の懸念に対応するため、従来の「オプトアウト」方式の著作権ポリシーを転換し、粒度の高いオプトインモデルへと移行します。これは、権利者がコンテンツ利用を細かく制御できるようにする、クリエイターエコノミー重視の姿勢を示しています。

特に問題となっていた無許可の二次創作や著作権侵害に対処するため、OpenAIは公式キャラクターの利用(カメオ)をロードマップに組み込みました。これにより、著作権者が許可したコンテンツの市場を創出することを目指します。

この権利者との関係構築の一環として、利用されたキャラクターの権利者に対しては、近いうちに収益分配を開始する予定です。正確な支払いモデルは試行錯誤が必要としていますが、AI生成コンテンツにおける新たなビジネスモデルの確立を示唆しています。

これらの機能強化は、Soraの登場によって懸念されていた、AIによって生成される低品質で不適切なコンテンツ(AI slop)がインターネットに溢れるのを防ぐ狙いがあります。OpenAIは今後も制限の堅牢性を高め、ユーザーの制御権を拡大していく方針です。

OpenAI動画アプリSora、熱狂と懸念でApp Store1位

驚異的な滑り出し

公開2日で16.4万DL達成
米国App Store総合1位を獲得
招待制ながら異例のバイラルヒット

主な機能と特徴

テキストから10秒の動画を自動生成
自身のAIアバターを作るカメオ機能
ミーム化しやすいソーシャル体験

浮上する深刻な懸念

偽情報拡散リスクと悪用
アニメキャラ等の著作権侵害問題

OpenAIが2025年10月初旬にリリースしたAI動画生成アプリ「Sora」が、公開直後から爆発的な人気を集め、米国App Storeで総合1位を獲得しました。テキストからリアルな動画を手軽に生成できる一方、ディープフェイクによる偽情報の拡散や著作権侵害といった深刻な懸念も同時に浮上しており、その影響が注目されています。

Sora米国とカナダで招待制として公開されたにもかかわらず、最初の2日間で16.4万ダウンロードを記録。これは他の主要AIアプリのローンチを上回る勢いです。この異例のスタートダッシュは、消費者の間でAIによる動画生成・共有体験への強い需要があることを明確に示しています。

アプリの魅力は、テキストから10秒の動画を生成する手軽さに加え、自身のAIアバターを作れる「カメオ」機能にあります。友人や著名人(本人の許可が必要)を登場させたパロディ動画やミームがSNSで拡散され、バイラルヒットの大きな原動力となりました。

しかし、そのリアルさ故に偽情報の温床となるリスクが最大の課題です。アプリ内の透かし(ウォーターマーク)は画面録画や別ツールで容易に除去可能とされ、悪意あるディープフェイク動画が本物として拡散される危険性が専門家から指摘されています。

著作権侵害も深刻な問題です。人気アニメや映画のキャラクターが無断で生成された事例が既に報告されており、OpenAIコンテンツフィルターが不十分である可能性が露呈しました。知的財産の保護と生成AIの自由度の両立は、依然として大きな挑戦です。

OpenAI社内からも、この技術の社会実装に対する期待と同時に懸念の声が上がっています。「現実と非現実の境界を曖昧にする」と評されるSoraは、利便性の裏に潜むリスクを社会全体でどう管理していくのか、重い問いを投げかけていると言えるでしょう。

OpenAI、音声付き動画AI発表 ディープフェイクアプリも

Sora 2の進化点

映像と同期する音声の生成
対話や効果音もリアルに再現
物理法則のシミュレーション精度向上
複雑な指示への忠実性が大幅アップ

ディープフェイクアプリ

TikTok風のSNSアプリを同時公開
自身の「カメオ」ディープフェイク作成
公開範囲は4段階で設定可能
誤情報や著作権侵害への懸念が噴出

OpenAIが10月1日、動画生成AIの次世代モデル「Sora 2」と、TikTok風のSNSアプリ「Sora」を同時公開しました。Sora 2は映像と同期した音声生成が可能となり、専門家からは「動画生成におけるChatGPTの瞬間」との声も上がっています。しかし、自身の分身(カメオ)を手軽に作成できる機能は、ディープフェイクによる誤情報拡散のリスクをはらんでおり、社会的な議論を呼んでいます。

Sora 2」の最大の進化点は、音声との同期です。これまでのモデルと異なり、人物の対話や背景の環境音、効果音などを映像に合わせて違和感なく生成できます。さらに、物理法則のシミュレーション精度も向上しており、より現実に近い、複雑な動きの再現が可能になりました。

同時に発表されたiOSアプリ「Sora」は、AI生成動画を共有するSNSです。最大の特徴は「カメオ」機能。ユーザーが自身の顔をスキャンして登録すると、テキスト指示だけで本人そっくりの動画を作成できます。友人や一般への公開範囲も設定可能です。

この新技術はエンターテイメントやコミュニケーションの新たな形を提示する一方、深刻なリスクも内包しています。特に、リアルなディープフェイクを誰でも簡単に作れる環境は、悪意ある偽情報の拡散や、いじめ、詐欺などに悪用される危険性が専門家から指摘されています。

著作権の問題も浮上しています。報道によると、Sora著作権者がオプトアウト(拒否)しない限り、そのコンテンツを学習データに利用する方針です。アプリ内では既に人気キャラクターの無断使用も見られます。OpenAIは電子透かし等の対策を講じますが、実効性には疑問の声が上がっています。

Sora 2」とSoraアプリの登場は、動画生成AIが新たなステージに入ったことを示しています。利便性と創造性を飛躍的に高める一方で、倫理的・社会的な課題への対応が急務です。経営者開発者は、この技術の可能性とリスクの両面を深く理解し、慎重に活用戦略を検討する必要があるでしょう。

動画生成AI「Sora 2」登場、SNSで誰もが主役に

次世代動画AI Sora 2

物理法則に忠実でリアルな動画を生成
プロンプトから音声・効果音も同期生成
失敗も再現する世界シミュレーターへ進化

TikTok対抗?Soraアプリ

自分や友人動画に登場するCameo機能
生成動画を共有するアルゴリズムフィード
招待制で米国・カナダから先行リリース

安全と倫理への配慮

同意ベースの肖像利用と削除権の保証
生成物への電子透かしと来歴証明(C2PA)

OpenAIは2025年9月30日、次世代の動画音声生成AI「Sora 2」と、連動するソーシャルアプリ「Sora」を同時発表しました。前モデルから物理法則の再現性を大幅に向上させ、ユーザーが自身の姿を動画に登場させられる「Cameo」機能が特徴です。同社はこのモデルを、物理世界を深く理解する「世界シミュレーター」への重要な一歩と位置づけ、新たな創作とコミュニケーションの形を提案します。

Sora 2」の最大の進化点は、そのリアリズムにあります。バスケットボールのシュートが外れてリバウンドするなど、物理法則に忠実で「失敗」もモデル化。これは単なる成功例をなぞるのではなく、現実世界をより正確にシミュレートしようとする試みです。さらに、対話や効果音も同期生成でき、表現の幅が大きく広がりました。

新登場のiOSアプリ「Sora」の目玉は「Cameo」機能です。ユーザーは自身の姿と声を一度登録するだけで、あらゆる生成シーンに自分自身を登場させられます。さらに、友人に自分のCameoの使用許可を与えることで、複数人が登場する動画の共同制作も可能に。これは、AIを介した全く新しいソーシャル体験と言えるでしょう。

アプリはTikTokに似たフィードを持ちますが、設計思想は大きく異なります。OpenAIは、単なる「消費」ではなく「創造」を最大化することを目指しており、アルゴリズムも他者の作品から着想を得て新たな創作を促すように調整されています。ユーザーがアルゴリズムを自然言語で制御できる点も革新的です。

ディープフェイクなどの悪用リスクに対し、OpenAI多層的な安全対策を講じています。肖像権の利用は本人の同意が必須で、いつでも許可を取り消せます。生成された全ての動画には、AI生成物であることを示す電子透かし(C2PA)が埋め込まれるほか、未成年者向けのペアレンタルコントロール機能も実装されました。

Sora」アプリの登場は、TikTokなど既存の短尺動画プラットフォームにとって新たな競合となる可能性があります。当面は無料で提供されますが、将来的には計算リソースの需要に応じた課金も計画されています。APIの提供も予定されており、幅広いビジネスでの活用が期待されます。

Spotify、AI生成音楽にラベル表示導入へ 不正利用対策も強化

音楽配信大手Spotifyは9月25日、AI生成音楽に関する新方針を発表しました。AI利用の透明性を高め、不正なスパムやなりすましからアーティストとリスナーを保護することが目的です。創造的なAI活用は支援しつつ、プラットフォームの健全性を維持する構えです。 新方針の柱は、AI使用を明記するラベル表示の導入です。音楽業界の標準化団体DDEXと協力し、楽曲制作のどの過程でAIが使われたかを詳細に示すメタデータ標準を開発。すでに主要レーベル15社が採用を表明しており、業界標準となる可能性があります。 AIによるスパム行為への対策も強化します。今秋から、再生数稼ぎを目的とした短尺曲の大量アップロードなどを検出する新しいスパムフィルターを順次展開。同社は過去1年間で既に7,500万ものスパム楽曲を削除したと公表しており、対策を一層強化します。 アーティストの声を無断で複製する「AI音声クローン」やディープフェイクといった、なりすまし行為も明確に禁止します。許可なく他者の声を使用した楽曲はプラットフォームから削除する方針を改めて示し、アーティストの権利保護を徹底する姿勢を強調しました。 Spotifyは、アーティストがAIを創造的なツールとして責任を持って利用することは罰しないと明言しています。「我々はシステムを悪用する者を阻止する」と同社幹部は述べ、AIの利点を享受するためにも、不正行為の防止が不可欠であるとの考えを示しました。 この動きの背景には、誰でも簡単に音楽を生成できるAIツールの急速な普及があります。一部のサービスでは、毎日数万曲のAI生成楽曲がアップロードされるなど、コンテンツの急増が課題となっています。Spotifyは業界に先駆けて対応することで、市場の混乱を防ぐ狙いです。

MS、Windows MLを正式公開。AIアプリ開発を加速へ

マイクロソフトは9月25日、開発者がAI機能をWindowsアプリに容易に組み込めるプラットフォーム「Windows ML」を正式公開しました。これにより、応答性が高く、プライバシーに配慮し、コスト効率の良いAI体験の構築を支援します。Windows 11 24H2以降で利用可能で、PCのCPUやGPU、NPUを最適に活用します。AdobeやMcAfeeなどのソフトウェア企業が既に対応を進めています。 Windows MLは、PC搭載のCPU、GPU、NPU(Neural Processing Unit)を最適に使い分ける「ハードウェア抽象化レイヤー」として機能します。AIの処理内容に応じて最適なハードウェアを自動で割り当てるため、開発者はアプリケーションの性能を最大限引き出せます。これにより、複雑なハードウェア管理から解放されるのです。 既にAdobe、McAfee、Topaz Labsといった大手ソフトウェア企業が、開発段階からWindows MLの採用を進めています。各社は今後リリースする製品に、同プラットフォームを活用したAI機能を搭載する計画です。Windowsエコシステム全体でのAI活用の加速が期待されます。 具体的な活用例として、Adobeは動画編集ソフトでNPUを使い高速なシーン検出を実現します。McAfeeはSNS上のディープフェイク動画や詐欺の自動検出に活用。Topaz Labsも画像編集ソフトのAI機能開発に利用しており、応用分野は多岐にわたります。 マイクロソフトWindows MLを通じて、WindowsアプリへのAI実装を効率化し、OS自体の魅力を高める狙いです。ローカルでのAI処理は応答速度やプライバシー保護、コスト削減に繋がります。今後、同様のAI体験を提供するアプリの増加が見込まれます。