OpenAI、音声付き動画AI発表 ディープフェイクアプリも

マルチモーダル基盤モデルセキュリティ

Sora 2の進化点

映像と同期する音声の生成
対話や効果音もリアルに再現
物理法則のシミュレーション精度向上
複雑な指示への忠実性が大幅アップ

ディープフェイクアプリ

TikTok風のSNSアプリを同時公開
自身の「カメオ」でディープフェイク作成
公開範囲は4段階で設定可能
誤情報や著作権侵害への懸念が噴出
詳細を読む

OpenAIが10月1日、動画生成AIの次世代モデル「Sora 2」と、TikTok風のSNSアプリ「Sora」を同時公開しました。Sora 2は映像と同期した音声生成が可能となり、専門家からは「動画生成におけるChatGPTの瞬間」との声も上がっています。しかし、自身の分身(カメオ)を手軽に作成できる機能は、ディープフェイクによる誤情報拡散のリスクをはらんでおり、社会的な議論を呼んでいます。

「Sora 2」の最大の進化点は、音声との同期です。これまでのモデルと異なり、人物の対話や背景の環境音、効果音などを映像に合わせて違和感なく生成できます。さらに、物理法則のシミュレーション精度も向上しており、より現実に近い、複雑な動きの再現が可能になりました。

同時に発表されたiOSアプリ「Sora」は、AI生成動画を共有するSNSです。最大の特徴は「カメオ」機能。ユーザーが自身の顔をスキャンして登録すると、テキスト指示だけで本人そっくりの動画を作成できます。友人や一般への公開範囲も設定可能です。

この新技術はエンターテイメントやコミュニケーションの新たな形を提示する一方、深刻なリスクも内包しています。特に、リアルなディープフェイクを誰でも簡単に作れる環境は、悪意ある偽情報の拡散や、いじめ、詐欺などに悪用される危険性が専門家から指摘されています。

著作権の問題も浮上しています。報道によると、Soraは著作権者がオプトアウト(拒否)しない限り、そのコンテンツを学習データに利用する方針です。アプリ内では既に人気キャラクターの無断使用も見られます。OpenAIは電子透かし等の対策を講じますが、実効性には疑問の声が上がっています。

「Sora 2」とSoraアプリの登場は、動画生成AIが新たなステージに入ったことを示しています。利便性と創造性を飛躍的に高める一方で、倫理的・社会的な課題への対応が急務です。経営者や開発者は、この技術の可能性とリスクの両面を深く理解し、慎重に活用戦略を検討する必要があるでしょう。