Adobe、声の感情をAIで自在に操る新技術を発表
詳細を読む
アドビは2025年10月29日、ロサンゼルスで開催中の年次カンファレンス「Adobe MAX」で、開発中の最新AI技術を披露しました。発表されたのは、録音済みのナレーションの感情をテキスト編集のように後から変更できる「Corrective AI」や、音声トラックから声や背景音を分離する「Project Clean Take」などです。これらの技術は、クリエイターの編集作業を劇的に効率化し、撮り直しの手間やコストを削減することを目的としています。
特に注目されるのが「Corrective AI」です。デモでは、平坦で単調なナレーションが、テキストを選択して「自信を持って」などの感情プリセットを選ぶだけで、瞬時に生き生きとした声に変わりました。再録音なしで声のトーンや感情を自在に調整できるこの機能は、映像制作の現場に大きな変革をもたらすでしょう。
同時に披露された「Project Clean Take」は、単一の音声トラックから声、環境音、効果音などをAIが正確に分離する技術です。例えば、街頭での撮影時に混入した騒音や、背景で流れる著作権で保護された音楽だけを除去し、別の音に差し替えることが可能になります。予期せぬノイズによる撮り直しや著作権侵害のリスクを、大幅に低減できるようになるのです。
さらに、映像をAIが解析し、シーンに合った効果音を自動で生成・追加する機能も紹介されました。驚くべきは、その編集方法です。ChatGPTのような対話型インターフェースを使い、「このシーンに車の音を加えて」と指示するだけで、AIが適切な効果音を生成し、完璧なタイミングで配置します。直感的な操作で、より高度な音響デザインが誰でも実現できるようになるでしょう。
これらのAI機能は、動画編集者やクリエイターが日々直面する課題を解決するために設計されています。音声の撮り直しという時間とコストのかかる作業を不要にし、壊れたオーディオデータの修復も可能にします。クリエイターは技術的な制約から解放され、より創造的な作業に集中できるようになるでしょう。
今回披露された機能はまだプロトタイプ段階ですが、アドビは例年「Sneaks」で発表した技術を数ヶ月から1年程度で製品に組み込んでいます。2026年頃には実用化される見込みです。こうした技術革新は、声優業界などにも影響を与え始めており、クリエイティブ産業とAIの共存のあり方が、改めて問われることになりそうです。