MIT院生が音楽を可視化するAIシステムを開発
出典:MIT News
詳細を読む
MITの新設「音楽技術・計算修士課程」に所属する大学院生マリアノ・サルセド氏が、AIと音楽ビジュアルの融合を目指す研究を進めています。同氏はニューラルセルオートマトン(NCA)を活用し、音楽に連動して自己再生する映像を生成するシステムを開発しました。
NCAは古典的なセルオートマトンと機械学習を融合した技術で、音楽のエネルギーを刺激として画像が動的に変化します。サルセド氏が設計したWebインターフェースでは、ユーザーが音楽と映像システムの関係を調整し、あらゆる音声ストリームから独自のビジュアルパフォーマンスを作成できます。
サルセド氏はメキシコとテキサスで育ち、MITでは機械工学を専攻していましたが、LLMチャットボットとの出会いをきっかけにAI・意思決定学科へ転向しました。DJとしての音楽活動を通じてデジタル音楽制作にも取り組み、エラン・エゴジー教授の研究室で音楽技術の道を本格的に歩み始めました。
この研究成果「Artificial Dancing Intelligence: Neural Cellular Automata for Visual Performance of Music」は、2026年1月にシンガポールで開催されたAAAI(人工知能促進学会)の学会で発表されました。サルセド氏は2026年の人文・芸術・社会科学部の学位授与式で学生代表スピーチを行う予定です。
サルセド氏は、この技術が音楽の可視化にとどまらず、多細胞生物や鳥の群れ、社会システムなどの自己組織化システムのモデリング改善にも応用できると展望しています。現在のLLM中心の学術界において基盤技術の探求が重要だと強調し、AIの倫理的課題や音楽における西洋中心の偏りの解消にも取り組んでいます。