音声指示で物体を数分生成、MITが「現実化AI」を開発
出典:MIT News
詳細を読む
米マサチューセッツ工科大学(MIT)の研究チームは2025年12月5日、音声指示だけで物理的な物体を生成する「Speech-to-Reality」システムを発表しました。生成AIとロボティクスを統合し、ユーザーが欲しいものを口にするだけで、ロボットアームが数分以内に家具などを自動で組み立てます。
このシステムは、大規模言語モデル(LLM)が音声を解析し、3D生成AIが設計図を作成することから始まります。生成されたデジタルデータはボクセル化アルゴリズムによって組み立て可能な部品構成に変換され、ロボットアームが最適な手順で物理的な構築を行います。
最大の特徴は、専門的な3Dモデリングやプログラミングのスキルが一切不要である点です。従来の3Dプリンティングが数時間から数日を要したのに対し、本システムはわずか数分で完了するため、製造プロセスの劇的な効率化と民主化を実現します。
また、組み立てにはモジュール式のコンポーネントを使用しており、持続可能性にも配慮されています。不要になった家具は分解して別の物体へと作り変えることができるため、廃棄物を削減し、資源を循環させるエコシステムとしての側面も持ち合わせます。
研究チームは今後、より堅牢な接続方法の採用や、ジェスチャー操作の統合を計画しています。将来的には、SF映画のように誰もがオンデマンドで必要なものを即座に手に入れられる世界の実現を目指し、モバイルロボットへの応用も視野に入れています。