DAIMON、ロボット触覚の大規模データセットを公開
触覚センサーの技術優位
VTLAモデルの提唱
詳細を読む
香港発のスタートアップDAIMON Roboticsが、ロボットの物理的AI向けとしては世界最大規模のマルチモーダルデータセット「Daimon-Infinity」を公開しました。高解像度の触覚センシングデータを含み、洗濯物の折りたたみから工場の組み立てラインまで幅広いタスクをカバーしています。Google DeepMind、ノースウェスタン大学、シンガポール国立大学などが開発に参加しています。
同社の中核技術は、指先サイズのモジュールに11万個以上の感知ユニットを搭載した単色視覚ベース触覚センサーです。接触力だけでなく、変形・滑り・摩擦・材質・表面テクスチャまで記録でき、物理的なインタラクションの包括的な再構築を可能にします。分散型のラボ外データ収集ネットワークにより、年間数百万時間規模のデータ生成能力を持つとしています。
共同創業者のMichael Yu Wang教授は、現在主流のVision-Language-Action(VLA)モデルに触覚を加えたVision-Tactile-Language-Action(VTLA)アーキテクチャを提唱しています。触覚なしではロボットは暗所での物体認識や繊細な物体の把持に失敗しやすく、精密な力制御ができないと指摘します。視覚ベースの触覚センサーは画像形式でデータを出力するため、VLAフレームワークとの統合が自然に行える点が強みです。
ビジネスモデルは「3D」戦略として、デバイス(Devices)・データ(Data)・展開(Deployment)の垂直統合を掲げています。業界全体のデータ不足を解消するため、1万時間分のデータをオープンソース化しました。すでに中国のコンビニエンスストアでは、密集した棚から商品を取り出すために3本指での巧緻な操作が求められる場面でのロボット導入が検討されています。
Wang教授はカーネギーメロン大学でロボット操作の研究を始め、香港科技大学にロボティクス研究所を設立した経歴を持ちます。ロボットの巧緻操作は長年進展が遅かったものの、AIとハードウェアの同時進化により実用化の条件が整いつつあるとの見方を示しています。同社は将来的に、ロボットが家庭や日常生活に溶け込む「信頼できるパートナー」となることを目指しています。