ロボ推論AI刷新、Spotの産業点検が進化

新モデルの主要機能

空間推論と多視点理解を強化
計器読取り機能を新搭載
タスク成功検知の精度向上

Spot搭載と産業活用

産業施設の自律点検に活用
危険な残骸や漏洩の自動検知
ゲージやサイトグラス読取り

展望と残る課題

APIで開発者に即日公開
Atlas等への技術展開も視野
詳細を読む

Google DeepMindは2026年4月14日、ロボット向けAIモデル「Gemini Robotics-ER 1.6」を発表しました。空間認識と多視点理解を大幅に強化したこのモデルは、ロボットが物理環境を人間に近い精度で理解することを目指しています。同日、Boston Dynamicsは四足歩行ロボット「Spot」にこのモデルを搭載し、産業点検の自律性を高めると発表しました。

Gemini Robotics-ER 1.6の最大の特長は、推論ファーストのアプローチです。視覚・空間理解、タスク計画、成功検知といったロボットに不可欠な能力を統合的に備えます。Boston Dynamicsとの協業で生まれた計器読取り機能により、複雑なゲージやサイトグラスを自律的に確認できるようになりました。安全性の面でも、敵対的な空間推論タスクにおいて過去最高のポリシー準拠率を達成しています。

Boston DynamicsのSpotは、すでに数千台が産業現場で稼働する数少ない商用四足ロボットです。新モデル搭載により、施設内の危険物検知、計器の自動読取り、環境把握にビジョン言語行動モデルを活用できるようになります。Spot担当副社長のMarco da Silva氏は「現実世界の課題に完全自律で対応できるようになる」と述べています。

一方で課題も残ります。現時点のモデルは視覚情報のみに依存しており、触覚や力覚センサーのデータは活用していません。DeepMindのCarolina Parada氏は、ウェブ上に触覚データが不足していることがその要因だと説明しています。Boston Dynamicsはベータプログラムの顧客からデータ共有を受け、モデルの改善に役立てる方針です。

商用展開では、80%以上の検知精度が実用化の閾値とされています。da Silva氏によれば、それを下回るとオペレーターが誤報を無視し始めるためです。Gemini Robotics-ER 1.6はGemini APIとGoogle AI Studioを通じて開発者に公開されており、Spotでの実運用データを基に人型ロボットAtlasを含む将来のプラットフォームへの応用も視野に入っています。