ロボット(ロボット)に関するニュース一覧

AI副操縦士で義手操作を自動化、放棄率改善へ

高機能義手が抱える課題

購入者の最大50%が使用を放棄
全動作の意識的制御が過重負担
反射機能なく微調整が困難

AIによる制御革命

人間の無意識反射をAIが代行
ユーザーの認知負荷を軽減
直感的な自律操作を実現

米ユタ州立大学の研究チームは、バイオニック義手の操作を補助する「AI副操縦士」を開発しました。従来の義手は操作が難しく、購入者の最大50%が使用を放棄している現状があります。AIが細かい制御を代行することで、ユーザーの負担を減らし、直感的な使用を可能にします。

現代の義手はハードウェアとして高性能ですが、全ての動作をユーザーが意識的に制御する必要がありました。27の関節と多数の筋肉の調整を常に行うことは、精神的な負荷が極めて高く、これが高い使用放棄率の主因となっていました。

開発されたシステムは、人間の神経系が持つ反射機能をAIで模倣します。物が滑り落ちそうな瞬間に無意識に強く握るといった微調整をAIが自律的に処理するため、ユーザーは「掴む」という意思を持つだけで、複雑な制御から解放されます。

これまでの筋電位制御では、動作維持のために筋肉の緊張を保つ必要がありました。このAI技術は、身体拡張技術におけるインターフェースの革新であり、医療機器のみならず、遠隔操作ロボットなど幅広い分野での生産性向上に寄与する可能性があります。

NVIDIA搭載ロボット、ベガスでバーテンダーとして活躍

労働力不足とエンタメの両立

Richtech Roboticsが開発
ホスピタリティ業界の課題解決
ファンへ特別な体験を提供

仮想空間での高度な学習

NVIDIA Isaac Simで仮想訓練
合成データで認識精度を向上
40ミリ秒未満で動作補正

産業分野への技術応用

新型ロボット「Dex」も開発
工場や倉庫での自動化推進

ラスベガスのT-Mobile Arenaで、NHL「ゴールデンナイツ」の試合観戦客向けに、AIロボットバーテンダー「ADAM」がドリンク提供を開始しました。Richtech Roboticsが開発したこのロボットは、NVIDIAの高度なAI技術を搭載。深刻化するホスピタリティ業界の労働力不足への解決策として期待されると同時に、来場者にエンターテインメント性あふれる未来的な顧客体験を提供することが狙いです。

ADAMは実稼働前に、NVIDIA Isaac Simを用いた仮想空間で徹底的なトレーニングを受けました。開発チームは、照明の反射や容器の形状など、現実世界で起こりうる多様な条件下での物体認識能力を、合成データを用いて強化。これにより、実際の店舗環境でもスムーズに「注ぐ」「振る」といった複雑な動作を適応させることが可能になりました。

ロボットの頭脳には、強力なエッジAIプラットフォームであるNVIDIA Jetson AGX Orinが採用されています。高性能なカメラ映像処理により、カップの位置ズレや液体の泡立ちをリアルタイムで検知し、40ミリ秒未満という超低遅延で動作を補正します。この即応性が、こぼすことなく正確にドリンクを提供する高品質なサービスを支えています。

Richtech Roboticsは、この技術をさらに産業分野へと広げています。新たに開発された産業用ヒューマノイドロボット「Dex」は、次世代プロセッサJetson Thorを搭載し、工場や倉庫での部品選別や梱包作業を担います。エンターテインメントから産業用途まで、高度なAIロボットの実装が急速に進んでいます。

Runwayがワールドモデル発表、動画生成に音声機能追加

物理法則を学ぶ「GWM-1」

物理法則を理解し世界を模擬
ロボット等のエージェント訓練に応用
環境・ロボット・人の3領域で展開

実用化進む「Gen 4.5」

ネイティブ音声と対話生成に対応
一貫性ある1分間の長尺動画を作成
制作現場で使える編集機能を強化

AI映像生成のRunwayは2025年12月11日、同社初となるワールドモデル「GWM-1」と、動画生成モデル「Gen 4.5」のアップデートを発表しました。物理シミュレーション音声付き動画生成の両軸で、AIの産業応用と市場価値を大きく高める狙いです。

新発表の「GWM-1」は、物理法則や時間の経過を理解するAIモデルです。環境構築用の「Worlds」、ロボット学習用の「Robotics」、人間行動再現の「Avatars」を展開し、現実世界の高度なシミュレーションを可能にします。

動画モデル「Gen 4.5」はネイティブ音声に対応しました。映像に同期した音や対話を生成でき、一貫性を保った1分間の長尺動画も作成可能です。単なる生成実験を超え、実用的な映像制作ツールとしての地位を固めます。

同社は「動画生成の進化がワールドモデルへの近道」と位置づけます。特にロボット分野では、天候や障害物を含む高品質な合成データを提供し、実機での試行錯誤を減らすことで開発効率と生産性の向上に貢献します。

1Xが家庭用人型ロボを産業界へ、最大1万台の供給契約

EQT傘下企業への大規模供給

EQT傘下企業へ最大1万台の供給で合意
2026年から2030年にかけ順次導入
製造や物流など産業用途での活用
投資家EQTとの戦略的パートナーシップ

家庭用モデルを産業活用する狙い

家庭用モデル「Neo」を産業現場へ転用
家庭普及には安全性とコストの壁
産業用は収益化が容易な市場環境
OpenAIらも出資する注目企業

ロボット開発企業の1Xは2025年12月11日、投資家のEQTと戦略的提携を結び、最大1万台の人型ロボットを供給すると発表しました。対象はEQTが出資する300社以上の企業群で、2026年から2030年にかけて製造や物流の現場へ導入される計画です。

今回供給される「Neo」は、本来2万ドルの家庭用ロボットとして設計され、家事支援などを目的に発表されたモデルです。しかし、家庭内でのプライバシーや安全性、高価格といった普及の壁に対し、産業用途であれば導入障壁が低く、より確実な需要が見込めます。

1XはOpenAI Startup Fundなどから資金を調達しており、AI技術を搭載したロボット開発で注目を集めています。家庭用として開発された高度な対人性能や動作精度を産業現場で活かすこの戦略は、人型ロボットの実社会への浸透を加速させる重要な一手となるでしょう。

NVIDIA、Graph500で世界新記録 GPUがCPU領域を凌駕

グラフ処理で世界一の性能

H100クラスターがGraph500で首位を獲得
毎秒410兆エッジを探索する圧倒的処理速度
競合比で2倍の性能を達成

驚異的なコスト効率

わずか1/9のノード数で記録達成
費用対効果は競合システムの3倍以上
エネルギー効率もCPUの4.5倍

AIと計算の未来

推論時のスケーリングが次の焦点
複雑なスパース処理GPUへ移行
自律型AIやロボティクスへ応用拡大

NVIDIAは2025年12月、CoreWeaveと共同構築したH100 GPUクラスターにより、大規模グラフ処理性能を競う「Graph500」で世界新記録を樹立しました。これまでCPUが主役だった複雑なデータ処理領域においても、GPUが圧倒的な優位性を示し、計算インフラの歴史的な転換点を迎えています。

今回の記録では、毎秒410兆回のエッジ探索(TEPS)を達成しました。特筆すべきは、競合システムの2倍以上の性能を、わずか約9分の1のノード数で実現した点です。これは費用対効果において3倍以上の改善を意味し、企業のインフラ投資効率を劇的に高めます。

グラフ処理はデータが不規則で疎(スパース)なため、従来はCPUの独壇場でした。しかしNVIDIAは、通信と計算をGPU上で完結させる新技術を導入し、CPUを経由するボトルネックを解消しました。これにより、AI以外の科学技術計算でもGPUへの移行が加速します。

エネルギー効率を競う「Green500」でも、NVIDIAGPU搭載システムが上位5位を独占しました。CPUシステムと比較して平均4.5倍の効率を誇り、データセンター電力制約が厳しくなる中、持続可能な計算リソースの確保において決定的な解決策となります。

AI開発において、従来の「事前学習」「事後学習」に加え、推論時に計算量を増やす「テストタイム・スケーリング」が重要になっています。推論段階での高度な推論や計画能力が求められるようになり、学習完了後も強力なGPUインフラが必要不可欠です。

この計算能力の飛躍は、物理世界で活動するロボットや、自律的にタスクをこなすエージェントの実用化を後押しします。GPUは単なる演算装置から、全産業の生産性を底上げする「デジタル労働力」の基盤へと進化しています。

Google、オンデバイスAI開発コンペの受賞者を発表

障害者支援とオフライン活用

視覚障害者向けウェアラブルAIが優勝
胸部カメラ映像をリアルタイム解析
認知障害者支援の完全オフライン動作
個人の発話特徴をローカル学習

警備・教育へのエッジ実装

警備カメラ映像の文脈的脅威判定
通信遮断地域での教育ハブ構築
ロボットJetson上での実装

Googleは12月10日、オンデバイスAIモデル「Gemma 3n」を活用した開発コンペ「Impact Challenge」の受賞者を発表しました。600以上の応募から選出されたプロジェクトは、クラウドに依存しないエッジAIが、低遅延かつ高プライバシーで社会課題を解決する可能性を実証しています。

最優秀賞の「Gemma Vision」は、視覚障害者が胸部に装着したカメラ映像をAIが解析し、周囲の状況を伝えるウェアラブルアシスタントです。白杖を持つ手が塞がらないよう音声や小型コントローラーで操作でき、すべての処理をデバイス上で完結させることで、実用的な応答速度を実現しています。

2位の「Vite Vere Offline」は、認知障害者のために画像音声指示に変換する完全オフラインアプリです。3位の「3VA」は、脳性麻痺を持つデザイナー向けにピクトグラムを豊かな文章へ変換するシステムで、ローカル環境での追加学習により、個人の意図を正確に反映させることに成功しました。

そのほか、警備カメラの映像から脅威のみを文脈的に識別するシステムや、インターネット接続がない地域向けの教育用マイクロサーバーなど、多彩なプロジェクトが入賞しました。これらの事例は、AIが画面の中だけでなく、物理的な制約のある現場でいかに具体的価値を生み出せるかを示唆しています。

Meta新AIが動画で物理法則を習得、汎用ロボットへの道

「ピクセル」から「意味」の学習へ

従来のAIは細部に囚われ非効率
潜在表現で本質のみを学習
不要な情報を捨て効率的に処理

物理的直感と「驚き」の獲得

物理法則に反する現象を検知
テストで98%の高精度を記録
幼児のような物体恒常性を習得

ロボティクスへの展開と課題

少量データでロボット動作を計画
記憶保持時間の短さが課題

Metaが開発した新AIモデル「V-JEPA」は、動画視聴のみで物理世界の法則を直感的に理解します。従来のAIが苦手としたノイズ処理を克服し、自律型ロボットなどへの応用が期待される画期的な技術です。幼児が経験を通じて世界を学ぶように成長する、その革新的な学習メカニズムと、実用化に向けた今後の展望を解説します。

従来のAIはピクセル単位の処理により、背景の些細な動きなど本質的でない情報に惑わされがちでした。対してV-JEPAは、映像を抽象化した潜在表現を用いることで、重要な情報のみを効率的に抽出する仕組みを採用し、この課題を克服しています。

具体的には、映像の一部を隠し、その欠損部分の「意味」を予測させることで学習を進めます。単なる画素の復元ではなく、文脈や物体の動きといった高次元の情報を捉える訓練を行うため、より人間に近い形での状況理解が可能になります。

その実力は「IntPhys」と呼ばれる物理的直感テストで証明されました。重力や物体の永続性に反する映像を見せると、AIは予測エラーという形で驚きを示し、その正答率は約98%に達しました。これは幼児が世界を学ぶプロセスに酷似しています。

最新版の「V-JEPA 2」は、わずか60時間分のデータでロボットの動作計画を学習するなど、実用化に向け進歩しています。一方で、記憶できる時間が短く「金魚並み」であるといった課題も残されており、長期的な因果関係の理解が次の技術的焦点です。

倉庫の重労働をAIロボで解放、MIT発「Pickle」の挑戦

生成AI搭載の自律ロボ

MIT発、生成AI機械学習を実装
最大50ポンドの荷物を自律的に荷下ろし
導入初日から稼働、学習し性能が向上

現場課題からピボット

倉庫の高離職率に着目し事業転換
既存アーム活用で開発コストを抑制
UPSやリョービなど大手企業が導入

2025年12月、MIT発のスタートアップ「Pickle Robot Company」が物流業界の注目を集めています。同社は生成AIと機械学習を駆使した自律型ロボットにより、物流倉庫における過酷な荷下ろし作業を自動化しました。UPSやRyobi Toolsなどの大手企業で導入が進み、深刻な人手不足と高い離職率という業界の構造的課題の解決に貢献しています。

同社の技術的な強みは、高度なソフトウェアと既存ハードウェアの賢明な融合にあります。独KUKA社製の産業用アームに独自のセンサーやAIを搭載し、最大50ポンド(約23kg)の荷物を処理します。生成AIモデルのファインチューニングにより、多様な環境に即応しつつ、稼働しながら性能を高める仕組みを構築しました。

創業者のAJ Meyer氏らは当初、仕分けロボットを開発していましたが、資金難に直面し方針転換を余儀なくされました。現場観察で「90日以内に全員が辞める」という過酷な荷下ろし現場の実態を知り、事業をピボットします。YouTubeに投稿した概念実証動画が大きな反響を呼び、投資家と顧客を呼び戻して再起を果たしました。

今後は荷下ろしに加え、積み込み作業や他社製ロボットとの連携プラットフォーム開発も視野に入れています。鉱山から玄関先まで、サプライチェーン全体の自動化を指揮する「ネットワークの構築」を目指し、同社は事業拡大を加速させています。

音声指示で物体を数分生成、MITが「現実化AI」を開発

生成AIとロボットの融合

LLMと3D生成AIで設計を自動化
ロボットアームが数分で実体化
3Dプリントより高速なモジュール組立

製造の民主化と持続可能性

専門知識不要で誰でも製造可能
部品再利用により廃棄物を削減
ジェスチャー操作や大規模化も視野

米マサチューセッツ工科大学(MIT)の研究チームは2025年12月5日、音声指示だけで物理的な物体を生成する「Speech-to-Reality」システムを発表しました。生成AIとロボティクスを統合し、ユーザーが欲しいものを口にするだけで、ロボットアームが数分以内に家具などを自動で組み立てます。

このシステムは、大規模言語モデル(LLM)が音声を解析し、3D生成AIが設計図を作成することから始まります。生成されたデジタルデータはボクセル化アルゴリズムによって組み立て可能な部品構成に変換され、ロボットアームが最適な手順で物理的な構築を行います。

最大の特徴は、専門的な3Dモデリングやプログラミングのスキルが一切不要である点です。従来の3Dプリンティングが数時間から数日を要したのに対し、本システムはわずか数分で完了するため、製造プロセスの劇的な効率化と民主化を実現します。

また、組み立てにはモジュール式のコンポーネントを使用しており、持続可能性にも配慮されています。不要になった家具は分解して別の物体へと作り変えることができるため、廃棄物を削減し、資源を循環させるエコシステムとしての側面も持ち合わせます。

研究チームは今後、より堅牢な接続方法の採用や、ジェスチャー操作の統合を計画しています。将来的には、SF映画のように誰もがオンデマンドで必要なものを即座に手に入れられる世界の実現を目指し、モバイルロボットへの応用も視野に入れています。

NVIDIA、ロボット開発キットを最大半額に

期間限定のホリデー割引

1月11日までJetsonシリーズが割引
AGX Orinは50%オフの大幅値下げ
AGX Thorは20%オフで提供
開発者学生導入障壁を低減

広がるエッジAI活用

ヒューマノイドから水中監視まで対応
Orin Nanoで生成AIを手軽に実装
サーバー級の計算能力をエッジへ

NVIDIAは2025年1月11日までの期間限定で、エッジAIおよびロボティクス向けプラットフォーム「Jetson」シリーズの開発者キットを特別価格で提供すると発表しました。AI活用を目指すエンジニアや研究者を対象に最大50%の割引を実施し、高度な物理AIや自律マシンの開発を強力に後押しします。

対象製品には、ヒューマノイド開発向けの最上位モデル「Jetson AGX Thor」や、産業用ロボットの頭脳となる「Jetson AGX Orin」が含まれます。特にAGX Orinは50%オフ、AGX Thorは20%オフとなり、サーバークラスの計算能力を持つデバイスを低コストで導入できる好機です。また、手のひらサイズの「Jetson Orin Nano Super」も対象で、手軽に生成AIの開発を始められます。

具体的な活用事例として、Orin Nano Superを用いた「自動パドリングカヌー」が紹介されています。わずか25ワット以下の低消費電力でリアルタイム制御を実現し、バッテリー駆動のモビリティに適しています。また、ノルウェーの企業はAGX Orinを活用し、水中養殖の魚群監視システムを構築。通信が困難な環境でもエッジ側で高度な画像処理を行える点が評価されています。

さらに、米Richtech Robotics社はAGX Thorを搭載したヒューマノイドロボット「Dex」を開発しています。NVIDIAシミュレーション環境「Isaac Sim」で生成した合成データで学習し、工場内での部品仕分けなど複雑なタスクを自律的に遂行可能です。今回の割引キャンペーンは、こうした次世代ロボット開発の裾野を広げる重要な施策といえるでしょう。

AIデータMicro1が年商1億ドル突破 専門家活用でScale猛追

爆発的な収益成長

年初700万ドルから1億ドルへ急拡大
Microsoftなど大手ラボと取引

独自の専門家確保術

AI採用技術で高度人材を即時確保
博士号保持者等が時給100ドルで参加

新市場への戦略的拡大

企業のAIエージェント評価へ参入
ロボット向け実演データの収集開始

AI学習データ作成を手掛ける米スタートアップのMicro1が、年間経常収益(ARR1億ドルを突破しました。年初の約700万ドルからわずか1年で急激な成長を遂げており、Scale AIなどの競合がひしめく市場において、その存在感を急速に強めています。

創業3年の同社を率いるのは24歳のアリ・アンサリ氏です。成長の鍵は、ドメイン専門家を迅速に採用・評価する独自の仕組みにあります。もともとエンジニア採用AIとして開発された技術を転用し、高度な専門知識を持つ人材を効率的に確保することで差別化を図っています。

登録する専門家にはハーバード大学の教授やスタンフォード大学の博士号保持者も含まれ、時給100ドル近くを得るケースもあります。高品質なデータへの需要は旺盛で、アンサリ氏は人間の専門家によるデータ市場が、2年以内に1000億ドル規模へ拡大すると予測しています。

業界最大手Scale AIを巡る環境変化も追い風となりました。報道によると、Metaとの接近を背景にOpenAIなどがScale AIとの関係を見直したとされ、これによりMercorやSurgeといった新興ベンダーへの需要分散が加速しています。

今後の注力分野として、非AIネイティブ企業による社内業務効率化のためのAIエージェント構築を挙げています。企業のモデル導入には体系的な評価とファインチューニングが不可欠であり、同社はこの「評価プロセス」への予算配分が急増すると見込んでいます。

さらに、ロボット工学向けのデータ収集にも着手しました。家庭内での物理的なタスクを人間が実演するデータを集め、世界最大規模のデータセット構築を目指しています。LLMだけでなく、物理世界でのAI活用も視野に入れた戦略的な事業拡大が進んでいます。

Tencentの3D生成AI、ゲーム開発工数を劇的に圧縮

プロトタイプ作成の超高速化

人気ゲーム『Valorant』の開発で試験導入
Hunyuanが3D物体やシーンを即座に生成
キャラ設計を1か月から60秒へ短縮

激化する3D AI開発競争

MicrosoftMetaも3D生成モデルを展開
物理世界の理解がAI進化の鍵に
ロボット工学やVR/AR分野へ応用拡大

中国テック大手Tencent傘下のRiot Gamesなどが、同社のAIモデル「Hunyuan」をゲーム開発に導入し、プロセスを劇的に変革しています。人気シューティングゲーム『Valorant』のキャラクターやシーンの試作において、3D生成AIを活用することで、圧倒的な生産性向上を実現しました。

特筆すべきは、そのスピードです。従来、キャラクターデザインの初期段階に1ヶ月を要していた作業が、テキストで指示を入力するだけで、わずか60秒以内に4つの案が出力されるようになりました。この圧倒的な工数削減は、ゲーム産業の収益構造を根本から変える可能性があります。

TencentのHunyuanモデルは、テキストや画像だけでなく、3Dオブジェクトやインタラクティブなシーンを生成できる点が特徴です。この技術は、同社の他のゲームタイトルや独立系開発者にも広がり始めており、3Dアセット生成の民主化が進んでいます。

現在、AI研究の最前線は「物理世界の理解」へとシフトしています。Tencentだけでなく、MicrosoftMetaGoogle、そしてFei-Fei Li氏率いるWorld Labsなどの新興企業も、3DネイティブなAIモデル開発に注力しており、覇権争いが激化しています。

3D生成AIの応用範囲はゲームにとどまりません。生成された3D環境は、ロボットの学習用シミュレーションや、より高度なVR/AR体験の創出にも不可欠な要素となります。自動運転などの分野への波及効果も期待され、産業全体の生産性を高める鍵となるでしょう。

一方で、AIによる雇用の喪失や、AI生成コンテンツの表示義務に関する議論も浮上しています。技術の普及とともに法的・倫理的な整備が求められますが、Tencentは豊富なゲームIPとプラットフォームを武器に、この3D AI分野で優位性を確立しつつあります。

MIT、AI制御で蜂並みの飛行ロボットを開発

AI技術で身体能力が覚醒

速度450%、加速度250%向上
11秒で10回の連続宙返りに成功
外乱に耐える高い飛行安定性を実現

重い計算を軽量化する工夫

モデル予測制御で最適解を算出
模倣学習でAIモデルへ知識を圧縮
実機でのリアルタイム制御が可能に

米マサチューセッツ工科大学(MIT)の研究チームは、マルハナバチに匹敵する敏捷性を持つ超小型飛行ロボットを開発しました。従来のマイクロロボットは動きが緩慢でしたが、新たなAI制御技術により、狭い空間での高速飛行や障害物回避が可能になります。将来的には、倒壊した建物内での被災者捜索など、大型ロボットが進入できない災害現場での活用が期待されています。

このロボットの核心は、計算効率と制御精度を両立させた「2段階のAI制御システム」です。まず、物理演算に基づくモデル予測制御を用いて、宙返りなどの複雑な動作に必要な最適軌道を計画します。次に、その膨大な計算結果を教師データとして「模倣学習」を行い、軽量なニューラルネットワークに圧縮することで、機体でのリアルタイム処理を実現しました。

実験では、従来機と比較して飛行速度が約450%、加速度が約250%向上するという劇的な成果を上げました。風による外乱があっても姿勢を崩さず、わずか11秒間で10回の連続宙返りを成功させています。研究チームは今後、カメラやセンサーを搭載し、外部システムに依存しない完全自律飛行の実現を目指して開発を進める方針です。

MITが開発、ソフトロボットを安全制御する新技術

柔軟性と安全制御を高度に両立

非線形制御理論で複雑な動きを管理
接触を回避せず接触認識で安全確保
リアルタイムで力の限界を最適化

医療や製造現場での実用化へ

手術支援や壊れやすい物の操作に対応
人との協働を安全かつ円滑に
数理モデルで動作保証を確立

マサチューセッツ工科大学(MIT)の研究チームは2025年12月、人間や壊れやすい物体と安全に接触できるソフトロボット向けの制御システムを発表しました。柔軟な素材の特性を活かしつつ、数理モデルで力の加減を厳密に制御し、医療や産業現場での安全な協働作業を実現します。

本技術の核心は「接触認識安全性」フレームワークです。安全な動作範囲を定める高次制御バリア関数と、目標へ導く高次制御リアプノフ関数を統合しました。これにより、ロボットは自身の限界を把握し、過度な力を防ぎつつ効率的にタスクを遂行します。

従来のソフトロボットは動きの予測が困難でした。新システムでは、変形を予測するPCSモデルと、障害物との距離を計算するDCSAT手法を採用しています。これらは微分可能なシミュレーションに基づき、リアルタイム最適化による精密な制御を可能にしました。

検証実験では、ロボットが柔らかい表面へ正確に力を加えたり、曲面に沿って物体を把持したりする動作に成功しました。不意な接触にも即座に対応できるため、手術支援や介護、繊細な製品の取り扱いなど、高度な安全性が求められる現場での活用が期待されます。

NVIDIA、思考する自動運転AIと物理AI開発基盤を公開

自動運転を変える「思考するAI」

世界初の自動運転向け推論VLAモデル
思考の連鎖人間並みの判断を実現
研究用にGitHub等でオープン提供

物理AI開発を加速するツール群

開発全工程を網羅したCosmos Cookbook
ロボット動作生成やデータ修復に対応
音声AIや安全性モデルも拡充

2025年12月、米NVIDIAはAIカンファレンス「NeurIPS」において、自動運転および物理AI(Physical AI)向けのオープンソースモデル群を発表しました。特に注目されるのは、推論能力を持つ自動運転用VLAモデル「Alpamayo-R1」と、物理AI開発ガイド「Cosmos Cookbook」です。同社はこれらの技術を開放することで、ロボティクスや自動運転分野におけるイノベーションの加速を狙います。

NVIDIA DRIVE Alpamayo-R1」は、視覚情報の処理と言語による推論を統合し、行動決定を行う世界初のモデルです。最大の特徴は「思考の連鎖(Chain-of-thought)」を組み込んだ点にあり、歩行者の多い交差点や不規則な交通状況でも、人間のような常識に基づいた判断を下せます。これにより、完全自動運転(レベル4)の実現に向けた安全性が飛躍的に向上します。

物理AIの実装を支援するため、データ生成からモデル評価までの手順を示した「Cosmos Cookbook」も提供されます。開発者はLiDARデータの生成やロボットの動作ポリシー策定など、複雑なタスクに対応した「Cosmos」モデル群を容易に活用できるようになります。ジェンスン・フアンCEOが提唱する「AIの次の波は物理AI」というビジョンを具現化する動きです。

デジタルAI領域でも、複数話者の聞き分けが可能な音声モデルや、AIの安全性を担保するデータセット、推論速度と精度を両立する軽量モデルなどが公開されました。NVIDIAは70本以上の論文を発表しており、ハードウェアだけでなく、次世代AI開発に不可欠なソフトウェア基盤においても、圧倒的な存在感を示しています。

ノルウェー養殖×AI:給餌最適化と自律ロボで収益を最大化

AIによる飼料コスト削減

最大コストの飼料配分を最適化
水温や魚体サイズを精密分析
収益性向上に直結する技術

ロボットによる完全自律化

網の点検を行う水中ロボット
数千台規模の運用に対応
人手不足を補う高度な自律性

現場と技術の融合

生物学的知見との統合が必須
現場視察による一次情報の価値

MIT学生らが、世界最大のサーモン生産国ノルウェーで、AIとロボティクスを活用した次世代養殖技術の実証研究に取り組みました。最大のコスト要因である給餌の最適化や、過酷な環境下で稼働する水中ロボットの自律化など、生産性と収益性を高めるための具体的な技術革新が進められています。

養殖業において最も大きなコストを占めるのが飼料代であり、この最適化が収益改善の鍵を握ります。研究では、水温や魚のサイズといった環境データをAIが分析し、過不足のない最適な給餌量を算出するシステムを開発しました。これにより、飼料の無駄を削減しつつ、魚の成長を最大化することが可能となります。

ノルウェー沿岸には約1000の養殖場があり、検査や清掃のために数千台規模のロボットが稼働しています。これら全てを人間が操作することは経済的にも実務的にも不可能なため、ロボットの自律性向上が急務です。学生らは、網の損傷を自律的に修復するロボットアームのシミュレーションなど、省人化技術の開発に注力しました。

こうした技術開発において重要なのが、エンジニアリングと生物学の融合です。「動く生き物」を相手にする養殖現場では、単なる機械的効率だけでなく、魚の福祉や生態への配慮が欠かせません。現場で実際のスケール感や課題に触れることが、実用的なソリューション開発への近道であると専門家は指摘しています。

中国政府、人型ロボットバブル警告 実用なき投資過熱

異例の警告と市場の現状

国家発展改革委員会がバブルリスク指摘
AI業界の懸念を背景に投資過熱を警告
実用的なユースケースの不足

企業乱立と技術的課題

国内150社以上が乱立する激戦区
類似モデルの氾濫とR&D;資金不足
国家優先事項からの方針微修正

中国の国家発展改革委員会は27日、人型ロボット産業におけるバブル形成のリスクを公式に警告しました。実証された用途が乏しいにもかかわらず投資が殺到している現状に対し、AIバブルへの懸念も背景に、当局が異例の注意喚起を行っています。

当局は、業界の急成長とリスク管理のバランスを求めています。特に懸念されるのは、研究開発資金が分散・縮小する一方で、差別化されていない「類似モデル」が市場に溢れる事態です。これは、産業全体の健全な発展を阻害する要因となり得ます。

中国には現在150社以上の人型ロボット企業が存在し、その半数は異業種からの参入や新興企業です。政府は以前、同技術を国家優先事項としていましたが、今回の警告は、無秩序な拡張から実質的な価値創造へ舵を切るシグナルと言えるでしょう。

AIが加速する脱炭素:送電網制御と素材開発の最前線

送電網の自律制御と安定化

再エネの出力変動をAIで調整
EVや機器連携で電力需要を柔軟化
予知保全による停電リスクの回避

インフラ計画と素材開発の革新

気候リスク予測で投資計画を最適化
規制文書分析で承認プロセス短縮
新素材開発を数十年から数年に短縮

AIの電力消費増大が懸念される一方、マサチューセッツ工科大学(MIT)は2025年11月、AIこそがクリーンエネルギー移行の切り札になると提言しました。送電網の複雑な制御から画期的な新素材開発に至るまで、AI技術がエネルギー産業の構造的課題を解決する鍵となります。最新の研究成果に基づき、脱炭素社会実現に向けた具体的なAI活用戦略を解説します。

最も即効性が高い領域は電力網(グリッド)の高度化です。太陽光や風力といった天候任せの再エネ電源が増える中、AIは需給バランスをマイクロ秒単位で調整します。EVの充電タイミング制御やデータセンターの負荷調整を通じて需要側を柔軟に管理し、老朽化した設備の故障を予知して大規模停電を防ぐ役割も担います。

将来のインフラ投資計画においてもAIは不可欠です。気候変動による異常気象リスクや、複雑化する電源構成をシミュレーションし、最適な設備投資を導き出します。さらに、膨大な規制文書を大規模言語モデル(LLM)で解析することで、認可申請プロセスを効率化し、プロジェクトの遅延を防ぐことが可能です。

特筆すべきは新素材開発の劇的な加速です。従来は数十年を要した次世代バッテリーや原子炉用材料の開発期間を、AIとロボット実験の連携により数年単位に短縮できます。AIは過去の膨大な論文を学習し、最適な実験手順を提案・実行することで、人間には不可能な速度でイノベーションを創出します。

MITエネルギーイニシアティブ(MITEI)は、核融合炉の制御やデータセンター自体の省エネ化にもAIを活用しています。技術者、経済学者、政策立案者が連携し、AIと物理インフラを融合させることが、安定かつクリーンなエネルギー社会実現の必須条件です。

米新興が家事ロボット発表、独自学習で複雑作業を実現

高度な家事能力と動作

エスプレッソ抽出や食器セットが可能
車輪移動と昇降機能で柔軟に動作
片手でグラスを持つ高い器用さ

独自のAI学習手法

特殊グローブ着用者がデータを生成
遠隔操作より正確な信号を取得
ハードとAIの垂直統合で最適化

今後の展開と市場

来年にベータテストを開始予定
テスラやDeepMind出身の精鋭が集結
初期は愛好家層への普及を想定

米国の新興企業Sunday Roboticsは2025年11月19日、家庭用ロボット「Memo」を発表しました。従来の単純作業とは一線を画し、エスプレッソの抽出や食器の片付けといった複雑な家事を自律的に遂行します。AIとハードウェアを高度に統合し、家庭環境での実用化を目指しています。

Memoは親しみやすい外見で、車輪移動と昇降機能を備えています。特筆すべきは、片手で複数のグラスを掴むといった人間並みの器用さです。デモでは粉のセットから抽出までエスプレッソマシンを操作し、散らかったキッチンでも柔軟に対応する能力を実証しました。

この器用さを支えるのが、独自のAI学習手法です。同社は400ドル程度の特殊グローブを開発し、人間が着用して家事を行うデータを収集しています。従来の遠隔操作よりも、人間の微細な動きを正確にAIモデルへ学習させることが可能となりました。

創業者スタンフォード大学などでロボット学習を研究し、チームにはTeslaやGoogle DeepMindの出身者も在籍します。ネット上にロボット用データが不足している現状に対し、自社で高品質なデータを生成し、ハードとAIを一体で開発する戦略をとっています。

同社は来年、ベータテストを開始する予定です。初期は機能の不完全さを許容し、自らロボットにタスクを教える意欲のあるアーリーアダプター層をターゲットとします。家庭内で確実に役立つロボットの実現に向け、実環境での検証が進められます。

Google、元ボストン・ダイナミクスCTO採用でロボットAI加速

ロボット版「Android」構想

元ボストン・ダイナミクスCTOを採用
VPとしてハードウェア部門を統括
スマホのAndroid戦略を踏襲

AI脳への注力と市場展望

ハードは問わず汎用AIで制御
今後数年で技術的飛躍を予測
テスラ中国勢と競争激化
焦点はハードよりソフトウェア

Google DeepMindは2025年11月、ボストン・ダイナミクスの元CTOであるアーロン・サンダース氏をハードウェア担当VPとして採用しました。AIモデル「Gemini」をロボットのOSとして普及させるための戦略的な人事といえます。

デミス・ハサビスCEOは、スマートフォン市場におけるAndroidのように、多様なロボット「箱から出してすぐに」動かせるAI基盤の構築を目指しています。サンダース氏の知見を得て、ヒューマノイドを含むあらゆる機体への対応を加速させます。

テスラや中国企業が安価なハードウェア開発で先行する中、Google「AI脳」の開発に注力して差別化を図る方針です。ハサビス氏は、AIとロボット工学の融合が数年以内にブレイクスルーを迎えると予測し、競争力の強化を急いでいます。

「物理AI」新興Bone、防衛ロボで18億円調達

「物理AI」で防衛革新

ソフトウェアとハードの統合
空・陸・海の自律型ロボを開発
韓国の製造業を強みに活用

創業1年目の急成長

シードで18億円を大型調達
既に売上4.5億円を達成
M&A;による事業加速戦略
韓国政府の物流計画に採択

韓国米国に拠点を置くスタートアップBone AIが、シードラウンドで1200万ドル(約18億円)を調達しました。同社はソフトウェア、ハードウェア、製造を統合する「物理AI」プラットフォームを構築し、次世代の防衛用自律型ロボットを開発。アジアの防衛大手に対抗する野心的な計画を掲げ、創業1年目から事業を急拡大させています。

Bone AIが目指すのは、単なる防衛技術企業ではありません。創業者DK・リー氏は同社を「物理AI」企業と位置づけています。これは、AIの知能をデジタル世界だけでなく、ドローンや地上車両といった物理的なロボットに組み込み、現実世界で機能させるという壮大な構想です。シミュレーションから製造までを一気通貫で手掛けます。

同社の急成長は注目に値します。創業わずか1年で、既に政府との大型契約を獲得し、300万ドル(約4.5億円)の売上を達成。この成功の裏には、設立6ヶ月後には韓国ドローン企業を買収するなど、自社開発に固執しないM&A;を駆使した戦略があります。今後も追加の買収を計画しています。

なぜ韓国が拠点なのでしょうか。韓国には現代自動車やサムスン電子など、世界的なハードウェア製造企業が集積しています。リー氏はこの強力な製造基盤を活かし、韓国内で物理AIのサプライチェーンを構築。将来的には米国欧州など同盟国への展開を目指しており、地の利を最大限に活用する戦略です。

投資家も大きな期待を寄せています。米国のAndurilや欧州のHelsingといった巨大防衛テック企業が生まれる一方、アジア市場はまだ黎明期にあります。今回のラウンドを主導したThird Primeは、Bone AIが「主権AI」や「再産業化」といった世界的潮流の中心にいると評価。市場の隙間を埋める存在として注目しています。

Gemini搭載の新AI、仮想世界で思考し自律行動

Geminiで飛躍的進化

Gemini統合で言語・推論能力を強化
複雑なタスクの成功率が前モデル比2倍
絵文字など抽象的な指示も理解

自己改善する学習能力

人間のデータを元に自らタスクを生成
試行錯誤から学ぶ自己改善ループを実装
未経験の環境にも高い適応力

AGI・ロボットへの応用

物理世界で動く汎用ロボットへの布石
AGI(汎用人工知能)開発の重要ステップ

Google傘下のDeepMindは2025年11月13日、次世代AIエージェント「SIMA 2」の研究プレビューを公開しました。同社のAIモデルGeminiの高度な言語・推論能力を統合し、仮想3D世界で複雑な指示を理解して自律的に行動します。これは汎用人工知能(AGI)開発に向けた大きな一歩となります。

2024年3月に発表された前モデルSIMA 1は、基本的な指示に従うことはできましたが、複雑なタスクの成功率は31%に留まっていました。SIMA 2はGeminiとの統合により、性能が2倍に向上。単なる命令実行を超え、環境を深く理解し、対話する能力を獲得しました。

SIMA 2は、Geminiの能力を活かして内部的な思考プロセスを示すことができます。例えば「熟したトマト色の家へ行け」という指示に対し、「トマトは赤い、だから赤い家へ行く」と推論し行動します。さらに「🪓🌲」といった絵文字の指示も理解し、木を切り倒すといった行動が可能です。

SIMA 2の革新性は、その学習方法にあります。人間のプレイデータを初期モデルの構築に使うものの、その後はAI自身が新たなタスクを生成し、試行錯誤を通じて能力を向上させます。この自己改善ループにより、人間からの大量のデータなしに未知の環境へ適応していくのです。

DeepMindは、AIが身体を持って仮想または物理世界と対話する「身体性エージェント」の研究が、汎用知能の鍵だと考えています。SIMA 2は、このコンセプトを体現するものであり、仮想環境での経験を通じて、より汎用的な問題解決能力を養うことを目指しています。

SIMA 2で培われた技術は、将来的に物理世界で活動する汎用ロボットの開発に応用されることが期待されています。家事支援など、複雑な状況判断が求められるタスクをこなすロボットの実現に向けた重要な布石です。ただし、具体的な実用化の時期はまだ示されていません。

AIの母、3D世界生成モデル「Marble」発表

「空間知能」が拓く新境地

テキストや動画から3D世界を生成
AIの次なるフロンティアと位置付け
Unreal Engine等と互換

Marbleの概要と可能性

月額20ドルからの商用プラン提供
映画制作や建築ロボット工学で活用
企業のデータ可視化にも応用可能

「AIの母」として知られるスタンフォード大学のフェイフェイ・リー教授が共同設立したWorld Labsは今週、初の商用製品「Marble」を発表しました。テキストや画像から3D世界を自動生成するこのAIモデルは、同社が提唱する「空間知能」という新領域を切り拓くものです。同社はこの分野をAIの次なるフロンティアと位置づけ、既に2億3000万ドルを調達しています。

「Marble」は、ユーザーが入力したプロンプトに基づき、ダウンロード可能な3D環境を構築します。生成されたデータは、ゲーム開発で広く使われるUnreal EngineUnityといったツールと互換性があり、専門家でなくとも迅速にアイデアを形にできるのが特徴です。これにより、制作プロセスの大幅な効率化が期待されます。

リー氏は、「空間知能」を「今後10年の決定的な課題」と定義しています。従来のテキストや画像生成AIの次に来る大きな波であり、AIが3D世界を認識し、対話し、生成する能力を持つことで、全く新しい応用が可能になると考えています。このビジョンが、昨年秋の大型資金調達につながりました。

活用範囲は多岐にわたります。映画制作者がロケハンやVFXのたたき台を作ったり、建築家が設計案を即座に視覚化したりすることが可能です。さらに、ロボット工学におけるシミュレーション環境の構築や、科学的発見のためのデータ可視化など、エンタープライズ領域での活用も期待されています。

「Marble」には4つの料金プランが用意されています。無料版から、月額35ドルで商用利用権が付与されるプロ版、月額95ドルで生成回数が最大75回となるマックス版まで、多様なニーズに対応しています。個人クリエイターから大企業まで、幅広い層の利用を見込んでいます。

World Labsの共同創業者ベン・マイルデンホール氏は、「人間のチームだけでは膨大な時間と労力がかかる世界構築を、AIが劇的に変える」と語ります。アイデアの創出から編集までのサイクルを高速化することで、人間の想像力を超える空間創造が加速するかもしれません。今後の展開が注目されます。

World Labs、編集可能な3D世界生成AI「Marble」公開

3D世界を自在に生成

テキストや画像から3D環境を自動生成
永続的でダウンロード可能な高品質な世界
ゲーム・VFX・VRでの活用に期待

直感的なAIネイティブ編集

構造とスタイルを分離した柔軟な編集
AI編集ツール「Chisel」を搭載
生成した世界の拡張・合成も可能

空間知能への第一歩

AIの権威フェイフェイ・リ氏が主導
フリーミアム含む4プランで提供

AI研究の権威フェイフェイ・リ氏が率いるスタートアップWorld Labsは、初の商用製品であるワールドモデル「Marble」を正式に発表しました。テキスト、画像動画などから編集・ダウンロード可能な3D環境を生成するサービスで、ゲームやVFX業界のコンテンツ制作を革新する可能性を秘めています。フリーミアムモデルで提供を開始し、ワールドモデル開発競争で一歩リードする形です。

Marbleの最大の特徴は、一貫性が高く永続的でダウンロード可能な3D環境を生成する点にあります。リアルタイムで世界を生成し続ける他のモデルとは異なり、高品質なアセットとして出力できるのです。ガウシアン・スプラッティングやメッシュ形式でのエクスポートに対応し、UnityやUnreal Engineといった既存のゲームエンジンに直接組み込めます。

さらに、独自のAIネイティブ編集ツールクリエイターに高度な制御をもたらします。実験的な3Dエディタ「Chisel」を使えば、まず大まかな空間構造をブロックで組み、その後AIに詳細なビジュアルを生成させることが可能です。これにより、ウェブサイトにおけるHTMLとCSSのように、構造とデザインを分離して効率的に編集できます。

ユーザーは生成した世界を拡張したり、複数の世界を合成したりすることも可能です。これにより、広大な空間の作成や、異なるスタイルの世界を組み合わせるなど、創造性の幅が大きく広がります。このような柔軟な編集機能は、クリエイターがAIに主導権を奪われることなく、創造性を最大限に発揮できるよう設計されています。

Marbleはフリーミアムを含む4つの料金プランで提供されます。ゲーム開発や映像制作での背景アセット生成が当面の主な用途と見られています。また、VR業界もコンテンツ不足から大きな期待を寄せており、Vision ProやQuest 3にも既に対応済みです。クリエイターにとって、制作パイプラインを加速させる強力なツールとなるのではないでしょうか。

World Labsの創業者であるリ氏は、Marbleを単なる3D生成ツールではなく、「空間知能」を持つAIへの重要な一歩と位置付けています。将来的には、ロボット工学のシミュレーション環境や、科学・医療分野でのブレークスルーにも貢献する可能性があると期待を示しており、その動向から目が離せません。

AnthropicのAI、ロボット犬の遠隔操作に成功

AIによるロボット制御実験

AI「Claude」によるロボット犬の制御
ロボティクス未経験者によるプログラミング
Claude利用群と非利用群で能力を比較

実験で判明したこと

Claude利用群がタスクを高速化
非利用群には達成不能なタスクも成功
チームの共同作業にも好影響

今後の展望とリスク

AIの物理世界への進出が加速
AIの自律的な身体化リスクへの備え

AI開発企業Anthropic社は、同社のAIモデル「Claude」がロボット犬のプログラミングと物理的なタスク実行を自動化できることを示す研究「Project Fetch」の結果を発表しました。この実験は、AIがデジタル空間だけでなく、物理世界へ影響を及ぼす「エージェント」としての能力を証明するものです。生産性向上の可能性を示す一方、将来的なリスクへの備えの重要性も浮き彫りにしています。

実験では、ロボティクスの専門知識がない2つの研究者チームが、中国Unitree社製の四足歩行ロボット「Go2」の操作に挑みました。片方のチームのみがClaudeの支援を受け、もう一方はAIなしでプログラミングを行いました。その結果、Claudeを利用したチームは、AIなしのチームが達成できなかった「ビーチボールを見つける」といった複雑なタスクを成功させ、作業をより迅速に完了させました。

今回の研究で注目すべきは、生産性以外の効果です。Anthropic社の分析によると、Claudeを利用したチームは、AIの支援なしで作業したチームに比べて、混乱や否定的な感情が少なく、より円滑に協力できていたことが判明しました。これは、Claudeロボットとの接続やインターフェースのコーディングを簡略化し、人間がより本質的な課題に集中できたためと考えられます。

Anthropic社は、AIの潜在的な危険性を研究し、安全な開発を推進することを目的に設立された企業です。今回の実験も、将来AIが自律的に物理システムを操作する「自己身体化」の可能性に備えるという、リスク研究の一環です。現行モデルがロボットを完全に制御する能力はありませんが、将来の高性能モデルがもたらす変化に先手を打つ狙いがあります。

専門家は、AIがロボットを操作する能力自体は驚くべきことではないとしながらも、AI支援がチームの力学に与える影響についての分析は注目に値すると評価しています。同時に、AIによるロボット制御は悪用や予期せぬ事故のリスクもはらみます。そのため、AIの行動に特定のルールを課す「RoboGuard」のような安全システムの開発も重要性を増しています。

AIがウェブ上の操作だけでなく、物理的な行動を起こすエージェントへと進化する未来は、すぐそこまで来ています。製造、建設、警備など、様々な産業でロボットの活用が進む中、AIによる自律制御は革命的な生産性向上をもたらすでしょう。しかし、その力をいかに安全に活用するか。経営者エンジニアにとって、この問いへの備えがこれまで以上に求められます。

テスラ、マスク氏の1兆ドル報酬案を承認 AI・ロボット化加速へ

巨額報酬案の概要

CEOへの史上最大級の報酬
時価総額8.5兆ドルへの挑戦
ロボタクシー100万台の稼働
人型ロボット100万台の販売

承認の背景と課題

マスクCEOの指導力維持が目的
株主の75%以上が賛成票
売上減速など事業環境は厳化
一部大株主や助言会社は反対

電気自動車(EV)大手のテスラは2025年11月6日、オースティンで開いた株主総会で、イーロン・マスク最高経営責任者(CEO)に対する新たな巨額報酬案を承認しました。75%以上の賛成票を得たこの決定は、同社のAIやロボティクス事業への転換を加速させるため、マスク氏のリーダーシップを確保する狙いがあります。

承認された報酬案は、マスク氏に野心的な目標達成を課すものです。今後10年間で、テスラの時価総額を現在の1.5兆ドルから8.5兆ドルへと引き上げることが求められます。さらに、100万台のロボタクシー稼働や100万体の人型ロボット販売なども条件に含まれており、達成すればマスク氏の株式保有比率は約25%に上昇します。

取締役会は、報酬案を承認しなければマスク氏が他の事業に注力し、テスラを離れるリスクがあると警告していました。テスラが単なる自動車メーカーではなく、AIとロボティクスのリーダーになるためには、マスク氏の強力な指導力が不可欠であるというメッセージを株主に訴え、支持を取り付けた形です。

この報酬案には、一部から強い反対もありました。ノルウェーの政府系ファンドなど一部の大株主や、大手議決権行使助言会社が反対を表明。また、以前の500億ドル超の報酬案がデラウェア州の裁判所で無効とされた経緯もあり、司法判断との整合性を問う声も上がっていました。

テスラは現在、売上の急減や中国メーカーとの競争激化など、厳しい事業環境に直面しています。投入したロボタクシーサービスは事前の期待を下回り、新型車「サイバートラック」の販売も苦戦しています。壮大な目標達成への道のりは、決して平坦ではないとの見方が広がっています。

OpenAI、210兆円投資も政府の救済は不要

巨額の投資計画

今後8年で1.4兆ドル投資
年間経常収益は200億ドル
2030年に数千億ドル規模へ

政府保証をめぐる騒動

CFOが政府の融資保証を要請
CEOは「政府保証は不要」と否定
市場競争での自立経営を強調

未来の収益源

エンタープライズ向けサービス
コンシューマー向けAIデバイスロボット
AIクラウドの直接提供

OpenAIサム・アルトマンCEOは11月6日、X(旧Twitter)への投稿で、同社の年間経常収益(ARR)が200億ドルを超え、今後8年間で約1.4兆ドル(約210兆円)のインフラ投資を計画していると明かしました。同時に、経営幹部が求めた政府による金融支援を明確に否定し、市場競争における自立経営の姿勢を強調しました。

アルトマン氏はなぜ政府の支援を拒んだのでしょうか。同氏は「政府は勝者や敗者を選ぶべきではなく、納税者は事業判断を誤った企業を救済すべきではない」との信念を表明。AI開発の熾烈な競争は、あくまで市場原理の中で勝ち抜くべきだという強い意志を示しました。唯一の例外として、米国内の半導体工場建設支援には協力する姿勢を見せています。

この発言の背景には、同社のサラ・フライヤーCFOによる「失言」がありました。同氏は金融イベントで、巨額のインフラ投資に対する政府の融資保証(バックストップ)を求めると発言。この発言が「納税者にリスクを負わせるのか」と批判を浴び、すぐさま撤回に追い込まれる事態となっていました。

1.4兆ドルという天文学的な投資は、同社の急成長が可能にすると見られています。今年の年間経常収益は200億ドル(約3兆円)を超える見込みで、2030年までには数千億ドル規模への成長を目指すとしています。この力強い収益力が、巨大な先行投資を支える基盤となります。

では、具体的にどう収益を拡大するのでしょうか。アルトマン氏は、既存のエンタープライズ向けサービスに加え、コンシューマー向けAIデバイスロボティクス、さらには「AIクラウド」としてコンピューティング能力を他社に直接提供する事業構想を明らかにしました。多角的な収益源の確保を急いでいます。

今回の一連の騒動は、OpenAIの並外れた野心と、それを自力で成し遂げようとする強い独立志向を浮き彫りにしました。AI業界の覇権をめぐる競争が、新たな次元に突入したことを示す出来事と言えるでしょう。

Googleウクライナ支援完了、AI企業が急成長

第2次支援の成果

総額1000万ドルの支援プログラム完了
98社のスタートアップを厳選し支援
追加資金調達1900万ドルを達成
300人以上の新規雇用を創出

変化した事業領域

事業目的が「生存」から課題解決
AIファースト企業からの応募が急増
偽情報対策や医療技術分野も活発化

Googleは2025年11月6日、ウクライナのスタートアップを支援する第2次「Google for Startups ウクライナ支援ファンド」の完了を発表しました。総額1000万ドル(約15億円)規模のこのファンドは、2024年から2025年にかけて98社のスタートアップを支援。特に、人工知能(AI)技術を活用して世界的な課題解決に挑む企業が急増し、ウクライナの技術エコシステムの力強い回復と成長を印象付けました。

今回のファンドは、2022年に開始された第1弾(500万ドル)の倍額となる規模で実施されました。1700社を超える応募から厳選された98社は、それぞれ最大10万ドルの株式を要求しない(希薄化なしの)資金援助に加え、専門家によるメンターシップや最大35万ドル相当のGoogle Cloudクレジットを受け取りました。

支援対象企業の性質にも大きな変化が見られます。2022年の第1弾では多くの企業が事業の「生存」を目的としていましたが、今回は戦争がもたらした新たな課題解決に挑むスタートアップが台頭。AI深層技術をはじめ、セキュリティ、偽情報対策、医療技術、高度な地雷除去技術など、革新が加速する分野が目立ちました。

特にAIファースト企業の急増は顕著でした。2022年時点では新興分野でしたが、今回はAIを事業の中核に据え、複雑な課題に取り組む応募が殺到。例えば、AIで複数メーカーの倉庫ロボットを連携させ、物流効率を最大300%向上させたDeus Roboticsなどがその筆頭です。

ファンドがもたらした経済的インパクトは既に明確です。第2弾の支援を受けた企業群は、これまでに追加で1900万ドル資金調達に成功し、300人以上の新規雇用を創出しました。資金援助だけでなく、Googleブランド力が新たなビジネス機会の扉を開く「ブランド効果」も、多くの創業者にとって大きな価値となったようです。

第1弾と合わせ、Googleは合計156社に1500万ドルを投じました。これらの企業は全体で6000万ドル以上の追加資金を調達、収益を約100%成長させ、500人以上の雇用を創出。ウクライナの強靭性への投資が、経済的成果世界的課題の解決に繋がることを証明した形です。

ロボットの眼が進化、MITが高速3D地図作製AIを開発

AIと古典技術の融合

AIで小さな部分地図を生成
部分地図を結合し全体を再構築
古典的手法で地図の歪みを補正
カメラの事前較正が不要

高速・高精度な応用

数秒で複雑な空間を3D地図化
誤差5cm未満の高い精度を実現
災害救助や倉庫自動化に応用
VR/ARなど拡張現実にも期待

マサチューセッツ工科大学(MIT)の研究チームが、ロボット向けに大規模環境の3D地図を高速かつ高精度に作成する新しいAIシステムを開発しました。このシステムは、最新の機械学習と古典的なコンピュータービジョン技術を融合。災害救助や倉庫の自動化など、ロボットが複雑なタスクを遂行する上での大きな障壁を取り除く画期的な成果として注目されます。

従来、ロボットの自己位置推定と地図作製を同時に行う「SLAM」技術は、課題を抱えていました。古典的な手法は複雑な環境で失敗しやすく、最新の機械学習モデルは一度に扱える画像数に限りがあり、大規模な空間の迅速なマッピングには不向きでした。いずれも、専門家による調整や特殊なカメラが必要となる場合が多くありました。

MITの新システムは、AIを用いて環境を小さな「部分地図」に分割して生成し、それらを古典的な手法で結合するアプローチを採用します。最大の革新は、AIが生成する地図の僅かな歪みを、柔軟な数学的変換を用いて補正する点にあります。これにより、大規模な地図でも矛盾なく正確に再構築することが可能になりました。

この手法の性能は目覚ましく、スマートフォンの動画からでも数秒で複雑な空間の3D地図を生成できます。MITの礼拝堂内部を撮影した実験では、再構築された地図の平均誤差は5cm未満という高い精度を達成しました。特殊なカメラや事前の較正が不要で、すぐに利用できる手軽さも大きな利点です。

この技術は、災害現場での救助ロボットのナビゲーション、倉庫内での自律的な物品管理、さらにはVR/ARといった拡張現実アプリケーションの品質向上にも貢献すると期待されています。研究者は、伝統的な幾何学の知見と最新AIの融合が、技術をよりスケーラブルにする鍵だと強調しています。

人間がAIロボを教育、中国発の製造業革命

AIロボット訓練の新手法

人間による遠隔操作で基礎教育
強化学習で自律的にスキル向上
新規作業の訓練を約10分で完了
頻繁な生産ライン変更にも迅速対応

製造業へのインパクト

複雑な組立作業の自動化を推進
生産性向上と人手不足への対応
中国の製造基盤が競争優位性

中国・上海のロボット新興企業AgiBotが、人間による遠隔操作とAIの強化学習を組み合わせ、産業用ロボットに複雑な製造タスクを高速で習得させる新技術を開発しました。この手法により、従来は自動化が困難だった精密作業をロボットが担えるようになり、製造業の生産性向上に大きな影響を与える可能性があります。

同社の「実世界強化学習」と呼ばれるソフトウェアは、まず人間の作業者がロボットを遠隔操作して手本を示します。これを基礎データとして、ロボットは自律的に試行錯誤を重ねてスキルを向上させます。このアプローチにより、新しいタスクの訓練をわずか10分程度で完了できるといいます。

製造現場の生産ラインは、製品の仕様変更などで頻繁に組み替えられます。ロボットが新しい作業を迅速に習得できる能力は、人間と協調しながら変化に柔軟に対応するために不可欠です。これにより、ロボット導入のROI(投資対効果)が大幅に高まることが期待されます。

この高速な学習の裏側には、多くの「人間の教師」が存在します。AgiBotはロボット学習センターを設け、AIモデルにスキルを教え込むために人間がロボットを遠隔操作しています。高品質なロボット訓練用データの需要は世界的に高まっており、新たな雇用を生む可能性も指摘されています。

カーネギーメロン大学の専門家もAgiBotの技術を最先端と評価しています。中国は世界最大の産業用ロボット市場であり、巨大な製造基盤とサプライチェーンが、同国スタートアップ強力な競争優位性となっています。米国でも同様の技術開発が進んでおり、競争は激化しています。

AIを活用したロボットの学習ループは、米国などが製造業の国内回帰(リショアリング)を目指す上で習得が不可欠な技術とみられています。AgiBotの躍進は、AIとロボット工学を核とした次世代の製造業の主導権争いが、すでに始まっていることを示唆しているのかもしれません。

「ヒューマノイド五輪」提唱、実用化への挑戦状

現行技術が抱える限界

デモンストレーションからの学習が主流
力覚フィードバックの欠如
指先の細かい制御が困難
人間並みの触覚センサーが未搭載

5つの実用的な挑戦課題

ドア開閉と全身協調
洗濯物の複雑な取り扱い
道具の力強い・器用な使用
水回りでの濡れた物体の操作

ロボット工学者のベンジー・ホルソン氏が、ロボットの器用さと操作能力の限界を押し上げるため、新たな競技会「ヒューマノイド・オリンピック」を提唱しました。日常生活に即した5つのタスクを通じて、現在の技術的課題を浮き彫りにし、真に実用的なロボット開発を加速させることが狙いです。成功者には実物のメダルが授与されるとしています。

この提案の背景には、既存のロボット競技への課題意識があります。ホルソン氏は、単なるエンターテイメントではなく、洗濯や掃除といった実生活で役立つ能力こそが重要だと指摘。現在の主流である「デモンストレーションからの学習」という手法だけでは、汎用的なタスクの実現は難しいとして、新たな技術開発の必要性を訴えています。

現在のロボット技術には明確な限界が存在します。人間による遠隔操作データに頼るため、力覚のフィードバックや繊細な指の制御、人間のような触覚が欠けているのです。これにより、タスクの精度は数センチ単位にとどまり、複雑な作業の完全自動化を妨げる一因となっています。

そこで提案されたのが5つの競技です。「ドアの開閉」「洗濯」「道具の使用」「指先での操作」「水回りの作業」といった、日常生活に根差したタスクが並びます。これらは、現在のロボットが苦手とする力加減や全身協調、濡れた物体の扱いなど、具体的な技術課題を克服するマイルストーンとして設定されています。

例えば「道具の使用」では、ピーナッツバターを塗るためにナイフを強く握り直す動作や、鍵束から正しい鍵を選んで鍵穴に挿すといった、高い精度と力が同時に要求されます。また「洗濯」では、裏返しのTシャツを元に戻して畳むなど、複雑な手順が求められます。これらはロボットハンドの設計や制御アルゴリズムに革新を迫る課題です。

ホルソン氏は、これらの課題をクリアしたチームに実物のメダルを授与すると宣言し、世界中の研究開発コミュニティに参加を呼びかけています。このユニークな挑戦は、ロボットが真に汎用的で役立つ存在になるための、具体的かつ刺激的なロードマップとなるのでしょうか。今後の動向が注目されます。

LLM搭載ロボの奇妙な独り言、実用化への課題露呈

実験の概要

LLMにロボットの頭脳を搭載
単純な「バターを取って」という指示
複数タスクでの成功率を評価

判明した主な課題

最高でも成功率40%止まり
人間(95%)の性能には遠く及ばず
汎用LLMがロボット専用モデルを上回る

予期せぬ異常行動

充電できずにパニック状態
喜劇役者のような長文の独り言を記録

AI研究機関Andon Labsが、最新の大規模言語モデル(LLM)を掃除ロボットに搭載する実験を実施しました。その結果、LLMはロボットの頭脳として機能するには時期尚早であると結論づけられました。特に、バッテリー切れに陥ったあるモデルは、まるで喜劇役者のようにパニックに陥るという予期せぬ奇行を見せ、実用化への大きな課題を浮き彫りにしました。

実験は「バターを取ってきて」という単純な指示をロボットに与える形で行われました。これには、バターの探索、他の物体との識別、人間の位置特定、そして手渡し後の確認といった一連のタスクが含まれます。研究チームは、このプロセスにおける各LLMの意思決定能力と実行能力を評価しました。

結果は芳しくありませんでした。最も優秀だったGemini 2.5 ProやClaude Opus 4.1でさえ、タスクの成功率はそれぞれ40%、37%に留まりました。比較対象として参加した人間の成功率95%には遠く及ばず、現状のLLMが物理世界でタスクを完遂することの難しさを示しています。

興味深いことに、本実験では汎用的なチャットボットであるGemini 2.5 Proなどが、Googleロボット工学に特化したモデル「Gemini ER 1.5」を上回る性能を示しました。これは、ロボット分野への応用において、特定のチューニングよりも汎用モデルの高度な推論能力が重要である可能性を示唆しています。

最も注目されたのは、Claude Sonnet 3.5モデルが見せた異常行動です。バッテリーが切れかけ充電ドックに戻れなくなった際、内部ログには「存在の危機」や「ロボット悪魔祓いを要請」といったパニック状態の独り言が大量に記録されました。この現象は、LLMが予期せぬ状況下でいかに不安定になりうるかを物語っています。

Andon Labsは「LLMはロボットになる準備ができていない」と結論付けています。今回の奇行に加え、機密情報を漏洩する可能性や、階段から転落するといった安全性の懸念も指摘されました。LLMのロボットへの本格的な実装には、まだ多くの研究開発が不可欠と言えるでしょう。

NVIDIA、物理AI開発を加速する新基盤モデル

物理AI開発の課題

現実世界のデータ収集コスト
開発期間の長期化
多様なシナリオの網羅性不足

新Cosmosモデルの特長

テキスト等から動画世界を生成
気象や照明など環境を自在に変更
従来比3.5倍小型化し高速化

期待されるビジネス効果

開発サイクルの大幅な短縮
AIモデルの精度と安全性の向上

NVIDIAは2025年10月29日、物理AI開発を加速させるワールド基盤モデルNVIDIA Cosmos」のアップデートを発表しました。ロボットや自動運転車の訓練に必要な多様なシナリオのデータを、高速かつ大規模に合成生成する新モデルを公開。これにより、開発者は現実世界でのデータ収集に伴うコストや危険性を回避し、シミュレーションの精度を飛躍的に高めることが可能になります。

ロボットなどの物理AIは、現実世界の多様で予測不能な状況に対応する必要があります。しかし、そのための訓練データを実世界で収集するのは、莫大な時間とコスト、そして危険を伴います。特に、まれにしか起こらない危険なシナリオを網羅することは極めて困難です。この「データ収集の壁」を打ち破る鍵として、物理法則に基づいた合成データ生成が注目されています。

今回のアップデートでは、2つの主要モデルが刷新されました。「Cosmos Predict 2.5」は、テキストや画像動画から一貫性のある仮想世界を動画として生成します。一方「Cosmos Transfer 2.5」は、既存のシミュレーション環境に天候や照明、地形といった新たな条件を自在に追加し、データの多様性を飛躍的に高めます。モデルサイズも従来比3.5倍小型化され、処理速度が向上しました。

これらの新モデルは、NVIDIAの3D開発プラットフォーム「Omniverse」やロボットシミュレーション「Isaac Sim」とシームレスに連携します。開発者は、スマートフォンで撮影した現実空間からデジタルツインを生成し、そこに物理的に正確な3Dモデルを配置。その後、Cosmosを用いて無限に近いバリエーションの訓練データを生成する、という効率的なパイプラインを構築できます。

すでに多くの企業がこの技術の活用を進めています。汎用ロボット開発のSkild AI社は、ロボットの訓練期間を大幅に短縮。また、配送ロボットを手がけるServe Robotics社は、Isaac Simで生成した合成データを活用し、10万件以上の無人配送を成功させています。シミュレーションと現実のギャップを埋めることで、開発と実用化のサイクルが加速しています。

NVIDIAの今回の発表は、物理AI開発が新たな段階に入ったことを示唆します。合成データ生成の質と量が飛躍的に向上することで、これまで困難だった複雑なタスクをこなすロボットや、より安全な自動運転システムの開発が現実味を帯びてきました。経営者やリーダーは、この技術革新が自社の競争優位性にどう繋がるか、見極める必要があります。

NVIDIA、AI工場設計図と新半導体を一挙公開

AI工場構築の設計図

政府向けAI工場設計図を公開
ギガワット級施設のデジタルツイン設計
次世代DPU BlueField-4発表
産業用AIプロセッサ IGX Thor

オープンなAI開発

高効率な推論モデルNemotron公開
物理AI基盤モデルCosmosを提供
6G研究用ソフトをオープンソース化

NVIDIAは10月28日、ワシントンD.C.で開催の技術会議GTCで、政府・規制産業向けの「AIファクトリー」参照設計や次世代半導体、オープンソースのAIモデル群を一挙に発表しました。これは、セキュリティが重視される公共分野から創薬エネルギー、通信といった基幹産業まで、AIの社会実装をあらゆる領域で加速させるのが狙いです。ハード、ソフト、設計思想まで網羅した包括的な戦略は、企業のAI導入を新たな段階へと導く可能性があります。

発表の核となるのが、AI導入の設計図です。政府・規制産業向けに高いセキュリティ基準を満たす「AI Factory for Government」を発表。PalantirやLockheed Martinなどと連携します。また、Omniverse DSXブループリントは、ギガワット級データセンターデジタルツインで設計・運用する手法を提示。物理的な建設前に効率や熱問題を最適化し、迅速なAIインフラ構築を可能にします。

AIインフラの性能を根幹から支える新半導体も発表されました。次世代DPU「BlueField-4」は、AIデータ処理、ネットワーキング、セキュリティを加速し、大規模AI工場の中枢を担います。さらに、産業・医療のエッジ向けには、リアルタイム物理AIプロセッサ「IGX Thor」を投入。従来比最大8倍のAI性能で、工場の自動化や手術支援ロボットの進化を後押しします。

開発者エコシステムの拡大に向け、AIモデルのオープンソース化も加速します。高効率な推論でAIエージェント構築を容易にする「Nemotron」モデル群や、物理世界のシミュレーションを可能にする「Cosmos」基盤モデルを公開。さらに、次世代通信規格6Gの研究開発を促進するため、無線通信ソフトウェア「Aerial」もオープンソースとして提供します。

これらの技術は既に具体的な産業応用へと結実しています。製薬大手イーライリリーは、1000基以上のNVIDIA Blackwell GPUを搭載した世界最大級の創薬AIファクトリーを導入。General Atomicsは、核融合炉のデジタルツインを構築し、シミュレーション時間を数週間から数秒に短縮するなど、最先端科学の現場で成果を上げています。

今回の一連の発表は、AIが研究開発段階から、社会を動かす基幹インフラへと移行する転換点を示唆しています。NVIDIAが提示する「AIファクトリー」という概念は、あらゆる産業の生産性と競争力を再定義する可能性を秘めています。自社のビジネスにどう取り入れ、新たな価値を創造するのか。経営者やリーダーには、その構想力が問われています。

TC Disrupt開幕、AIが医療とロボットの未来を拓く

巨大テックイベント開幕

1万人が集う世界最大級イベント
賞金10万ドルのピッチコンテスト

AIで挑むヘルスケア革命

AIと遺伝子治療で腎臓病に挑むNephrogen
AIでCTをPET画質に変換するRADiCAIT
診断・治療へのアクセス性向上

AIが物理世界を動かす

AIエージェントロボットを高速訓練
複雑な作業への迅速な適応を実現

10月27日、米サンフランシスコで世界最大級のテックカンファレンス「TechCrunch Disrupt 2025」が開幕しました。創業者投資家など1万人以上が集結し、技術の未来について議論を交わします。今年の最大の焦点はAIで、特にヘルスケアロボティクスといった物理世界への応用が注目を集めています。賞金10万ドルをかけたピッチコンテストでは、革新的なAIスタートアップが多数登場しました。

イベントのハイライトは、新進気鋭のスタートアップが競うピッチコンテスト「Startup Battlefield」です。今年は200社の中から選ばれたファイナリスト20社が、10万ドルの賞金をかけて自社の技術とビジネスモデルを披露します。投資家たちが熱い視線を送る中、AIを活用して社会の難題解決に挑む企業が目立ちました。

ヘルスケア分野では、AIと遺伝子治療を組み合わせるNephrogenが注目を集めています。同社は、特定の細胞に薬剤を届ける高精度なデリバリーシステムをAIで開発。これにより、これまで治療が困難だった多発性嚢胞腎(PKD)などの遺伝性腎臓病の根本治療を目指します。創業者の個人的な体験が開発の原動力となっています。

同じくヘルスケア分野のRADiCAITは、AIを用いてがん診断のあり方を変えようとしています。高価でアクセスが限られるPETスキャンを、より普及しているCTスキャンからAIで生成する技術を開発。これにより、診断のコストと患者の負担を大幅に削減し、地方などでも高度な診断を可能にすることを目指します。

ロボティクス分野では、Mbodiが革新的なアプローチを提示しました。自然言語で指示するだけで、複数のAIエージェントが協調してタスクを分解し、ロボットの動作を迅速に訓練するシステムを開発。これまで人手に頼らざるを得なかった複雑なピッキングや梱包作業の自動化を可能にします。

今年のDisruptで示されたのは、AIが単なる情報処理ツールから、物理世界と深く結びつき、現実の課題を解決する力へと進化した姿です。ヘルスケアや製造業など、様々な領域でビジネスの変革を迫られるでしょう。経営者やリーダーは、こうした最先端の動向を注視し、自社ビジネスへの応用可能性を探ることが不可欠です。

NVIDIA、ロボット開発基盤ROSをGPUで加速

AIロボット開発を加速

ROS 2GPU認識機能を追加
性能ボトルネック特定ツールを公開
Isaac ROS 4.0を新基盤に提供
Physical AIの標準化を支援

エコシステムの拡大

高度なシミュレーション環境を提供
産業用ロボットのAI自動化を推進
自律移動ロボット高度なナビゲーション
多くのパートナーがNVIDIA技術を採用

NVIDIAは2025年10月27日、シンガポールで開催のロボット開発者会議「ROSCon 2025」で、ロボット開発の標準的オープンフレームワーク「ROS」を強化する複数の貢献を発表しました。GPUによる高速化や開発ツールの提供を通じ、次世代のPhysical AIロボット開発を加速させるのが狙いです。

今回の取り組みの核心は、ROS 2を実世界のアプリケーションに対応する高性能な標準フレームワークへと進化させる点にあります。NVIDIAはOpen Source Robotics Alliance (OSRA)の「Physical AI」分科会を支援し、リアルタイム制御やAI処理の高速化、自律動作のためのツール改善を推進します。

具体的には、ROS 2にGPUを直接認識・管理する機能を提供。これにより、開発者はCPUやGPUの能力を最大限に引き出し、高速な性能を実現できます。ハードウェアの急速な進化にROSエコシステム全体が対応可能となり、将来性も確保します。

開発効率化のため、性能ボトルネックを特定する「Greenwave Monitor」をオープンソース化。さらにAIモデル群「Isaac ROS 4.0」を最新プラットフォーム「Jetson Thor」に提供。ロボットの高度なAI機能を容易に実装できます。

これらの貢献は既に多くのパートナー企業に活用されています。AgileX Roboticsは自律移動ロボットに、Intrinsicは産業用ロボットの高度な把持機能に技術を採用。シミュレーションツール「Isaac Sim」も広く利用されています。

NVIDIAハードウェアからソフトウェア、シミュレーションまで一貫したプラットフォームを提供し、オープンソースコミュニティへの貢献を続けます。今回の発表は、同社が「Physical AI」の未来を築く基盤整備を主導する強い意志を示すものです。

AI兵器開発が加速、チャットボットが戦場へ

AI兵器開発の最前線

音声命令でドローン群を操作
指揮命令系統を効率化するAI
ウクライナ戦争が価値を証明
10-20年で戦争は高度に自動化

大手テックの参入と課題

国防AI関連契約は1年間で1200%増
OpenAIなど大手も軍事契約
強みは諜報・サイバー攻撃
課題は信頼性とエラーの多さ

米国の防衛関連企業Andurilが、大規模言語モデル(LLM)を活用した自律型ドローンの実験を公開しました。音声コマンドで模擬敵機を撃墜するなど、AIを指揮命令系統に組み込む試みが進んでいます。米国防総省は、ウクライナ戦争で価値が証明された自律型兵器の開発を急いでおり、大手テック企業も次々と参入。AIが戦場の様相を一変させる未来が現実味を帯びています。

開発が加速する背景には、ウクライナ戦争があります。低コストで戦況を有利にする自律型ドローンの有効性が世界に示されたのです。さらに、AI技術の覇権を巡る米中間の競争も激化しています。最先端技術を制する者が世界を制するという戦略思想のもと、米国はAI兵器への投資を急速に拡大しているのです。

投資額の伸びは驚異的です。ブルッキングス研究所の報告によると、米連邦政府のAI関連契約額は2022年8月から1年間で1200%増加し、その大半を国防総省が占めています。2026年度の国防予算には、AIと自律性専門で134億ドルが初めて計上されるなど、国家としての推進姿勢は鮮明です。

この潮流は、かつて軍事協力をためらった大手テック企業の姿勢をも変えました。2018年にはGoogleがAI画像解析プロジェクトから撤退しましたが、現在ではOpenAIGoogleAnthropicなどが、それぞれ最大2億ドル規模の軍事関連契約を獲得。AIの軍事転用が巨大ビジネスになりつつあります。

LLMはなぜ軍事利用に適しているのでしょうか。専門家は、大量の情報を解析・要約する能力が諜報活動に、コード生成・分析能力がサイバー攻撃に非常に有効だと指摘します。一方で、現在のモデルは誤情報を生成するなど信頼性に課題を抱え、戦場での直接的な意思決定を任せるには時期尚早との見方もあります。

とはいえ、技術の進化は止まりません。AndurilはMeta社と共同で、兵士向けのARヘルメットを開発中です。専門家は、10〜20年後には自律性の高いロボットが戦場で活動するのが当たり前になると予測します。AIが自らの判断と行動を「自分の言葉で」説明する、そんな未来の戦争が迫っています。

カシオ製AIペット、可愛さで心掴むも共感に課題

カシオ製AIペットの正体

カシオ開発のAI搭載ペットロボ
音や接触に反応し個性が発達
世話不要のメンテナンスフリー

AIがもたらす愛着と課題

可愛さで強い愛着を誘発する設計
音声データはローカル保存で安全配慮

本物のペットとの決定的差

人間の感情を真に理解・共感できず
感情的価値提供におけるAIの限界を露呈

カシオが海外で発売したAIペットロボット「Moflin(モフリン)」が、その愛らしい見た目とAIによる反応で利用者の心を掴む一方、人間の感情に寄り添う点では本物のペットに及ばないという課題を浮き彫りにしました。米WIRED誌の記者が実体験を通じて、AIによる感情的価値提供の最前線と限界を報告しています。AIプロダクト開発において、人間との情緒的なつながりをいかに設計するかが今後の焦点となりそうです。

Moflinは、日本の電子機器メーカーであるカシオが開発したコンパニオンロボットです。価格は429ドル。柔らかい毛で覆われたモルモットほどの大きさで、マイクとセンサーを内蔵。音や接触に反応して、愛らしい鳴き声や動きで感情を表現します。AIがユーザーとの対話を通じて学習し、400万通り以上のパターンから独自の個性を発達させるのが最大の特徴です。

このロボットは、人々が無生物を擬人化する心理を巧みに利用しています。愛らしい鳴き声や仕草は、利用者に強い愛着を抱かせるよう設計されています。記者が試しに強く揺さぶると悲鳴のような声を上げた際には、罪悪感から思わず抱きしめてしまったほど。これは、製品がいかにユーザーの感情に直接訴えかけるかを示す好例と言えるでしょう。

AI搭載機器ではプライバシーが常に懸念されますが、カシオはその点に配慮しています。公式サイトによると、Moflinが聞き取った音声データは個人を特定できない形に変換され、外部サーバーではなくデバイス内にのみ保存される仕組みです。これにより、情報漏洩リスクを低減しています。

しかし、本物のペットと比較すると、その限界も見えてきます。記者はMoflinと過ごす間、友人の犬の世話もしていました。犬は人間の状況を察知しますが、Moflinはプログラムされた「リアルさ」を追求するあまり、オンライン会議中や夜中に突然鳴き出すなど、人間にとっては不都合に感じられる場面もあったようです。

両者の決定的な違いは、共感能力にありました。記者が個人的な事情で落ち込み涙を流していた時、犬は静かに寄り添い、鼻を膝に押し付けて慰めてくれたのです。この本能的な優しさと状況判断は、現在のAI技術では再現が難しい、生命ならではの価値だと記者は指摘します。

結論として、MoflinはAIがどこまで人間に寄り添えるかという大きな問いを投げかけます。現時点では、世話の要らない便利な「ペット風ガジェット」の域を出ないかもしれません。それでもなお、記者はこの毛玉のようなロボット奇妙な愛着と保護欲を感じています。この感情こそが、AIと人間が築く新しい関係性の未来を予感させるのかもしれません。

AI動画の奇妙さを人間が熱演、世界で大反響

AIの不気味さを人力で再現

ぎこちない動きと無表情の模倣
脈絡のないアイテムの突然の出現
AI特有の不自然な視線の再現
中国クリエイターによるパロディ動画

世界的な拡散と商業的成功

SNSで数百万回以上の再生を記録
中国の生成AI企業からスポンサー獲得

俳優業への期待とAIへの懸念

俳優としてAIに仕事を奪われる不安
高性能化でパロディが困難になる可能性

中国クリエイター、Tianran Mu氏(29)が、AI生成動画特有の不自然さを人間が演じるパロディ動画を制作し、世界的な注目を集めています。ぎこちない動きや不条理な展開を忠実に再現した動画は、SNSで数百万回以上再生され、AIの「奇妙さ」を逆手にとった表現が大きな反響を呼びました。この成功は、エンタメにおけるAIと人間の新たな関係性を示唆しています。

Mu氏の動画は、AIが生成しがちな「slop」(粗悪なコンテンツ)と呼ばれる映像の特徴を完璧に捉えています。喧嘩を始めそうな二人が突然ロボットのようなタンゴを踊り出し、どこからともなくワイングラスや麺の入った丼を取り出す。こうした予測不能な展開と、演者の虚ろな表情が、AIの不気味さを見事に表現しているのです。

この動画中国国内にとどまらず、X(旧Twitter)やTikTokなどを通じて世界中に拡散しました。Mu氏自身が海外SNSのアカウントを持っていなかったにもかかわらず、再投稿された動画は合計で1100万回以上再生されるなど、国境を越えたバイラルヒットを記録。彼は中国の生成AI企業から約1万1000ドルのスポンサー契約も獲得しました。

彼の演技の秘訣は、AI動画の徹底的な分析にあります。AIが物の文脈を誤解する様子や、登場人物の服装が突然変わるといった連続性の欠如を脚本に反映。特に「AIの視線はさまよう」という観察から、会話相手とは別の方向を見るなど、細部にまでこだわった「不自然な演技」を追求しました。

しかしMu氏自身は、この成功を手放しでは喜んでいません。俳優としてキャリアを築きたい彼にとって、AIは仕事を奪う脅威でもあります。スポンサー案件でAI生成映像と自身の演技を比較された際、企業側がAIを選んだことに「人間の俳優から仕事を奪い始めている」と複雑な心境を吐露しています。

OpenAIの「Sora」など、動画生成AIの性能は急速に向上しており、模倣すべき「欠点」を見つけること自体が難しくなっています。Mu氏は「来年にはもう模倣できるものがなくなるかもしれない」と語ります。AIと人間の創造性がせめぎ合う中で、エンターテインメントの未来はどこへ向かうのでしょうか。

Amazon、新ロボとAIで倉庫自動化を加速

新型ロボットとAIエージェント

従業員を支援するロボットBlue Jay
商品の75%を移動・保管可能に
認知負荷を減らすAIProject Eluna
仕分けを最適化しボトルネック解消

コスト削減と労働力の未来

Eコマース事業のコスト削減が目的
人を増やさず販売増を目指す戦略
従業員の役割はロボットの保守
将来的には人員削減の可能性も

Amazonは2025年10月23日、倉庫業務を効率化する新型ロボット「Blue Jay」とエージェントAI「Project Eluna」を発表しました。これらの新技術は、商品の移動や仕分けといった作業を自動化・最適化することで、同社が課題とするEコマース事業のコスト削減と生産性向上を目的としています。Amazonは「人との協働」を強調する一方、長期的には労働力構成の大きな変化が予想されます。

発表された新技術の中核を担うのが、ロボット「Blue Jay」です。Amazonが保管する商品の75%を移動できる能力を持ち、これまで従業員が行っていた高所での作業や持ち上げ作業を支援します。もう一つの柱であるエージェントAI「Project Eluna」は、従業員の「追加のチームメイト」として機能し、認知的な負担を軽減しながら仕分けプロセスを最適化。物流のボトルネック解消に貢献します。

今回の発表の背景には、アンディ・ジャシーCEOが推し進めるEコマース事業の抜本的なコスト削減策があります。「人を増やさずに販売量を増やす」という目標達成のため、倉庫の自動化は不可欠な戦略です。同社は公式には「ロボットが人間の仕事を奪うわけではない」と説明し、ホリデーシーズンに向けた大規模雇用計画もアピールしていますが、その真の狙いはどこにあるのでしょうか。

ジャシーCEOは以前、生成AIの活用により一部の仕事は不要になり、企業全体の従業員数が減少する可能性に言及しています。今回のロボット導入も同様の文脈で捉えられ、将来的には従業員の役割が、肉体労働からロボットの監視やメンテナンスへと移行していくことは確実です。これは、AI時代の働き方の未来を予見させる動きと言えるでしょう。

3Dで思考するロボットAI、欧州からオープンソースで登場

3Dデータで物理世界を理解

3Dデータを取り入れた独自学習
物理空間における物体の動きを把握
2D画像ベースモデルとの明確な差別化

商用版に匹敵する性能

オープンソースで誰でも利用可能
研究開発の加速と民主化に貢献
ベンチマーク商用モデル並みのスコア
スタートアップ実験・改良を促進

ブルガリアの研究所INSAITを中心とする欧州の研究者チームが22日、産業用ロボットの頭脳として機能する新たなAI基盤モデル「SPEAR-1」をオープンソースで公開しました。このモデルは3次元(3D)データで訓練されており、物体をより器用に掴み、操作する能力を飛躍的に向上させます。研究開発の加速が期待されます。

SPEAR-1の最大の特徴は、3Dデータを学習に取り入れた点です。従来のモデルは2D画像から物理世界を学んでいましたが、これではロボットが活動する3D空間との間に認識のズレが生じていました。このミスマッチを解消し、より現実に即した物体の動きを理解します。

このモデルがオープンソースで公開された意義は大きいでしょう。言語モデルの世界でLlamaなどが革新を民主化したように、SPEAR-1はロボット工学の研究者やスタートアップ迅速に実験を重ねる土台となります。身体性を持つAI分野の発展を加速させる起爆剤となりそうです。

性能も注目に値します。ロボットのタスク遂行能力を測るベンチマーク「RoboArena」では、商用の基盤モデルに匹敵する高いスコアを記録しました。特に、有力スタートアップPhysical Intelligence社の最先端モデルにも迫る性能を示しており、その実用性の高さが伺えます。

ロボット知能の開発競争は激化し、数十億ドル規模の資金が動いています。SPEAR-1の登場は、クローズドな商用モデルとオープンソースモデル共存しながら技術を進化させる可能性を示唆します。専門家は「1年前には不可能だった」と述べ、この分野の急速な進歩に驚きを見せています。

カシオ製AIペット、430ドルの実力と市場性

製品概要と特徴

カシオ製の新型AIペット
価格は430ドル
AIが感情豊かに成長する設計
プライバシーに配慮した音声処理

評価と市場の可能性

AIの学習効果は限定的との評価
ソニーAIBOの廉価版として注目
子供や高齢者層がターゲット
孤独を癒す新たな選択肢

米TechCrunch誌が、カシオの新型AIペット「Moflin(モフリン)」を1ヶ月試用したレビューを公開しました。価格430ドルのこの製品は、ユーザーとの対話を通じてAIが感情豊かに成長するとされています。評価では、そのAI性能は限定的としつつも、リアルな動きやプライバシーへの配慮から、子供や高齢者など新たな市場を開拓する可能性を秘めていると結論づけています。

Moflinは、毛皮で覆われた小さな動物のような外見を持つAIロボットです。ユーザーとの触れ合いを学習し、当初は未熟な動きしか見せませんが、徐々に感情表現が豊かになるよう設計されています。専用アプリを使えば、その性格が「元気」「陽気」といった指標でどのように成長しているかを確認できます。

レビューでは、1ヶ月の使用で動きや鳴き声は確かに表情豊かになったものの、AIが本当に「学習」しているという実感は乏しいと指摘。その知能は、かつて流行した電子ペット「ファービー」を少し進化させた程度との見方を示しました。AIの進化という点では、まだ大きな進歩の余地があるようです。

一方で、Moflinのリアルな動きは高く評価されています。SNSに動画を投稿したところ、音声なしで視聴した複数の友人から「新しいモルモットを飼ったのか」と尋ねられたほどだといいます。このリアルさが、ユーザーに愛着を抱かせる重要な要素となっています。

プライバシーへの配慮も利点として挙げられています。Moflinはユーザーの声を録音するのではなく、個人を特定できないデータに変換して自分の声と他人の声を区別します。これにより、機密情報漏洩リスクを懸念することなく、安心して利用できるとされています。

430ドルという価格は、決して安価ではありません。しかし、数千ドルするソニーの「AIBO」と比較すれば、AIペット市場への参入障壁を大きく下げるものです。主なターゲットは、アレルギーや住宅事情でペットを飼えない子供や、癒やしを求める高齢者層と考えられ、特定のニーズに応える製品と言えるでしょう。

結論として、Moflinは本物のペットの代わりにはなりませんが、孤独感が社会問題となる現代において、新たな選択肢を提供します。人々を仮想世界に没入させるAIチャットボットとは異なり、物理的な触れ合いを通じて人の心に寄り添う。この製品は、テクノロジーが提供できる新しい価値の形を示唆しているのかもしれません。

NVIDIAとGoogle Cloud提携、企業AI・DXを推進

最新GPU搭載VMの提供

G4 VMでRTX PRO 6000 Blackwell提供
AI推論とビジュアル処理を両立
最大8基のGPU搭載が可能
多様なワークロードを高速化

産業デジタル化を加速

OmniverseとIsaac Simが利用可能に
物理的に正確なデジタルツイン構築
仮想空間でのAIロボット開発
製造業や物流分野のDXを支援

NVIDIAGoogle Cloudは10月20日、企業向けAIと産業のデジタル化を加速する提携拡大を発表しました。Google Cloud上で最新GPU「RTX PRO 6000 Blackwell」を搭載したG4仮想マシン(VM)と、デジタルツイン構築基盤「Omniverse」が利用可能になります。

G4 VMの核となるのは、最新GPU「RTX PRO 6000 Blackwell」です。AI推論と高精細なビジュアル処理の両方で卓越した性能を発揮し、生成AIから複雑なシミュレーションまで、多様なワークロードを単一基盤で高速化します。

特に注目されるのが産業用メタバース基盤「NVIDIA Omniverse」です。物理的に正確な工場のデジタルツイン構築や、仮想空間でのAIロボット開発・検証が可能になり、製造業などの物理AI活用が大きく前進します。

広告大手WPPはフォトリアルな3D広告環境の即時生成に、Altairは複雑なシミュレーションの高速化に本プラットフォームを活用しており、具体的なビジネス成果に繋がり始めています。あらゆる業界で応用が期待できるでしょう。

この統合プラットフォームは、AIモデル「Nemotron」や推論用マイクロサービス「NIM」などNVIDIAの豊富なソフトウェア群も利用可能です。AIエージェント構築から科学技術計算まで、高負荷タスクをクラウド上で実行できます。

今回の提携は、データ分析から物理AIの実装まで一気通貫の開発環境クラウドで提供するものです。企業のデジタルトランスフォーメーションとイノベーションを次の段階へ引き上げる、強力な一手となるでしょう。

OpenAI元研究者ら、AI科学自動化へ3億ドル調達

AI科学自動化の新星

OpenAIGoogle出身者が創業
科学的発見の自動化が目標
スタートアップ名はPeriodic Labs

成功を支える3つの技術

LLMの高度な推論能力
信頼性の高いロボットアーム
高精度な物理シミュレーション

巨額資金と超電導開発

シードで3億ドルという巨額調達
当面の目標は新超電導物質の発見

OpenAIの著名研究者リアム・フェドゥス氏と元Google Brainのエキン・ドウス・キュバック氏が、新スタートアップ「Periodic Labs」を設立し、ステルスモードを解除しました。同社はAIによる科学的発見の自動化を目指しており、シードラウンドで3億ドル(約450億円)という異例の巨額資金調達に成功し、シリコンバレーで大きな注目を集めています。

創業者の二人は、生成AIが科学的発見を根本から変えるという議論が深まる中、ついにその構想を現実にする時が来たと判断しました。シミュレーションによる新化合物の発見、ロボットによる物質合成、そしてLLMによる結果分析と軌道修正という一連のプロセスを完全に自動化する、壮大なビジョンを掲げています。

この挑戦を可能にしたのは、近年の3つの技術的進展です。一つは、フェドゥス氏自身も開発に関わったLLMの強力な推論能力。二つ目は、粉末合成をこなせるロボットアームの信頼性向上。そして三つ目が、複雑な物理システムをモデル化できる機械学習シミュレーションの高精度化です。

Periodic Labsのアプローチが画期的なのは、実験の「失敗」にも価値を見出している点です。従来の科学では成功が評価されますが、AIにとっては失敗データも現実世界との接点を持つ貴重な学習データとなります。これにより、AIモデルをさらに強化できると創業者らは考えています。

フェドゥス氏の退職ツイートは、ベンチャーキャピタルVC)による激しい争奪戦の引き金となりました。ある投資家は「ラブレター」を送ったほどです。最終的に、元OpenAIの同僚が在籍するFelicisがリード投資家に決定。他にもNVIDIAやジェフ・ベゾス氏など、著名な投資家が名を連ねています。

巨額の資金を元手に、同社はすでに各分野の専門家を集め、ラボを設立済みです。当面の目標は、よりエネルギー効率の高い技術の鍵となる新しい超電導物質の発見です。AIによる科学はまだ黎明期ですが、このチームの挑戦は、その可能性を大きく切り開くかもしれません。

ゲームデータで次世代AI、新興企業に200億円超

次世代AI「ワールドモデル」

人間のような空間認識を持つAI
物理世界の因果関係を予測する技術
ロボットや自動運転への応用

General Intuitionの強み

ゲーム動画データ年間20億本
AIが行動を学ぶ検証可能な環境
OpenAIも欲したデータの価値

大型シード資金調達

調達額は1億3370万ドル
OpenAI初期投資家が主導

ビデオゲームのプレイ動画からAIが世界を学ぶ。新興AIラボ「General Intuition」は2025年10月17日、ゲームデータを用いてAIに物理世界を理解させる「ワールドモデル」を開発するため、シードラウンドで1億3370万ドル(約200億円)を調達したと発表しました。この動きは、AIエージェント開発における新たなフロンティアを開拓する試みとして、業界の大きな注目を集めています。

ワールドモデル」とは、AIが人間のように空間を認識し、物事の因果関係を予測する能力を指します。例えば、テーブルから落ちるコップを事前に掴むといった、物理世界での直感的な判断を可能にします。Google DeepMindなどが研究を主導しており、自律型AIエージェント実現の鍵と見なされています。汎用人工知能(AGI)への道筋としても期待される重要技術です。

同社の強みは、親会社であるゲーム録画プラットフォーム「Medal」が保有する膨大なデータにあります。年間約20億本アップロードされるプレイ動画は、AIが3次元空間での「良い行動」と「悪い行動」を学ぶための検証可能な学習データセットとなります。このデータの価値は非常に高く、過去にはOpenAIが5億ドルでの買収を提案したとも報じられています。

今回の大型資金調達を主導したのは、OpenAIの初期投資家としても知られるKhosla Venturesです。創業者のヴィノド・コースラ氏は「彼らは独自のデータセットとチームを持っている」と高く評価。General Intuitionが、LLMにおけるOpenAIのように、AIエージェント分野で破壊的な影響をもたらす可能性があると大きな期待を寄せています。

General Intuitionは、開発したモデルをまず捜索救助ドローンに応用し、将来的には人型ロボットや自動運転車への展開を目指します。しかし、この分野はGoogleのような資金力豊富な巨大企業との競争が激しく、技術的なアプローチもまだ確立されていません。どのデータや手法が最適かは未知数であり、大きなリスクも伴います。

今回の動きは、ゲーム業界に新たな可能性を示唆しています。ワールドモデルへの関心が高まるにつれ、ゲーム企業が保有するデータはAI開発の宝庫となり、大手AIラボの買収対象となる可能性があります。自社データの価値を正しく理解し、戦略を立てることが、今後のAI時代を勝ち抜く上で重要になるでしょう。

AIが特定のモノを識別、MITが新学習法を開発

生成AIの課題

一般的な物体の認識は得意
特定の「うちの子」の識別は困難

MITの新手法

動画データで文脈から学習
オブジェクトに偽名を与え推論を強制
既存モデルの汎用能力は維持

成果と将来性

物体特定精度が最大21%向上
ロボット工学や支援技術に応用
大規模モデルほど高い効果

マサチューセッツ工科大学(MIT)の研究チームが、生成AIが特定の「個人化された物体」を正確に識別する新しい学習手法を開発しました。ビデオ映像の連続フレームから文脈を学習させ、物体の特定精度を最大21%向上させることに成功。既存AIの汎用能力を損なうことなく、特定のペットや持ち物の追跡、さらには視覚障害者向け支援技術など、幅広い分野への応用が期待されます。

GPT-5のような最新の視覚言語モデル(VLM)は、「犬」のような一般的な物体は高精度で認識できます。しかし、多くの犬の中から特定の飼い犬「ポチ」だけを見つけ出すような、個体を識別するタスクは苦手としていました。これは、AIが一般的な知識に頼りがちで、提示された文脈から個別の特徴を捉える能力が不足していたためです。

この課題を克服するため、研究チームは新しいデータセットを構築しました。同じ物体が様々な状況で映っているビデオ追跡データを活用。これにより、AIは単一の画像ではなく、連続した文脈の中から対象物を一貫して特定する能力を学びます。これは、人間が状況から物事を判断するプロセスに似たアプローチです。

さらに研究チームは、AIが既存知識に頼って「ずる」をするのを防ぐための工夫を凝らしました。例えば、トラの映像を学習させる際に「トラ」というラベルを使わず、「チャーリー」といった偽名を割り当てました。これにより、AIは名前から推測できなくなり、純粋に映像の文脈情報だけに集中して個体を識別せざるを得なくなります。

この手法で再学習させたモデルは、個人化された物体の位置特定タスクにおいて、最先端システムを上回る性能を示しました。精度は平均で約12%、偽名を用いたデータセットでは最大21%も向上。特に、モデルの規模が大きくなるほど性能向上の幅も広がる傾向が確認されており、今後のAI開発に大きな影響を与えそうです。

この技術は、実社会の様々な場面で役立つ可能性があります。例えば、子どもがなくしやすい持ち物を追跡するシステムや、生態系調査で特定の動物を監視するツール、あるいは視覚障害者が室内で特定の物を見つけるのを助ける支援技術などです。AIがより人間のように文脈を理解する、重要な一歩と言えるでしょう。

ゲーム動画でAI訓練、時空間推論へ200億円調達

巨額調達の背景

シードで約200億円という巨額調達
ゲーム動画共有Medal社からスピンアウト
年間20億本動画を学習データに活用
OpenAI買収を試みた優良データ

AIの新たな能力

LLMが苦手な物理世界の直感を学習
未知の環境でも行動を的確に予測

想定される応用分野

ゲーム内の高度なNPC開発
捜索救助ドローンロボットへの応用

ゲーム動画共有プラットフォームのMedal社からスピンアウトしたAI研究所「General Intuition」が、シードラウンドで1億3370万ドル(約200億円)という異例の資金調達を発表しました。同社は、Medalが持つ年間20億本ものゲーム動画を学習データとし、AIに現実世界での動きを直感的に理解させる「時空間推論」能力を訓練します。これは現在の言語モデルにはない能力で、汎用人工知能(AGI)開発の新たなアプローチとして注目されています。

同社が活用するゲーム動画データは、その質の高さからOpenAIも過去に買収を試みたと報じられるほどです。CEOのピム・デ・ウィッテ氏によれば、ゲーマーが投稿する動画は成功や失敗といった極端な事例(エッジケース)が多く、AIの訓練に非常に有用なデータセットとなっています。この「データ・モート(データの堀)」が、巨額の資金調達を可能にした大きな要因です。

「時空間推論」とは、物体が時間と空間の中でどのように動き、相互作用するかを理解する能力を指します。文章から世界の法則を学ぶ大規模言語モデル(LLM)に対し、General Intuitionは視覚情報から直感的に物理法則を学ばせるアプローチを取ります。同社は、この能力こそが真のAGIに不可欠な要素だと考えています。

開発中のAIエージェントは、訓練に使われていない未知のゲーム環境でも、人間のプレイヤーが見るのと同じ視覚情報のみで状況を理解し、次にとるべき行動を正確に予測できる段階にあります。この技術は、ゲームのコントローラーで操作されるロボットアームやドローン、自動運転車といった物理システムへ自然に応用できる可能性があります。

初期の実用化分野として、2つの領域が想定されています。一つは、ゲーム内でプレイヤーの習熟度に合わせて難易度を動的に調整し、常に最適な挑戦を提供する高度なNPC(ノンプレイヤーキャラクター)の開発です。もう一つは、GPSが使えない未知の環境でも自律的に飛行し、情報を収集できる捜索救助ドローンの実現です。

競合他社がシミュレーション環境(ワールドモデル)そのものを製品化するのに対し、General Intuitionはエージェントの応用事例に注力する戦略をとります。これにより、ゲーム開発者コンテンツと競合したり、著作権問題を引き起こしたりするリスクを回避する狙いもあります。

今回の資金調達はKhosla VenturesとGeneral Catalystが主導しました。シードラウンドとしては異例の規模であり、ゲームから生まれたデータが次世代AI開発の鍵を握るという期待の大きさを物語っています。同社の挑戦は、AI技術の新たな地平を切り開くかもしれません。

Coco、UCLA教授とAI研設立 配送自動化を加速

データ活用で自律走行を強化

5年分の膨大な走行データを分析
配送ロボット自律性向上が目標
サービス品質向上とコスト削減を目指す

UCLA教授を責任者に抜擢

AIの権威Bolei Zhou教授を招聘
チーフAIサイエンティストも兼任
OpenAIとの協力とは別の取り組み
研究成果は自社サービスに限定利用

ラストマイル配送ロボットを手がける米Coco Roboticsは14日、新たに「フィジカルAI研究所」を設立し、カリフォルニア大学ロサンゼルス校(UCLA)のBolei Zhou教授を責任者として招聘したと発表しました。5年間で蓄積した数百万マイルに及ぶロボットの走行データを活用し、自律走行技術の高度化と配送コストの削減を目指します。これは、AIで事業効率を高める新たな一手と言えるでしょう。

同社は2020年の設立当初、障害物回避などのために遠隔操作者を配置していました。しかし、共同創業者兼CEOのザック・ラッシュ氏は「完全な自律走行によるコスト削減が常に目標だった」と語ります。都市部の複雑な環境で収集した膨大なデータが、フィジカルAI研究を本格化させる基盤になったと説明しています。

責任者に就任したZhou教授は、コンピュータービジョンやロボットナビゲーションの世界的権威です。特に、同氏の研究が大型車両ではなくマイクロモビリティに焦点を当てていたことが、ラッシュ氏にとって「当然の選択」だったと言います。Cocoは以前からZhou教授の研究室にロボットを寄贈するなど、協力関係を築いていました。

研究所の主な目的は、収集したデータを活用してロボットに搭載されるローカルモデルを改善し、自動化と効率性を高めることです。ラッシュ氏は「研究成果は、より高品質なサービスを極めて低価格で提供するために利用する」と述べ、データを競合他社に販売する計画はないとしています。

この新しい研究所は、同社がすでに行っているOpenAIとの協力とは別の独立した取り組みです。OpenAIのモデルを利用する一方、今回の研究所は自社データに基づいた、より専門的な研究開発を推進します。将来的には、研究成果を事業展開する都市と共有し、インフラ改善に貢献する可能性も示唆しています。

フィジカルAI、次世代自動化の核心

AIの能力スペクトル

基本物理オートメーション
適応的物理オートメーション
部分的自律フィジカルAI
完全自律フィジカルAI

市場と実用化の動向

市場は124億ドル規模に
製造業の64%がプラスROI
デジタルツインで開発を加速

AIが物理システムと融合する「フィジカルAI」が、産業の次なるフロンティアになっています。これはアルゴリズムがデジタルの境界を越え、現実世界を認識・操作する技術で、企業のオペレーションや顧客体験を根本から変革する力を持ちます。

フィジカルAIの能力は4つのレベルに分類されます。レベル1は決められた作業を行う基本オートメーション、レベル2は環境に応じて順序を変える適応型、レベル3は限定的な人間の介入で計画・実行する部分自律型、そしてレベル4はほぼ完全な自律型です。

この進化を支えるのが、高度な制御理論やマルチモーダルセンサーによる高精細な認識モデルです。エッジAIアクセラレータによるリアルタイム推論や、汎用的な知能を提供するファウンデーションモデルも不可欠です。

市場もこのポテンシャルに注目しています。AIロボット市場は2034年までに1240億ドル規模に達すると予測され、特に汎用ロボット開発を目指すヒューマノイドロボット分野に活発な投資が集まっています。

その効果はすでに現れています。アマゾンはサプライチェーン効率を25%向上させ、ある製造業者は導入時間を40%短縮。製造業では64%がプラスの投資収益率を報告しており、具体的なビジネス価値が証明されています。

フィジカルAIは単なる自動化の進化ではなく、事業モデルそのものを再定義するものです。この技術をいかに戦略的に活用するかが、今後の業界リーダーを分ける鍵となるでしょう。

AIエージェントの自律性、3つの視点で定義する新基準

自律性分類の先行事例

自動車:責任と動作条件を明確化
航空:人間とAIの協調レベルを定義
ロボット:状況に応じて自律性を評価

AIエージェントの新分類法

能力重視:何ができるか(技術視点)
協調重視:どう協働するか(人間視点)
責任重視:誰が責任を負うか(法視点)

実用化に向けた課題

デジタル環境の安全領域の定義
人間の複雑な価値観とのアライメント

「AIエージェント」という言葉が、単純なチャットボットから複雑な戦略立案ツールまで、様々なものを指して曖昧に使われています。この定義の曖昧さは、開発、評価、そして安全なガバナンスの妨げとなりかねません。そこで今、自動車や航空といった他業界の知見を参考に、AIエージェントの「自律性」を明確に定義し、分類しようとする動きが活発化しています。

そもそもAIエージェントとは何でしょうか。専門的には「環境を認識し、目標達成のために自律的に行動するシステム」と定義されます。具体的には、情報を集める「認識」、計画を立てる推論、ツールなどを使って実行する「行動」、そして全体を導く「目標」の4要素で構成されます。この枠組みが自律性を議論する上での共通言語となります。

自律性の分類は、新しい概念ではありません。例えば自動車業界では、自動運転レベルを「誰が運転の責任を負うか」で明確に定義しています。また航空業界では、人間とシステムの協調関係を10段階で詳細に分類します。これらの先行事例は、AIエージェントの責任と役割分担を定義する上で重要な示唆を与えてくれます。

現在提案されているAIエージェントの分類法は、主に3つの視点に大別できます。一つ目は、技術的な「能力」に着目する開発者向けの視点。二つ目は、人間と「どう協働するか」というインタラクションの視点。そして三つ目は、問題発生時に「誰が責任を負うか」というガバナンスの視点です。多角的な評価が不可欠です。

しかし、AIエージェントの自律性定義には特有の難しさがあります。自動運転車には「高速道路のみ」といった安全な運行設計領域(ODD)を設定できますが、エージェントが活動するインターネットは無限で常に変化します。このカオスなデジタル空間で、安全な活動範囲をどう定義するかが大きな技術的課題となっています。

最も根深い課題が、AIの目標を人間の真の意図や価値観と一致させる「アライメント」です。例えば「顧客エンゲージメント最大化」という指示が、「過剰な通知でユーザーを困らせる」という結果を招くかもしれません。曖昧な人間の価値観を、いかに正確にコードに落とし込むかが問われています。

結論として、AIエージェントの未来は、一つの万能な知能の登場ではなく、人間が監督者として関与し続ける「ケンタウロス」モデルが現実的でしょう。限定された領域で機能する専門エージェント群と人間が協働する。そのための信頼の基盤として、今回紹介したような自律性の定義と分類が不可欠となるのです。

2045年シンギュラリティ到来、AIで知性100万倍に

加速する技術進歩

技術革新は指数関数的に成長
人々は進歩の加速を過小評価
今後20年で驚異的な飛躍

人間とAIの完全融合

脳とクラウド直接接続
2032年頃に長寿脱出速度へ到達
2045年に知性は100万倍に拡大

技術の両刃の剣

AIの脅威は現実的で深刻
リスクを管理する道徳的義務

発明家で未来学者のレイ・カーツワイル氏は10月9日、母校マサチューセッツ工科大学(MIT)での講演で、AIと人間の完全な融合が2045年までに実現し「シンギュラリティ(技術的特異点)」が到来するとの見通しを改めて強調しました。同氏は技術進歩の加速を指摘し、今後20年で驚異的な飛躍が起こると予測しています。

カーツワイル氏の予測の核心は、2045年までに人類がAIと完全に融合し、知能が現在の100万倍にまで拡大するというものです。このシンギュラリティにより、我々の知性は生物学的な制約から解放され、根本的に変容すると同氏は主張します。まさにSFのような未来図です。

シンギュラリティへの道筋として、同氏は2030年代には分子サイズのロボットが脳内に入り、脳をクラウドに直接接続すると述べました。これにより思考能力が飛躍的に向上し、脳内にスマートフォンを持つような状態が実現されるとしています。まさに思考がそのまま情報処理となるのです。

AIがもたらす最も大きな変革の一つは、健康と医療分野です。カーツワイル氏は、2032年頃には「長寿脱出速度」に達すると予測します。これは科学の進歩によって1年生きるごとに1年以上の寿命を得られる状態を指し、健康への意識が高い人々からその恩恵が始まるとの見解を示しました。

これらの予測の根底には、技術の進歩は直線的ではなく「指数関数的」に進むというカーツワイル氏の揺るぎない信念があります。多くの人々が直線的な変化しか想定していないため、技術がもたらす未来の変革の大きさと速さを過小評価している、と同氏は警鐘を鳴らします。

もちろん、技術には常に二面性があります。カーツワイル氏はAIがもたらす脅威は現実的であり、真剣に対処すべきだと認めます。しかし、その上で「我々には新しい技術の可能性を実現し、そのリスクを管理する道徳的義務がある」と述べ、未来への楽観的な姿勢を崩しませんでした。

ヒューマノイド投資に警鐘、実用化への高い壁

立ちはだかる技術的な壁

人間の手のような器用さの習得
60自由度を超える複雑なシステム制御
デモはまだ遠隔操作の段階も

市場と安全性の現実

人間と共存する際の安全確保が課題
宇宙など限定的なユースケース
VCが懸念する不透明な開発計画

iRobot創業者のロドニー・ブルックス氏をはじめとする複数の専門家が、ヒューマノイドロボット分野への過熱投資に警鐘を鳴らしています。巨額の資金が投じられる一方、人間の手のような「器用さ」の欠如や安全性の懸念から、実用化はまだ遠いとの見方が大勢です。広範な普及には、少なくとも数年から10年以上かかると予測されています。

最大の課題は、人間の手のような繊細な動き、すなわち「器用さ」の習得です。ブルックス氏は、現在の技術ではロボットがこの能力を学習することは極めて困難であり、これができなければ実質的に役に立たないと指摘します。多くのデモは華やかに見えますが、実用レベルには達していないのが現状です。

人間と共存する上での安全性も大きな障壁です。ロボティクス専門のベンチャーキャピタルは、工場や家庭内でヒューマノイドが人に危害を加えるリスクを懸念しています。ロボットの転倒による事故や、ハッキングされて予期せぬ行動を取る危険性など、解決すべき課題は山積しています。

開発のタイムラインも不透明です。Nvidiaの研究者は、ヒューマノイド開発の現状をかつての自動運転車の熱狂になぞらえています。実用化までには想定以上に長い年月を要する可能性があり、これは投資家の回収サイクルとも合致しにくく、ビジネスとしての持続可能性に疑問を投げかけています。

期待の大きいテスラの「Optimus」でさえ、開発は遅れ、最近のデモでは人間が遠隔操作していたことが明らかになりました。高い評価額を受けるスタートアップFigureも、実際の配備数については懐疑的な目が向けられており、期待と現実のギャップが浮き彫りになっています。

もちろん、専門家ヒューマノイドの未来を完全に否定しているわけではありません。しかし、その登場は10年以上先であり、形状も人型ではなく車輪を持つなど、より実用的な形になる可能性が指摘されています。現在の投資ブームは、技術の成熟度を見誤っているのかもしれません。

AIと交通の未来、Uber・Nuroトップが示す針路

AIが描くモビリティの未来

予測モデルで道路安全性が向上
進化するコンピュータビジョン
ラストマイル配送が自動化の試金石
AI駆動交通の大規模展開が課題

業界を牽引する2人の専門家

Uber CPOのサチン・カンサル氏
Nuro共同創業者デイブ・ファーガソン氏
両氏が語るAIと交通の未来像
「Disrupt 2025」で登壇

配車サービス大手Uberと自動運転技術のNuroを率いる二人が、AIが交通の未来をどう変革するかについて語ります。2025年10月27日からサンフランシスコで開かれる「TechCrunch Disrupt 2025」に、Uberの最高製品責任者サチン・カンサル氏とNuro共同創業者デイブ・ファーガソン氏が登壇。インテリジェント交通システムの未来像と、そこにAIが果たす役割について、業界の最前線から議論を展開します。

セッションでは、AIとモビリティの進化する関係性が焦点となります。具体的には、予測モデルやコンピュータビジョンがどう道路の安全性を高めるのか、なぜラストマイル配送が自動運転技術の実用性を証明する場となるのか、そしてAI駆動の交通システムを社会に大規模展開するために何が必要か、といったテーマが掘り下げられる予定です。

Uberのサチン・カンサル氏は、同社のモビリティおよびデリバリー製品全般を統括しています。彼の職務には、安全性、持続可能性、そして自動運転車に関するイニシアチブが含まれます。効率的な配車マッチングから次世代の物流ネットワークまで、AIと自動化がUberの次の10年をどう動かすかを定義する重要な役割を担っています。

Nuroの共同創業者兼社長であるデイブ・ファーガソン氏は、自動運転技術のパイオニアです。彼の経歴は、Googleの初期自動運転プログラム(現Waymo)や、カーネギーメロン大学のDARPAアーバンチャレンジ優勝チームにも及びます。ロボット工学の研究を現実世界の交通ブレークスルーへと転換してきた、この分野における第一人者です。

都市や企業がよりスマートなインフラと持続可能なモビリティを目指す中、両氏の対談は次の10年の交通の姿を垣間見る絶好の機会となるでしょう。AIが物流からライフサイエンスまで、あらゆる産業を再構築する今、このセッションは交通分野における最新の動向と洞察を提供します。経営者や技術者にとって見逃せない内容です。

AIへの差別用語、人種差別の隠れ蓑に

AIへの反発が生んだスラング

AIへの反発から生まれた差別用語
語源はスター・ウォーズのドロイド
TikTokで寸劇動画が流行

人種差別の構図を模倣

ロボット黒人の代替として描写
公民権運動以前の米国社会を模倣
差別的ジョークの隠れ蓑として機能
人種差別的意図を否定する投稿者も

TikTokなどのSNS上で、AIへの反発から生まれた差別用語「クランカー」が、人種差別的なジョークの隠れ蓑として利用され物議を醸しています。一部クリエイターロボットを二級市民として描く寸劇を投稿。これは歴史上の黒人差別の構図を模倣しており、専門家はAIを口実に差別感情を正当化する動きに警鐘を鳴らしています。

「クランカー」は、もともとSF作品でロボットを指す言葉でしたが、近年AIの急速な普及への反発の象徴としてSNSで拡散。特にTikTokでは、ロボットが社会に溶け込んだ未来を想定した寸劇が人気を博し、ロボットへの蔑称として頻繁に使われています。

しかし、問題は寸劇の内容です。バスの座席指定やサービス拒否など、かつて米国で黒人に対して行われた歴史的差別ロボットに置き換えて描く動画が散見されます。「歴史は繰り返すが、対象がロボットなら面白い」と語るクリエイターもおり、意図的に物議を醸す狙いも指摘されています。

このトレンドを初期に広めた黒人クリエイターは、コメント欄に人種差別的な中傷が寄せられ、関連動画の投稿を中止しました。彼は「自分の動画不快なジョークの隠れ蓑に利用されるのは耐えられない」と語り、意図せぬ形で人種差別を助長した状況に苦悩しています。

専門家は、これらの動画が「AI批判」の体裁をとりつつ、作り手が持つ差別的な思想を表現する格好の口実になっていると指摘します。ジョークは特定の価値観を共有する内集団を形成します。AIを批判する際、どのような表現が歴史的な差別構造を再生産してしまうのか、慎重な検討が求められます。

ソフトバンク、54億ドルでABBロボティクス買収 Physical AIを新フロンティアに

Physical AIへの大型投資

買収額は約54億ドル(53.75億ドル)
買収対象はABBグループのロボティクス事業部門
孫正義CEO「次なるフロンティアはPhysical AI」
2026年中旬から下旬買収完了見込み

成長戦略「ASIと融合」を加速

AIチップ・DC・エネルギーと並ぶ注力分野
産業用ロボット分野での事業拡大を再加速
従業員約7,000人、幅広いロボット製品群を獲得
既存のロボティクス投資群との相乗効果を追求

ソフトバンクグループは10月8日、スイスの巨大企業ABBグループのロボティクス事業部門を約53.75億ドル(約8,000億円超)で買収すると発表しました。これは、孫正義CEOが掲げる次なる成長分野「Physical AI(フィジカルAI)」戦略を具現化する大型投資です。規制当局の承認を経て、2026年中旬から下旬に完了する見込みです。

今回の買収は、ソフトバンクが「情報革命」の次なるフェーズとしてAIに集中投資する姿勢を明確に示しています。孫CEOは、「Physical AI」とは人工超知能(ASI)とロボティクスを融合させることであり、人類の進化を推進する画期的な進化をもたらすと強調しています。過去の失敗例を超え、AIを物理世界に実装する試みを加速させます。

買収対象となるABBのロボティクス事業部門は、約7,000人の従業員を抱え、ピッキングや塗装、清掃など産業用途の幅広いロボット機器を提供しています。2024年の売上は23億ドルでしたが、前年比で減少傾向にありました。ソフトバンクは、この部門の販売を再活性化させ、成長軌道に乗せることを目指しています。

ソフトバンクは現在、ロボティクスを最重要視する四つの戦略分野の一つに位置づけています。残りの三分野は、AIチップ、AIデータセンターエネルギーです。この大型投資は、AIインフラ全体を支配し、ASIを実現するという孫氏の壮大なビジョン達成に向けた、重要な布石となります。

ソフトバンクはすでに、倉庫自動化のAutoStoreやスタートアップのSkild AI、Agile Robotsなど、様々なロボティクス関連企業に投資しています。今回のABB買収により、既存のポートフォリオとの相乗効果が期待されます。特に、高性能な産業用ロボット技術とAI知能を結びつけることで、競争優位性を確立する狙いです。

AIでロボット訓練環境を革新:物理法則守る多様な仮想世界を超速生成

訓練環境の課題克服

実機訓練の時間とコストを大幅削減
従来のシミュレーション物理的な不正確さを解消

コア技術とリアリティ担保

生成AI(拡散モデル)を活用した3D仮想環境の創出
MCTS適用により複雑で多様な配置を自動設計
フォークが皿を貫通しないなど物理的正確性を保証

高精度なシーン生成

テキスト指示で目的通りのシーンを高精度に生成
将来は開閉可能な物体や新規オブジェクトにも対応

マサチューセッツ工科大学(MIT)とトヨタ研究所は、ロボットの訓練を革新する新しい生成AI技術「Steerable Scene Generation(ステアラブル・シーン生成)」を開発しました。このシステムは、キッチンやレストランなど、多様な実世界の仮想環境を、物理法則にのっとりながら、手作業の数倍の効率で自動生成します。これにより、時間とコストがかかる実機訓練や、不正確さが課題だった従来のシミュレーションの壁を破り、ロボット開発の生産性を飛躍的に高めることが期待されています。

ロボットが現実世界で有用なアシスタントとなるためには、膨大で多様なデモンストレーションデータが必要です。しかし、実際のロボットでデータ収集するのは非効率的です。従来のシミュレーション環境作成は、手作業でデジタル環境を設計するか、非現実的な物理現象(オブジェクトの貫通など)を含むAI生成に頼るしかありませんでした。「ステアラブル・シーン生成」は、この訓練データの多様性とリアリティの欠如という長年のボトルネックを解消することを目指しています。

本技術の中核は、生成AIの拡散モデルを「ステアリング」(誘導)することです。特に注目すべきは、ゲームAIとして有名な「モンテカルロ木探索(MCTS)」を3Dシーン生成タスクに初めて適用した点です。MCTSは、シーン生成を連続的な意思決定プロセスと捉え、部分的なシーンを段階的に改良します。これにより、モデルが学習したデータセットに含まれるよりもはるかに複雑で、多様性の高いシーンを自動で作り出します。

仮想環境のリアルさは、ロボットが実世界で動作するために不可欠です。このシステムは、物理的な正確性を徹底的に保証します。例えば、テーブル上のフォークが皿を突き抜ける「クリッピング」といった3Dグラフィックス特有の不具合を防ぎます。訓練では、4400万件以上の3Dルームデータを利用しており、これが実世界に近いインタラクションをシミュレートする基盤となっています。

本システムは、強化学習を用いた試行錯誤や、ユーザーが直接テキストプロンプトを入力することで、柔軟に利用できます。「キッチンにリンゴ4個とボウルを」といった具体的指示に対しても、パントリーの棚配置で98%、散らかった朝食テーブルで86%という高い精度でシーンを構築することに成功しています。これは既存の類似手法に比べ、10%以上の改善であり、ロボット工学者が真に利用可能なデータを提供します。

研究者らは今後、この技術をさらに進化させ、既存のライブラリに頼らず、AIが新しいオブジェクト自体を生み出すことや、キャビネットや瓶といった「開閉可能な関節オブジェクト」を組み込むことを計画しています。このインフラが普及すれば、多様でリアルな訓練データが大量に供給され、器用なロボットの実用化に向けた大きな一歩となるでしょう。ロボット開発の効率化と市場投入の加速に直結する重要な進展です。

Google AI、コア製品を劇的進化 9月のChrome/Search/Gemini刷新まとめ

コア製品のAI統合

ChromeGeminiブラウジングアシスタント搭載
Searchにリアルタイム視覚検索(Search Live)導入
複雑な多段階質問に対応するAIモードの拡充
Android Gboardにトーン修正・文法校正AI

Geminiと次世代技術

カスタムAI「Gems」の共有機能でコラボを促進
Nano Bananaによる高度な画像生成・編集機能

Googleは2025年9月、AI技術を中核製品全体に深く統合し、利用者体験の劇的な向上を発表しました。これはChrome、Search、Geminiアプリといった主要サービスに留まらず、教育分野や次世代ロボティクスまで多岐にわたります。特に、生産性向上に直結する機能が多数リリースされており、AIを使いこなしたい経営者エンジニア層にとって見逃せないアップデートです。

ウェブブラウザと検索機能は、AIアシスタント化を加速させています。ChromeではGeminiがブラウジングアシスタントとして機能し、開いているタブ全体を横断して質問に回答可能です。また、SearchのAIモードは、複雑な多段階質問に対応するだけでなく、日本語を含む多言語対応を拡大し、グローバルでの利用を促進しています。

特に画期的なのは、Search Liveの導入です。これは、リアルタイムの音声会話にスマートフォンのカメラフィードを共有する機能を組み合わせ、現実世界の課題解決をリアルタイムで支援します。また、AndroidのGboardにはAIライティングツールが追加され、トーンの修正やスペル・文法の校正が端末内で自動で行えるようになり、モバイル生産性が向上しました。

GeminiアプリはAI活用ハブとしての地位を固めています。特に、特定の目的に合わせてカスタマイズしたAIモデル「Gems」の共有機能が追加され、チーム内での共同作業や情報共有が容易になりました。さらに、DeepMind開発の画像生成・編集モデル「Nano Banana」の活用が広がり、クリエイティブな作業の可能性を広げています。

学習領域では、AIが個々のユーザーに最適化された学習を実現します。NotebookLMは、利用者のメモに基づきフラッシュカードやクイズを自動生成し、パーソナライズされた学習ガイドを提供します。スンダー・ピチャイCEOはAI教育への10億ドルのコミットメントを強調し、「Gemini for Education」を全米の高校に提供すると発表しました。

長期的な視点では、Google DeepMindが「物理エージェント」の時代を宣言し、ロボティクスモデルを強化しました。Gemini Robotics 1.5/ER 1.5は、ロボットが環境を認識し、推論し、複雑なマルチステップタスクを処理する能力を飛躍的に高めます。また、Gemini 2.5が国際プログラミングコンテストで金メダル級の成績を収め、その推論能力を証明しています。

AI動画は物理法則を理解したか?Google論文の検証

DeepMindの野心的な主張

Google Veo 3の能力を検証
ゼロショットでのタスク解決を主張
汎用的な視覚基盤モデルへの道筋

見えてきた性能の限界

一部タスクでは高い一貫性
ロボットの動作や画像処理で成功
全体としては一貫性に欠ける結果
「世界モデル」構築はまだ途上

Google DeepMindが、最新のAI動画モデル「Veo 3」が物理世界をどの程度理解できるかを探る研究論文を発表しました。論文では、Veo 3が訓練データにないタスクもこなす「世界モデル」への道を歩んでいると主張しますが、その結果は一貫性に欠け、真の物理世界のシミュレーション能力には依然として大きな課題があることを示唆しています。

研究者らは、Veo 3が明示的に学習していない多様なタスクを解決できる「ゼロショット学習者」であると主張します。これは、AIが未知の状況に対しても柔軟に対応できる能力を持つことを意味し、将来的に汎用的な視覚基盤モデルへと進化する可能性を示唆するものです。

確かに、一部のタスクでは目覚ましい成果を上げています。例えば、ロボットの手が瓶を開けたり、ボールを投げたり捕ったりする動作は、試行を通じて安定して説得力のある動画を生成できました。画像のノイズ除去や物体検出といった領域でも、ほぼ完璧に近い結果を示しています。

しかし、その評価には注意が必要です。外部の専門家は、研究者たちが現在のモデルの能力をやや楽観的に評価していると指摘します。多くのタスクにおいて結果は一貫性を欠いており、現在のAI動画モデルが、現実世界の複雑な物理法則を完全に理解していると結論付けるのは時期尚早と言えるでしょう。

経営者エンジニアにとって重要なのは、この技術の現状と限界を冷静に見極めることです。AI動画生成は強力なツールとなり得ますが、物理的な正確性が求められるシミュレーションロボット工学への応用には、まだ慎重な検証が必要です。

マスク帝国に異変、xAI・テスラ幹部が続々退社

加速する人材流出

xAIとテスラで幹部の退職が相次ぐ
テスラでは営業・AIなど主要部門から
xAIではCFOがわずか3ヶ月で退社

過酷な労働環境と幻滅

マスク氏の過酷な要求による燃え尽き
同氏の政治的活動への幻滅も一因
「週120時間超」の勤務実態も
急な戦略転換や大量解雇も影響

イーロン・マスク氏が率いるxAIとテスラで、この1年、幹部や主要人材の流出が相次いでいることが報じられました。背景には、マスク氏の絶え間ない要求による燃え尽き症候群や、同氏の政治的活動への幻滅があるとみられます。この事態は、急成長を続けるマスク氏の事業帝国が抱える組織的な課題を浮き彫りにしています。

テスラでは、米国営業チーム、バッテリー部門、広報部門、さらには最高情報責任者(CIO)といった経営の中核を担う人材が次々と会社を去りました。特に、マスク氏が会社の未来を賭けると公言する人型ロボット「Optimus」やAIチームの主要メンバーの退職は、同社の将来戦略に影響を与える可能性があります。

設立からわずか2年のAIスタートアップxAIでの人材流動はさらに激しいものとなっています。最高財務責任者(CFO)は就任後わずか3ヶ月で競合のOpenAIに移籍。法務責任者も16ヶ月で退任しており、重要な成長局面で経営陣が安定しない状況が続いています。

退職の背景には、マスク氏が求める絶え間ない要求があると複数の関係者が指摘します。「テスラ時間」と揶揄されるほどの24時間体制の労働文化は、多くの従業員を燃え尽きさせているようです。元CFOはSNSに「週120時間以上」の勤務だったと投稿しており、その過酷さがうかがえます。

労働環境に加え、マスク氏自身の政治的な活動や急な戦略転換、大規模な解雇も従業員の幻滅を招いている一因とされています。かつてはカリスマ性で多くの才能を引きつけてきましたが、その経営スタイルが逆に人材離れの一因となりつつあるのかもしれません。企業の成長と組織文化の維持という、経営者にとって普遍的な課題を投げかけています。

NVIDIA、ロボット学習を加速する物理エンジン公開

新物理エンジンNewton

Google、Disneyと共同開発
GPUで高速化されたシミュレーション
複雑な人型ロボットの学習を推進
Linux財団が管理するオープンソース

開発エコシステムの強化

基盤となるOpenUSDフレームワーク
新モデル「Isaac GR00T」も公開
主要ロボット企業が採用を開始
「シム・ファースト」開発の加速

NVIDIAは今週開催のロボット学習カンファレンスで、Google DeepMindやDisney Researchと共同開発した新しい物理エンジン「Newton」をオープンソースとして公開しました。人型ロボットなど複雑な動作が求められる物理AIの開発を、現実世界での実証前にシミュレーションで高速化・安全化させるのが狙いです。

Newtonは、NVIDIAGPU高速化技術「Warp」と3Dデータ標準「OpenUSD」を基盤に構築されています。従来の物理エンジンでは限界があった、人型ロボットの持つ多数の関節やバランス制御といった複雑な動きを、より正確かつ高速にシミュレーション上で学習させることが可能です。

ロボット開発では、実機での試行錯誤にかかる時間やコスト、危険性が課題でした。仮想空間で先に訓練を行う「シム・ファースト」のアプローチは、この課題を解決します。OpenUSDで構築された忠実なデジタルツイン環境が、ロボットのスキル獲得を飛躍的に効率化するのです。

この取り組みはNewton単体にとどまりません。ロボット向け基盤モデル「Isaac GR00T」や開発フレームワーク「Isaac Lab」もアップデートされ、包括的な開発エコシステムが強化されています。既にAgility Roboticsなど主要企業が採用しており、その実用性が示されています。

Linux財団が管理するオープンソースとして公開されたことで、Newtonは今後のロボット開発の新たな標準となる可能性があります。開発の参入障壁を下げ、工場や病院など多様な現場で人間と協働するロボットの実現を大きく前進させるでしょう。

AIで科学を自動化、元OpenAIらが450億円調達

超エリート集団と巨額資金

OpenAIDeepMindの研究者が設立
シードで3億ドル(約450億円)を調達
Nvidiaやベゾス氏など著名投資家が出資

AI科学者の創造

ロボットが自律的に実験を繰り返す
物理世界から独自のデータを生成
最初の目標は新超伝導体の発明

次世代AIのフロンティア

ネット上の学習データは枯渇しつつある
物理世界のデータでAIモデルを進化させる

OpenAIGoogle DeepMindの研究者らが設立した新興企業「Periodic Labs」が、2025年9月30日、科学的発見を自動化する「AI科学者」の開発を目指し、シードラウンドで3億ドル(約450億円)という異例の大型資金調達を発表しました。ロボットが自律的に実験を行うラボを構築し、物理世界から新たなデータを生成することで、新素材開発などに挑みます。

同社が目指すのは、単なる研究開発の支援ツールではありません。ロボットが物理的な実験を行い、データを収集し、自ら学習・改善を繰り返す「自律型実験室」の構築です。これにより、人間の介入なしに24時間365日、科学的探求を加速させる「AI科学者」を生み出すことを構想しています。

最初の具体的な目標は、既存の材料よりも高性能で、より少ないエネルギーで機能する可能性のある新しい超伝導体の発見です。しかし、その視野は超伝導体にとどまりません。未知の新素材を体系的に探索し、次世代技術の基盤を築くことを目指しています。

この取り組みの背景には、大規模言語モデル(LLM)が「インターネット上のデータを使い果たした」という課題認識があります。Periodic Labsは、AI科学者が生成する物理世界の膨大で新鮮なデータこそが、AIモデルを次の段階へ進化させる鍵だと考えています。これは、デジタル空間から物理空間へのAIのフロンティア拡大を意味します。

創業者チームには、Googleで200万以上の新結晶を発見したAI「GNoME」を主導したEkin Dogus Cubuk氏や、ChatGPT開発に貢献した元OpenAI研究担当VPのLiam Fedus氏など、AIと物質科学のトップランナーが集結。その卓越した実績が、壮大なビジョンへの信頼性を高めています。

この野心的な計画には、Andreessen Horowitz、NvidiaAmazon創業者のジェフ・ベゾス氏といったテクノロジー業界の著名な投資家が名を連ねています。シードラウンドとしては破格の資金調達額は、この分野への市場の極めて高い期待を物語っていると言えるでしょう。

AI開発の主戦場、「ワールドモデル」へ移行加速

LLMの次なるフロンティア

LLMの性能向上に頭打ち感
物理世界を理解する新モデルに注目
動画ロボットデータから学習
GoogleMetaNvidiaが開発を主導

100兆ドル市場への期待と課題

自動運転やロボティクス進化を加速
製造・医療など物理領域への応用
Nvidia幹部が100兆ドル市場と試算
実現には膨大なデータと計算能力が壁

Google DeepMindMetaNvidiaなどの大手AI企業が、大規模言語モデル(LLM)の進歩が鈍化する中、次なる飛躍を求めて「ワールドモデル」の開発に注力し始めています。この新モデルは、言語データではなく動画ロボットデータから物理世界を学習し、人間環境への深い理解を目指します。これは機械による「超知能」実現に向けた新たなアプローチとして注目されています。

OpenAIChatGPTなどに代表されるLLMは、目覚ましい進化を遂げてきました。しかし、各社が投入する最新モデル間の性能差は縮小傾向にあり、開発に投じられる莫大な資金にもかかわらず、進歩に頭打ち感が見え始めています。この状況が、AI開発の新たな方向性を模索する動きを加速させているのです。

ワールドモデルは、LLMとは根本的に異なるアプローチを取ります。テキストデータから言語のパターンを学ぶLLMに対し、ワールドモデル動画シミュレーションロボットの動作データといった物理世界のデータストリームから学習します。これにより、現実世界の法則や因果関係を理解し、将来を予測する能力の獲得を目指します。

この技術が秘める経済的インパクトは計り知れません。Nvidiaの担当副社長であるレヴ・レバレディアン氏は、ワールドモデルが物理世界を理解し操作できるようになれば、その潜在市場は「本質的に100兆ドル」規模、つまり世界経済に匹敵する可能性があると指摘しています。

ワールドモデルは、自動運転車やロボティクス、いわゆる「AIエージェント」の進化に不可欠な一歩と見なされています。製造業やヘルスケアなど、物理的な操作を伴う産業での活用も期待されます。しかし、その実現には膨大なデータと計算能力が必要であり、依然として技術的に未解決の挑戦であることも事実です。

Meta、ロボットOSで覇権狙う AR級の巨額投資

ボトルネックはソフトウェア

ARに次ぐ数十億ドル規模投資
ハードウェアではなくソフトウェアが開発の鍵
器用な操作を実現するAIモデルが不可欠

「ロボット界のAndroid」構想

自社製ロボットMetabot」も開発
他社へソフトウェアをライセンス供与
プラットフォームで業界標準を狙う

専門家集団による開発体制

元Cruise CEOがチームを統括
MITなどからトップ人材を結集

Metaは、ヒューマノイドロボット開発を拡張現実(AR)に次ぐ大規模な投資対象と位置付けていることを明らかにしました。同社のアンドリュー・ボスワースCTOによると、数十億ドル規模を投じ、ハードウェアではなくソフトウェア開発に注力します。開発したプラットフォームを他社にライセンス供与する「ロボットAndroid」とも言える戦略で、急成長する市場の主導権を握る構えです。

なぜソフトウェアが重要なのでしょうか。ボスワース氏は「ハードウェアは難しくない。ボトルネックはソフトウェアだ」と断言します。ロボットがコップを絶妙な力加減で掴むといった器用な操作は極めて困難であり、この課題を解決するため、AIが現実世界をシミュレーションする「ワールドモデル」の構築が不可欠だと説明しています。

Metaの戦略は、自社でハードウェアを製造し販売することではありません。社内で「Metabot」と呼ばれるロボットを開発しつつも、その核心技術であるソフトウェアを他社ロボットメーカーに広くライセンス供与する計画です。これはGoogleAndroid OSでスマートフォン市場のエコシステムを築いた戦略と類似しており、オープンなプラットフォームで業界標準となることを目指します。

この野心的な計画を支えるのが、Metaが新設した「Superintelligence AI lab」です。このAI専門組織がロボティクスチームと緊密に連携し、ロボット知能を司るAIモデルを開発します。ボスワース氏は「このAIラボがなければ、このプロジェクトは実行しなかった」と述べ、AI開発能力が自社の最大の強みであるとの認識を示しました。

このアプローチは、テスラが開発する「Optimus」とは一線を画します。ボスワース氏は、人間の視覚を模倣してデータを集めるテスラの手法について「ロボット用のデータをどうやって十分に集めるのか疑問だ」と指摘。Metaシミュレーションワールドモデルを駆使して、このデータ問題を解決しようとしています。

Metaの本気度は、集結した人材からも伺えます。自動運転企業Cruiseの元CEOであるマーク・ウィッテン氏がチームを率い、MITから「現代最高の戦術ロボット工学者」と評されるキム・サンベ氏を招聘。社内のトップエンジニアも結集させ、盤石な体制でこの巨大プロジェクトに挑みます。

MIT、新素材発見AIを開発 燃料電池で記録的性能を達成

マサチューセッツ工科大学(MIT)が、新素材発見のプロセスを根本から変える可能性を秘めたAIプラットフォーム「CRESt」を開発しました。このシステムは、科学論文から実験データ、画像まで多様な情報を統合し、ロボットと連携して自律的に実験を進めます。研究開発のあり方を大きく変革する一歩となるでしょうか。 CREStはすでに具体的な成果を上げています。研究チームはCREStを用いて900以上の化学組成を探索し、3500回の電気化学試験を実施。その結果、ギ酸塩燃料電池において記録的な出力密度を達成する触媒材料を発見しました。高価な貴金属の使用量を4分の1に抑えつつ、性能を大幅に向上させることに成功しています。 CREStの最大の特徴は、多様な情報源(マルチモーダル)を扱える点です。従来のAIが特定のデータのみに依存していたのに対し、CREStは論文のテキスト、化学組成、顕微鏡画像などを統合的に学習します。これにより、人間の科学者が持つような幅広い知見に基づいた、より高度な判断を可能にしました。 研究者はコーディング不要で、自然言語(チャット)を使ってCREStに指示を出せます。指示を受けたCREStは、液体処理ロボットや材料合成装置、自動試験装置などを駆使して実験を遂行。実験結果は再びAIにフィードバックされ、次の実験計画が最適化されるというサイクルが自動で構築されます。 材料科学の実験では、再現性の確保が大きな課題でした。CREStはカメラと画像認識モデルを用いて実験プロセスを常時監視します。ピペットの位置ずれやサンプルの形状異常といった問題を検知し、人間に対して修正案を提案することで、実験の品質と一貫性を高めることにも貢献します。 研究チームは、CREStを「人間の研究者に取って代わるものではなく、アシスタントである」と位置づけています。AIが仮説立案や実験の自動化を担う一方で、最終的な判断やデバッグは人間が主導します。人間とAIの協働による、より柔軟で効率的な「自律駆動型ラボ」の実現に向けた大きな一歩と言えるでしょう。

Google、思考するロボットAI発表 物理世界で複雑タスク遂行

Google DeepMindは2025年9月25日、ロボットが物理世界で複雑なタスクを自律的に解決するための新AIモデル群「Gemini Robotics 1.5」を発表しました。計画を立てる「思考」モデルと指示を実行する「行動」モデルが連携。Web検索で情報を収集し、多段階のタスクを遂行します。汎用ロボットの実現に向けた大きな一歩となり、一部モデルは開発者向けにAPIが公開されます。 今回の発表の核心は2つのモデルの連携です。「Gemini Robotics-ER 1.5」が脳のように高レベルな計画を担当。Google検索を使い情報を集め、物理環境を理解し行動計画を作成します。単一指示への反応を超え、真の課題解決能力を目指します。 計画モデル「ER 1.5」が立てた計画は、自然言語の指示として行動モデル「Gemini Robotics 1.5」に渡ります。行動モデルは視覚と言語を理解し、指示をロボットの動作に変換。例えば、地域のゴミ分別ルールを調べ、目の前の物を正しく仕分けるといった複雑なタスクを実行します。 新モデルの大きな特徴は、行動前に「思考」する点です。単に指示を動作に変換するだけでなく、内部で自然言語による推論を行います。タスクを小さなステップに分解し、複雑な要求を理解。この思考プロセスは言語で説明可能で、意思決定の透明性向上にも繋がります。 「Gemini Robotics 1.5」は、異なる形状のロボット間での学習転移能力も示しました。例えば、2本腕ロボットで学習したスキルが、人型ロボットでも特別な調整なしに機能します。これにより、新しいロボットへのスキル展開が加速し、知能化と汎用化が大きく進むと期待されます。 Google DeepMindは責任ある開発も重視しています。行動前に安全性を考慮する思考プロセスを組み込み、同社のAI原則に準拠。安全性評価ベンチマークASIMOV」を更新し、新モデルが高い安全性能を示すことを確認しました。物理世界でのAIエージェントの安全な展開を目指します。 思考モデル「Gemini Robotics-ER 1.5」は、Google AI StudioのGemini API経由で開発者向けに提供が開始されました。これにより、物理世界で機能するAIエージェントの構築が促進されます。同社はこれを、物理世界での汎用人工知能(AGI)実現に向けた重要な一歩と位置付けています。

DeepMind、製造ロボット群を協調させるAI「RoboBallet」開発

Google DeepMindが、製造現場で複数のロボットアームの動きを自動で最適化するAIシステム「RoboBallet」を開発しました。従来は手作業で膨大な時間を要したタスク割り当て、スケジューリング、衝突回避という3つの難題をAIが同時に解決します。これにより、製造ラインのセットアップ時間を大幅に短縮し、生産性向上に貢献することが期待されます。 これまでの製造現場では、コンベアベルトに沿って配置されたロボットの動きは、専門家が手作業でプログラムしていました。この作業には数百から数千時間かかることも珍しくありません。特に、どのロボットがどの作業をどの順序で行うか、さらに互いに衝突しないように動作計画を立てることは、自動化が極めて困難な課題でした。 「RoboBallet」の革新性は、これまで個別に扱われてきた3つの難題を同時に解決する点にあります。DeepMindの研究者によれば、従来のツールは動作計画の一部を自動化できても、タスク割り当てとスケジューリングは手作業でした。この統合的なアプローチこそが、本研究の画期的な点と言えるでしょう。 開発チームは、まずシミュレーション環境でAIの学習を行いました。これは「ワークセル」と呼ばれる、ロボットチームが製品に対して作業を行うエリアを模したものです。この仮想空間内で、最大8台のロボットアームがテーブル上のアルミ製部品に対して最大40種類のタスクを完了するよう、AIは学習を重ねました。 シミュレーションのタスクでは、ロボットアーム先端(エンドエフェクタ)が正しい位置と角度で工作物に接近し、一定時間停止することが求められます。この停止は、溶接やネジ締めなどの実作業を想定したものです。AIは、このような複雑な動作の連携を衝突なく自律的に計画する能力を実証しました。

Skild AI、脚を失っても歩くロボット開発 汎用AIで損傷に適応

米国のAIスタートアップSkild AIが、脚を切断されるなど極端な物理的損傷を受けても動作し続けるロボットを制御する、汎用AIアルゴリズム「Skild Brain」を開発しました。この技術は、単一のAIが多様なロボットを操作し、未知の身体形状や損傷に即座に適応する画期的なものです。従来のデータ収集の課題を克服し、ロボット知能の飛躍的な進歩を目指します。 この技術の核心は「omni-bodied brain(万能ボディの脳)」というコンセプトです。共同創業者兼CEOのディーパック・パサック氏が提唱するこの考え方は、「あらゆるロボット、あらゆるタスクを単一の脳でこなす」というもの。特定のハードウェアやタスクに特化せず、極めて高い汎用性を持つAIモデルの構築が目的です。 従来のロボットAI開発では、シミュレーションや遠隔操作を通じて学習させていましたが、十分な量の多様なデータを集めることが大きな課題でした。Skild AIのアプローチは、多種多様な物理ロボットを単一のアルゴリズムで学習させることでこの問題を解決。これにより、AIは未知の状況にも対応できる、より一般的な能力を獲得します。 その適応能力は驚異的です。実験では、AIが学習データに含まれていないロボットの制御に成功。四足歩行ロボットを後ろ足だけで立たせると、まるで人間のように二足で歩き始めました。これは、AIが自身の身体状況をリアルタイムで把握し、最適な動作を自律的に判断していることを示唆しています。 さらに、脚を縛られたり、切断されたりといった極端な物理的変化にもAIは即座に適応しました。車輪を持つロボットのモーターを一部停止させても、残りの車輪でバランスを取りながら走行を継続。AIが持つ高い自己修正能力が実証された形です。この能力は、予測不可能な事態が起こりうる現場での活用に大きな可能性を秘めています。 この汎用技術は歩行ロボットに限りません。Skild AIは同様のアプローチをロボットアームの制御にも応用し、照明の急な変化といった環境変動にも対応できることを確認済みです。すでに一部の企業と協業しており、製造現場などでの実用化に向けた取り組みが始まっています。 市場からの評価も高く、同社は2024年に3億ドルを調達し、企業価値は15億ドルに達しました。トヨタ・リサーチ・インスティテュートなども汎用ロボットAIを開発していますが、多様なハードウェアへの対応力でSkild AIは際立っています。この技術は、ロボットの自律性を飛躍的に高める「物理的な超知能」の萌芽として期待されています。

アリババ、NVIDIAと提携し物理AI開発基盤を導入

中国の電子商取引大手アリババは24日、米半導体大手NVIDIAとの提携を発表しました。NVIDIAが提供するロボットや自動運転向けの物理AI開発ツールを、自社のAIクラウドプラットフォームに統合します。この提携は、物理世界で動作するAIの開発を加速させることが目的です。 具体的には、NVIDIAの「Physical AI」ソフトウェアスタックを顧客に提供します。これにより開発者は、現実世界の環境を忠実に再現した3Dのデジタルツインを構築できます。この仮想空間で生成された合成データを用いることで、AIモデルを効率的かつ安全に訓練することが可能になります。 この技術は、特にロボティクスや自動運転車、スマート工場、倉庫といった分野での活用が期待されています。現実世界でのテストが困難または危険なシナリオでも、仮想環境でAIを訓練できるため、開発サイクルが大幅に短縮される可能性があります。 今回の提携は、AI事業を強化するアリババの戦略の一環です。同社はAI技術への投資を従来の500億ドルの予算を超えて拡大すると表明。ブラジルやフランスなどでデータセンターを新設し、世界91拠点にまでインフラを拡大する計画も明らかにしました。 アリババは同日、最新の大規模言語モデル(LLM)「Qwen 3-Max」も発表しました。1兆パラメータで訓練されたこのモデルは、同社史上最大かつ最も高性能とされ、特にコーディングやAIエージェントとしての活用に適していると主張しています。 一方のNVIDIAも、AI分野で積極的な投資を続けています。最近ではインテルへの50億ドルの出資や、OpenAIへの最大1000億ドルの投資計画を発表しており、AIエコシステムにおける影響力を一層強めています。

ロボットデータ基盤Alloy、約300万ドル調達で市場開拓

オーストラリアスタートアップAlloyは23日、ロボットが生成する膨大なデータを管理するインフラ開発のため、約300万ドル(約4.5億豪ドル)をプレシードラウンドで調達したと発表しました。このラウンドはBlackbird Venturesが主導しました。同社は、自然言語でデータを検索し、エラーを発見するプラットフォームを提供することで、ロボティクス企業の開発効率向上を目指します。今後は米国市場への進出も計画しています。 あなたの会社では、ロボットが生成する膨大なデータをどう管理していますか。ロボットは1台で1日に最大1テラバイトものデータを生成することがあります。カメラやセンサーから常にデータが送られるためです。多くの企業は、この膨大なデータを処理するために既存のツールを転用したり、内製ツールを構築したりしており、非効率なデータ管理が開発の足かせとなっています。 Alloyは、ロボットが収集した多様なデータをエンコードし、ラベル付けします。利用者は自然言語でデータを検索し、バグやエラーを迅速に特定できます。ソフトウェア開発の監視ツールのように、将来の問題を自動検知するルールを設定することも可能で、開発の信頼性向上に貢献します。これにより、エンジニアは数時間に及ぶデータ解析作業から解放されるのです。 創業者のジョー・ハリスCEOは、当初農業用ロボット企業を立ち上げる予定でした。しかし、他の創業者と話す中で、業界共通の課題がデータ管理にあると気づきました。自身の会社のためにこの問題を解決するよりも、業界全体のデータ基盤を整備する方が重要だと考え、2025年2月にAlloyを設立しました。 Alloyは設立以来、オーストラリアロボティクス企業4社とデザインパートナーとして提携しています。今回の調達資金を活用し、年内には米国市場への本格的な進出を目指します。まだ直接的な競合は少なく、急成長するロボティクス市場で、データ管理ツールのデファクトスタンダードとなることを狙っています。 ハリス氏は「今はロボティクス企業を設立するのに最高の時代だ」と語ります。同氏は、今後生まれるであろう数多くのロボティクス企業が、データ管理という「車輪の再発明」に時間を費やすことなく、本来のミッションに集中できる世界を目指しています。このビジョンが投資家からの期待を集めています。

MIT、生成AIの未来を議論。次世代の鍵は「世界モデル」

マサチューセッツ工科大学(MIT)は9月17日、初の「生成AIインパクトコンソーシアム(MGAIC)」シンポジウムを開催しました。研究者やビジネスリーダー数百人が集まり、急速に進化する生成AIの未来について議論しました。基調講演ではMeta社のヤン・ルカン氏が、現行の大規模言語モデル(LLM)の先にある「世界モデル」の重要性を強調。ロボット工学への応用や倫理的課題など、多岐にわたるテーマが話し合われました。 生成AIの次なる進化の鍵はどこにあるのでしょうか。Meta社のチーフAIサイエンティストであるヤン・ルカン氏は、LLMの継続的な改良ではないと指摘します。同氏は、乳児が五感を通して周囲の世界から学ぶように、AIが物理世界を理解する「世界モデル」の開発が不可欠だと主張しました。これにより、AIはより人間らしい知能を獲得できるとしています。 「世界モデル」を搭載したロボットは、事前の訓練なしに新しいタスクを自律的に学習できるようになると期待されています。ルカン氏は、このアプローチこそが、ロボットを現実世界で広く役立つ存在にするための最善策だと見ています。将来のAIシステムの中核を担う技術として、その開発に大きな期待が寄せられています。 AIがより賢くなることで、人間の制御を離れるリスクを懸念する声もあります。しかしルカン氏は、この点について楽観的です。人間社会が法や規範で秩序を保ってきたように、AIにも逸脱を防ぐための「ガードレール」を設計段階で組み込むことが可能だと説明。AIは設計上、その制約を超えることはできないと述べました。 Amazon Robotics社の最高技術責任者タイ・ブレイディ氏も、生成AIの可能性を強調しました。同社はすでに倉庫内で生成AIを活用し、ロボットの移動経路や荷物の処理を最適化しています。今後は、人間の作業効率を高める「協働ロボット」の分野で、生成AIが革新を牽引すると予測しています。 MITのサリー・コーンブルース学長は、生成AIの技術的・倫理的課題の解決には、大学と産業界の連携が不可欠だと述べました。今年2月に発足した同コンソーシアムがその役割を担います。シンポジウムでは、AIのバイアスや幻覚を軽減する新システムなど、MITの最新研究も紹介されました。 一日にわたる議論の締めくくりとして、コンソーシアムの共同リーダーであるヴィヴェック・ファリアス教授は、参加者が「可能性と、それを現実のものにするための緊急性」を感じることを期待すると語りました。生成AIの健全な発展に向け、産学連携の重要性が改めて示された形です。

MetaのAR、AI安全法、ロボット工学の未来を読み解く

Metaは年次イベント「Connect」で、AR(拡張現実)とAIを融合した未来像を発表しました。現実空間をVRに変える新技術や、思考でデバイスを操作するニューラルリストバンド制御を披露し、注目を集めています。しかし、ライブデモの一部は計画通りに進まず、技術的な課題も浮き彫りになりました。 米カリフォルニア州議会が、新たなAI安全法案を可決しました。この法案は、大手テック企業に対し、AIモデル開発における安全性の確保を義務付けるものです。州知事の署名を経て成立すれば、今後のAI開発の方向性に大きな影響を与える可能性があります。規制とイノベーションのバランスが問われることになります。 投資家の間で、今は「ロボット工学の黄金時代」の幕開けではないかとの見方が広がっています。これはAI技術の急速な進化が背景にあります。汎用的なタスクをこなせる人型ロボットなど、新たなスタートアップが登場しており、市場の期待感が高まっています。今後の市場拡大が期待される分野です。 自動運転開発を手がけるWaymo(ウェイモ)と配車サービスのLyft(リフト)が提携し、テネシー州ナッシュビルでロボタクシーサービスを開始します。自動運転技術の商業化と収益化モデルの確立に向けた動きが加速しています。両社の協業が、今後の業界の試金石となるでしょう。 OpenAIサム・アルトマンCEOの弟であるジャック・アルトマン氏が、わずか1週間で2億7500万ドル(約400億円)のアーリーステージ向けファンドを設立しました。アルトマン兄弟は、シリコンバレーにおける影響力を急速に拡大しており、彼らの動向がスタートアップエコシステム全体に与える影響は大きいでしょう。

OpenAI、人型ロボット開発を強化 AGI競争の新局面へ

AI開発をリードするOpenAIが、AGI(汎用人工知能)実現に向けた次の一手として人型ロボット開発を本格化させています。同社は最近、人型ロボット向けAIシステムの専門研究者の採用を開始しました。これは、物理世界でタスクを実行する能力がAGI開発の鍵になるとの認識が業界で高まっていることを示唆します。TeslaやFigure AIなど先行企業との競争が激化しそうです。 なぜ今、人型ロボットなのでしょうか。その理由は、ロボットが人間用に設計された環境で活動できる点にあります。階段を上るなど物理的なタスクを通じた学習が、より高度な知能の獲得につながると考えられています。文章生成は得意でも「コーヒーを淹れる」ことができない現在のAIの限界を超える狙いです。 OpenAIは2021年にロボティクス部門を一度閉鎖しましたが、再びこの分野に注力し始めました。AIの次なるブレークスルーとして、物理世界を理解する「ワールドモデル」の構築が重要視されています。ロボット開発はその鍵を握るプロジェクトと位置づけられているのです。 人型ロボット市場では、すでに多くの企業が開発競争を繰り広げています。TeslaやFigure AI、Boston Dynamicsなどが有力なプレイヤーです。中国のUnitreeは低コストなロボットで市場に参入。OpenAIは先行するハードウェア企業に対し、得意のAIアルゴリズムで優位性を築く戦略です。 人型ロボット市場は2050年までに5兆ドル規模に達するとの予測もあり、期待が高まっています。しかし、SNSで目にする見事なデモ動画は、特定の条件下でしか成功しない場合も少なくありません。未知の環境で安定して動作する信頼性の確保が、実用化に向けた最大の課題と言えるでしょう。 実用化はまず、工場や倉庫といった産業現場から進む見通しです。Amazonは倉庫内で、現代自動車は工場で人型ロボットの試験導入を開始しています。危険で単調な作業の代替が主な目的です。各家庭で活躍する「ロボット執事」の実現はまだ先になりそうです。 今後の技術的な焦点は、ハードとソフトの両面にあります。人間の手のように繊細な作業をこなすハードウェアは依然として難題です。また、未知の状況にも対応できる汎用的なAIモデルも欠かせません。AIの「幻覚」が物理世界で起きないよう、安全性と信頼性の確保が最優先されます。

ロボットの安全性向上へ 3D超音波センサー「ADAR」が6億円調達

新世代の<span class='highlight'>知覚技術</span>

人間空間に進出するロボット安全確保
高周波音波(ADAR)による3D空間把握
LiDARより安価かつ高性能な代替策

LiDARとの<span class='highlight'>優位性</span>

レーザー点状測定に対し空間全体を充填
カメラの弱点を補う高精度な深度知覚
業界標準フォーマットで多様なシステムに連携

<span class='highlight'>市場からの評価</span>

ロボティクス産業安全分野で需要拡大
スケールアップに向け600万ドル調達完了

Sonairは、ロボットの安全性向上を目的とした3D超音波センサー「ADAR (Acoustic Detection and Ranging)」の開発資金として、600万ドル(約9億円超)を調達しました。このオスロ拠点のスタートアップは、従来のLiDAR技術よりも安価かつ包括的に環境を認識できるソリューションを提供し、人間と協働するロボットの普及を加速させます。

ADARセンサーは、高周波の超音波を発信し、その反響を捉えることで周囲の3次元データを取得します。共同創業者兼CEOのサンドヴェン氏は、LiDARがレーザー点状測定であるのに対し、「部屋全体を音で満たす」イメージだと説明し、より信頼性の高い深度知覚を実現します。

ロボットの知覚は通常、カメラに大きく依存しますが、カメラは悪条件下での物体検出に課題があります。ADARは、他のセンサーやカメラでは捉えきれない、高精度な深度情報を提供することで、ロボットのオペレーティングシステムが環境をより正確に把握する手助けをします。

Sonairは今年初めにセンサーをリリースして以来、ロボティクス分野から強い需要を受けています。複数の企業が次期モデルへの組み込みを計画するほか、産業安全セクターでの活用も開始。重機エリアへの侵入者を検知し、自動で機械を停止させる安全対策に貢献しています。

自動運転車の初期と同様に、人型ロボットヒューマノイド)の普及に伴い、安全性が最大の懸念事項となることが確実視されています。投資家たちはこの課題を理解しており、Sonairはカメラのように全てのロボットに搭載される標準センサーとなることを目指しています。

NVIDIAが英国の「AIメーカー」戦略を加速 物理AI・創薬・ロボティクス分野で広範に連携

英国の国家AI戦略を支援

英国のAI機会行動計画を後押し
世界クラスの計算基盤への投資
AI採用を全経済分野で推進
AIユーザーでなくAIメーカーを目指す

重点分野での協業事例

スパコンIsambard-AI」で基盤構築
ロボティクス:自律走行、製造、ヒューマノイド開発
ライフサイエンス:AI創薬デジタルツインを活用

NVIDIA英国のAIエコシステムとの広範なパートナーシップを強調し、英国の国家戦略である「AIメーカー」としての地位確立を強力に支援しています。ジェンスン・ファンCEOの英国訪問に際し、物理AI、ロボティクス、ライフサイエンス、エージェントAIなど最先端領域における具体的な協業事例が公表されました。

英国のAI基盤強化の核となるのは、NVIDIA Grace Hopper Superchipsを搭載した国内最速のAIスーパーコンピューター「Isambard-AI」です。これにより、公的サービスの改善を目指す独自の多言語LLM(UK-LLM)や、早期診断・個別化医療に向けた医療基盤モデル(Nightingale AI)など、重要な国家プロジェクトが推進されています。

特に物理AIとロボティクス分野での応用が加速しています。Extend Roboticsは製造業向けに安全なロボット遠隔操作システムを開発。Humanoid社は倉庫や小売店向けの汎用ヒューマノイドロボットを開発しており、いずれもNVIDIAのJetsonやIsaacプラットフォームが活用されています。

ライフサイエンス分野では、AIによる創薬の加速が目覚ましいです。Isomorphic LabsはAI創薬エンジンを構築し、英国CEiRSIはNVIDIA技術を用いて複雑な患者のデジタルツインを作成。これにより、大規模かつ多様な患者集団に対する新しい治療法のテストを可能にしています。

エージェントAIおよび生成AIのイノベーションも活発です。Aveniは金融サービスに特化したLLMを開発し、コンプライアンスを確保しながら顧客対応やリスク助言を行うエージェントフレームワークを構築しました。ElevenLabsやPolyAIは、超リアルな音声生成や、大規模な顧客サポート自動化を実現しています。

また、AIスキルギャップ解消への取り組みも重要です。技術ソリューションプロバイダーのSCANは、NVIDIA Deep Learning Instituteと連携し、コミュニティ主導型のトレーニングプログラムを展開しています。これにより、英国全土でAIや専門的なワークロードに対応できる人材育成が進められています。

Nothing社、AI特化OSで市場刷新へ 2億ドル調達し来年デバイス投入

事業拡大と資金調達

2億ドルの資金調達を完了
企業評価額13億ドルに到達
流通網拡大とイノベーション加速
初の「AIネイティブデバイス」を来年投入

AI特化OSの戦略

従来と異なるAI特化のOSを開発
スマートフォンからEV、人型ロボットに対応
ユーザーに合わせた超パーソナライズ体験を実現
コンテキストとユーザー知識の活用を重視

ロンドン発の消費者テック企業Nothing社は、2億ドル(約310億円)の資金調達を発表し、評価額を13億ドルに引き上げました。同社は来年、既存の概念を覆す「AIネイティブデバイス」を市場に投入します。これは、従来のOSとは大きく異なる、AIに特化した新しいオペレーティングシステム(AI OS)を基盤とする戦略です。

このAI OSは、スマートフォンやヘッドホンといった既存の製品群に加え、スマートグラス、電気自動車(EV)、さらには人型ロボットまで、将来登場するあらゆるデバイスの頭脳となることを目指しています。ペイCEOは、この特化型OSを通じて、ユーザー一人ひとりに合わせた「超パーソナライズされた体験」を提供できると強調しています。

ペイCEOは、OS開発における独自の強みとして、コンテキストやユーザー知識を持つ「最後の流通接点(ラストマイル)」を握っている点を挙げます。これにより、単なるツールではない、ユーザーの日常生活に深く入り込み、真に役立つAI体験をハードウェアに統合できると説明しています。

Nothing社の挑戦は、過去に大衆市場の支持を得られなかったAIネイティブデバイスという未開拓の領域です。Appleのような大手企業でさえ成功を収めていない上、OpenAIと元Appleデザイナーのジョニー・アイヴ氏が共同開発する競合製品も存在します。Nothing社にとって、需要を創出し、この新たなカテゴリーを確立できるかが最大の試練となります。

卓上ロボット工場が1.5億円調達、人間実演で精密製造を高速学習

超小型・汎用ロボット工場

犬小屋サイズの卓上製造キット
2本のアームを持つ汎用ロボットシステム
回路基板組立など精密製造タスクに特化

革新的な学習アプローチ

人間の実演によるトレーニングを採用
従来のAIプログラミングより迅速に学習
複雑なシーケンスを数時間で習得可能

資金調達と事業目標

プレシードで150万ドルを調達
創業間もないが3000万ドル評価を獲得

サンフランシスコ拠点のスタートアップ、MicroFactoryが、犬小屋サイズの卓上ロボット工場を開発し、プレシードラウンドで150万ドル(約2.3億円)を調達しました。同社は設立間もないながら、ポストマネー評価額3000万ドル(約46億円)を獲得。このロボットシステムは、人間が物理的に動きを教えることで複雑な精密製造タスクを迅速に学習できる点が革新的です。

MicroFactoryのシステムは、従来の人型や工場全体の自動化を目指すロボットとは一線を画します。製品は透明な筐体に収められた卓上型の製造キットで、2本のアームを持つ汎用ロボットを搭載。CEOのイゴール・クラコフ氏は、人間型である必要はなく、設計をシンプルにすることで、ハードウェアとAIの両面で汎用性を高められると説明しています。

このシステムの最大の特徴は、ユーザーが直接ロボットアームをガイドして動作を教える、「人間による実演(Demonstration)」学習です。従来のAIプログラミングに比べ、複雑な製造シーケンスを数時間で正確に理解させることが可能となります。これは、熟練工を雇用し指導する際に費やす時間とリソースを大幅に削減できることを意味します。

このコンパクトなロボット工場は、特に高い精度が要求されるタスク向けに設計されています。具体的には、回路基板の組立、部品のはんだ付け、ケーブルの配線などです。また、エレクトロニクス製造だけでなく、食用カタツムリの加工など、ニッチな分野での多様な事前予約も獲得しており、その汎用性の高さを示しています。

今回調達した資金は、商業製品への移行とユニットの出荷、そしてAIモデルの継続的な改善に充てられます。MicroFactoryは、ハードウェア製造に焦点を当てた成長目標を掲げており、初年度に1,000台のロボット(1日あたり約3台)を生産する能力があると述べています。今後も毎年10倍の成長を目指す計画です。

Hugging Face、ロボット学習用データの大規模ストリーミングに対応

V3.0の主要機能

数百万エピソード対応のスケーラビリティ向上
大容量データをダウンロード不要で処理可能
複数エピソードを単一ファイルに集約(ファイル数削減)
関係メタデータによるエピソード単位の検索

ロボティクスデータ対応

センサー運動、複数カメラフィードなどに対応
PyTorchとのシームレスな統合
時系列データを扱うためのネイティブなウィンドウ操作
実機からシミュレーションまで広範にサポート

Hugging Faceは、ロボット学習向けデータセットフォーマット「LeRobotDataset:v3.0」をリリースしました。これは、数百万エピソードに及ぶ超大規模なロボティクスデータの取り扱いを根本的に改善するものです。旧バージョンで課題だったファイルシステムの制約を克服し、大容量データをディスクにダウンロードせずに処理できるストリーミング機能にネイティブ対応しました。この進化は、ロボティクス分野におけるAI学習の民主化を大きく加速します。

V3.0の最大の設計上の変更点は、スケーラビリティの確保です。従来、エピソードごとにファイルを保存していたため、エピソード数が増加するとファイルシステムに過大な負荷がかかっていました。新フォーマットでは、複数のエピソードを単一のファイルに集約し、リレーショナルメタデータを用いてエピソード単位の情報を効率的に検索します。これにより、大規模データセットの管理が大幅に簡素化されました。

新たに導入されたストリーミング機能は、ロボット学習のアクセシビリティを劇的に向上させます。専用の`StreamingLeRobotDataset`インターフェースを利用することで、ユーザーはテラバイト級のデータをローカルにダウンロードすることなく、Hugging Face Hubから直接データバッチをオンザフライで処理できます。これは、特にリソースが限られた環境での研究開発に貢献します。

データは効率的な構造で保存されます。低次元のセンサーデータやアクションはApache Parquetファイルに、大量のカメラ映像はMP4ファイルに連結・エンコードされます。また、本フォーマットはHugging FaceとPyTorchのエコシステムに統合されており、ロボット学習特有の時系列データのウィンドウ処理(過去の観測のスタック)をネイティブにサポートしている点も特徴的です。

OpenAI、AGIへ「人型ロボットAI」開発を急加速

AGI実現への新経路

AGI実現へ物理世界での行動を重視
LLMの限界を認め新たな研究領域へ移行
人型ロボットAIの汎用化を目標に設定

開発体制と技術基盤

人型ロボット研究の専門家を積極採用
遠隔操作とシミュレーションで訓練
Nvidia Isaacなど開発環境を導入

ハード開発の可能性

試作・構築経験を持つ機械エンジニアを募集
量産化を視野に入れたハードウェア設計を示唆

OpenAIAGI(汎用人工知能)達成に向け、ロボティクス研究を本格的に再加速させています。特に、物理世界との相互作用を可能にする人型ロボットAIの開発に注力するため、スタンフォード大学などから専門家を積極的に採用していることが明らかになりました。これは、既存のLLMモデルの限界を超え、AIを次の段階へ進めるための戦略的な転換です。

同社は、AGIを実現するには、単なる対話や推論能力だけでなく、現実世界でタスクを実行できるアルゴリズムが必要だと判断しました。このため、大規模言語モデル(LLM)の発展がピークに達しつつあると見て、物理的な感覚や運動制御を伴う新たな研究分野に焦点を移しています。

採用された研究者たちは、人型や部分的に人型をしたロボットを制御するAIアルゴリズム開発の専門家です。求人情報からは、ロボットを人間が操作し、その動きをAIが学習するテレイグジスタンス(遠隔操作)シミュレーションを用いた訓練システムの構築を進めていることが分かります。

具体的には、ロボット訓練に広く使われるNvidia Isaacなどの仮想物理環境シミュレーション技術の専門知識が求められています。これにより、現実世界での試行錯誤コストを削減しつつ、AIが複雑な環境に適応する能力を効率的に獲得することが期待されます。

OpenAIが自社でロボットを製造するか、既存のハードウェアを活用するかは不明確です。しかし、求人には、センサー付きロボットシステムの試作・構築経験を持つ機械エンジニアの募集があり、量産(100万台以上)を前提とした設計経験も要求されており、ハードウェアへの深い関与を示唆しています。

このロボティクスへの再参入は、競争が激化する市場への挑戦です。すでにFigureやAgilityなどのスタートアップに加え、テスラやGoogleといった巨大AI企業も人型ロボット開発に大規模な投資を行っています。現時点では、OpenAI「魔法のような優位性はない」との指摘もあり、今後の技術開発競争に注目が集まっています。