NVIDIAとGoogle Cloud、AI工場基盤で協業拡大

次世代インフラ整備

Vera Rubin搭載A5Xを発表
推論コスト前世代比10分の1
最大96万GPU規模に拡張可能
OpenAIが大規模推論で採用

エージェントAIと産業AI

Nemotron 3をAgent基盤で提供
強化学習のマネージドAPI公開
Omniverseデジタルツイン構築
ロボット訓練からデプロイまで一貫
詳細を読む

NVIDIAGoogle Cloudは、Google Cloud Next 2026において、AIファクトリー向けインフラの大幅な拡充を発表しました。10年以上にわたる協業の成果として、エージェントAIとフィジカルAIの本番環境への展開を加速する新たなマイルストーンとなります。両社はチップからソフトウェアまでフルスタックで共同設計したプラットフォームを提供し、開発者やエンタープライズのAI活用を支援します。

インフラ面では、次世代Vera Rubin NVL72を搭載したA5Xベアメタルインスタンスが発表されました。前世代と比較して推論コストを10分の1、メガワットあたりのトークンスループットを10倍に改善します。単一サイトで最大8万GPU、マルチサイトでは最大96万GPUへのスケーリングが可能です。

Blackwellプラットフォームでは、A4からA4X Maxまで幅広いVMラインナップを揃えました。OpenAIChatGPT推論ワークロードにGB300およびGB200 NVL72システムを採用するなど、フロンティアAIラボによる実運用が進んでいます。また、機密コンピューティング対応のConfidential G4 VMも発表され、規制産業向けにプロンプトやモデルの暗号化保護を実現しました。

エージェントAI領域では、Nemotron 3 SuperGemini Enterprise Agent Platformで利用可能になりました。NeMo RLベースのマネージド強化学習APIも導入され、クラスタ管理を自動化しながら大規模なRL訓練を実行できます。CrowdStrikeがサイバーセキュリティ向けにNeMoライブラリを活用するなど、実用事例も広がっています。

フィジカルAI分野では、OmniverseライブラリとIsaac SimがGoogle Cloud Marketplaceで提供され、デジタルツインの構築やロボットシミュレーションが可能になりました。Cosmos Reason 2などのNIM マイクロサービスをVertex AIにデプロイすることで、ロボットやビジョンAIエージェントが物理世界で推論・行動できる基盤が整います。SnapやSchrödingerなど大企業からスタートアップまで、9万人超の開発者コミュニティがこのプラットフォームを活用しています。