Vertex AI強化、独自AIモデル開発をGoogleが支援

新サービス「Vertex AI Training」

企業独自の大規模モデル開発
マネージドSlurm環境を提供
数百〜数千チップの長期ジョブ
ハードウェア障害から自動復旧

競合との差別化と提供価値

AWS、CoreWeaveに対抗
多様なチップへのアクセス
Gemini開発の専門知識を活用
GPU調達の課題を解決
詳細を読む

Google Cloudが、企業による独自の大規模AIモデル開発を支援する新サービス「Vertex AI Training」を発表しました。AWSや専門プロバイダーのCoreWeaveなどに対抗するもので、マネージドSlurm環境を提供し、大規模な計算資源へのアクセスを容易にします。

このサービスは、単純なファインチューニングやRAG(検索拡張生成)の利用者を対象としていません。ゼロからモデルを構築したり、大幅なカスタマイズをしたりする、数百から数千のチップを要する大規模なトレーニングジョブに焦点を当てています。

最大の特徴は、マネージドSlurm環境にあります。これにより、ジョブのスケジューリングやハードウェア障害発生時の自動復旧が実現します。ダウンタイムを最小限に抑え、大規模クラスタでの効率的なトレーニングを可能にするのです。

なぜ今、このようなサービスが求められるのでしょうか。背景には、企業がモデル開発に必要なGPUを確保する際の熾烈な競争があります。Vertex AI Trainingは、単なる計算資源のレンタルではなく、包括的な開発環境を提供することで競合との差別化を図ります。

Googleは、多様なチップへのアクセスや、自社のGeminiモデル開発で培った専門知識も提供価値として挙げています。既にシンガポールのAI Singaporeなどが早期顧客として名を連ねており、専門的なモデル開発の需要の高まりを示しています。