Google、第8世代TPUを訓練用と推論用の2チップ体制に刷新
詳細を読む
Googleは4月22日、Cloud Nextカンファレンスで第8世代TPU(Tensor Processing Unit)を発表しました。従来の単一チップ路線を転換し、訓練専用のTPU 8tと推論専用のTPU 8iの2チップ体制へ移行します。エージェントAI時代の異なるワークロード要件に対応するため、2024年にロードマップの分割を決断したと、同社SVPのAmin Vahdat氏が明かしました。
TPU 8tは大規模モデル訓練に特化し、1ポッドあたり9,600チップ、2ペタバイトの共有HBMを搭載します。前世代Ironwoodの約3倍となる121 FP4 EFlopsの演算性能を実現し、新開発のVirgoネットワークにより100万チップ超を単一論理クラスタとして接続可能です。フロンティアモデルの訓練期間を数カ月から数週間に短縮することを目指します。
TPU 8iはエージェントAIの推論ワークロードに最適化されています。288GBのHBMに加え、前世代の3倍となる384MBのオンチップSRAMを搭載し、大規模なKVキャッシュをチップ上に保持できます。新設計のBoardflyトポロジーでネットワーク径を50%以上削減し、リアルタイム推論のレイテンシを最大5倍改善しました。1ポッドあたり1,152チップで、前世代比80%の性能対コスト向上を実現します。
両チップとも自社設計のAxion ARMベースCPUをホストに採用し、前世代比2倍の電力効率を達成しました。Googleはシリコンからデータセンターまでの垂直統合設計により、OpenAIやAnthropicなどNvidia GPUに依存する競合が支払う「Nvidia税」を回避できる点を強調しています。JAX、PyTorch、SGLang、vLLMなど主要フレームワークをサポートし、ベアメタルアクセスも提供します。
両TPUの一般提供は2026年後半を予定しています。現時点ではGoogle自社ベンチマークのみで、独立した第三者検証はこれからです。また、CUDA/PyTorchエコシステムからの移行コストは依然として考慮すべき要素です。Citadel Securitiesなど先進企業がTPU採用を表明しており、フロンティアAI開発の競争軸が「GPUの調達力」から「スタック全体の設計力」へ移行しつつあることを示す発表となりました。