Google、第8世代TPUを訓練用と推論用の2チップ体制に刷新

訓練特化のTPU 8t

前世代比約3倍の121EFlops
100万チップ超の単一クラスタ構成
97%のgoodputで訓練効率最大化

推論特化のTPU 8i

Boardflyで低遅延ネットワーク実現
オンチップSRAM3倍でエージェント処理高速化
性能対コスト80%改善

垂直統合の競争優位

自社設計でNvidia税を回避
Axion ARM CPU搭載で電力効率2倍
詳細を読む

Googleは4月22日、Cloud Nextカンファレンスで第8世代TPU(Tensor Processing Unit)を発表しました。従来の単一チップ路線を転換し、訓練専用のTPU 8t推論専用のTPU 8iの2チップ体制へ移行します。エージェントAI時代の異なるワークロード要件に対応するため、2024年にロードマップの分割を決断したと、同社SVPのAmin Vahdat氏が明かしました。

TPU 8tは大規模モデル訓練に特化し、1ポッドあたり9,600チップ、2ペタバイトの共有HBMを搭載します。前世代Ironwoodの約3倍となる121 FP4 EFlopsの演算性能を実現し、新開発のVirgoネットワークにより100万チップ超を単一論理クラスタとして接続可能です。フロンティアモデルの訓練期間を数カ月から数週間に短縮することを目指します。

TPU 8iはエージェントAIの推論ワークロードに最適化されています。288GBのHBMに加え、前世代の3倍となる384MBのオンチップSRAMを搭載し、大規模なKVキャッシュをチップ上に保持できます。新設計のBoardflyトポロジーでネットワーク径を50%以上削減し、リアルタイム推論レイテンシを最大5倍改善しました。1ポッドあたり1,152チップで、前世代比80%の性能対コスト向上を実現します。

チップとも自社設計のAxion ARMベースCPUをホストに採用し、前世代比2倍の電力効率を達成しました。Googleはシリコンからデータセンターまでの垂直統合設計により、OpenAIAnthropicなどNvidia GPUに依存する競合が支払う「Nvidia税」を回避できる点を強調しています。JAX、PyTorch、SGLang、vLLMなど主要フレームワークをサポートし、ベアメタルアクセスも提供します。

TPUの一般提供は2026年後半を予定しています。現時点ではGoogle自社ベンチマークのみで、独立した第三者検証はこれからです。また、CUDA/PyTorchエコシステムからの移行コストは依然として考慮すべき要素です。Citadel Securitiesなど先進企業がTPU採用を表明しており、フロンティアAI開発の競争軸が「GPUの調達力」から「スタック全体の設計力」へ移行しつつあることを示す発表となりました。