NVIDIA、AI向けEthernetに新プロトコルMRCを導入
詳細を読む
NVIDIAは2026年5月6日、AI向けイーサネット基盤「Spectrum-X Ethernet」に新たなRDMAトランスポートプロトコル「MRC(Multipath Reliable Connection)」を導入したと発表しました。MRCは単一のRDMA接続で複数のネットワーク経路にトラフィックを分散させる技術で、大規模AI学習環境でのスループット向上、負荷分散、可用性の改善を実現します。OpenAI、Microsoft、Oracleがすでに実運用環境に導入しています。
OpenAIのSachin Katti氏は「Blackwell世代でのMRC導入は非常に成功した」と述べ、ネットワーク起因の学習遅延や中断を回避できたと評価しています。MicrosoftのFairwaterデータセンターやOracleのAbileneデータセンターなど、フロンティアLLMの学習・推論を目的とした大規模AI工場でもMRCが採用されています。データロスが発生した際にはインテリジェントな再送機能が高速かつ精密に復旧を行い、GPUのアイドル時間を最小限に抑えます。
MRCの大きな強みは、マイクロ秒単位でネットワーク経路の障害を検知し、ハードウェアレベルで自動的にトラフィックを迂回させる点です。数千台のGPUが同期する学習クラスタでは、わずかなネットワーク障害が全体の遅延につながるため、この高速復旧能力は極めて重要です。さらにマルチプレーンネットワーク設計により、数十万GPU規模までの拡張が可能になります。
MRCの仕様はOpen Compute Projectを通じてオープンに公開されました。NVIDIAはAMD、Broadcom、Intel、Microsoft、OpenAIと共同で開発を進めており、業界標準としての普及を目指しています。Spectrum-X Ethernetプラットフォーム上ではMRCのほか、Adaptive RDMAなど複数のトランスポートモデルを選択でき、ワークロードに応じた柔軟な構成が可能です。