NVIDIA、AI向けS3ストレージをRDMAで高速化
AIストレージの課題と解決策
急増する非構造化データ
従来のTCP通信の限界
S3をRDMAで直接高速化
新技術がもたらす4大メリット
スループット向上と低遅延
CPU負荷の大幅な軽減
AIストレージのコスト削減
ワークロードの可搬性向上
出典:NVIDIA公式
詳細を読む
NVIDIAは2025年11月14日、AIワークロード向けにS3互換オブジェクトストレージを高速化する新技術を発表しました。この技術は、RDMA (Remote Direct Memory Access) を活用し、従来のTCP通信に比べデータ転送を高速化・効率化することで、急増するAIデータの処理性能向上という課題に応えます。
なぜ今、この技術が必要なのでしょうか。企業が生成するデータ量は2028年までに年間400ゼタバイトに達すると予測され、その9割が非構造化データです。AIの学習には高速なデータアクセスが不可欠ですが、既存のオブジェクトストレージでは性能がボトルネックとなるケースがありました。
今回の解決策は、RDMAを用いてS3プロトコルのデータ転送を直接メモリ間で行うものです。これにより、データ転送がホストCPUを介さないため、CPU使用率を大幅に削減できます。空いたCPUリソースをAI処理に割り当てることで、システム全体の価値向上に繋がります。
具体的なメリットとして、ストレージあたりのスループット向上と大幅な低遅延化が挙げられます。これはAIの学習や推論、特にベクトルデータベースなどの処理速度を直接的に向上させます。また、ストレージコストの削減にも貢献し、AIプロジェクトの導入を加速させるでしょう。
NVIDIAはこの技術をオープンなアーキテクチャとして提供し、パートナー企業との連携を強化しています。既にCloudian、Dell Technologies、HPEといった主要ベンダーが採用を表明。新ライブラリはCUDAツールキット経由で来年1月に一般提供される予定です。