自社AIのGPUコストを最大7割削減、ScaleOps新製品
出典:VentureBeat
詳細を読む
ScaleOpsは、企業が自社で運用するLLMやAIアプリのインフラコストを劇的に削減する新製品「AI Infra Product」を発表しました。本製品はGPUリソースの管理を自動化し、コストを最大70%削減しながら、パフォーマンスの安定化を実現するものです。
企業が直面する最大の課題は、高価なGPUリソースの「低稼働率」と「管理の複雑さ」です。新製品はトラフィック変動に応じてリアルタイムでGPUを割り当て、不要な容量を削減します。これにより、エンジニアは手動での調整作業から解放され、生産性を高められます。
既存システムへの導入障壁が極めて低い点も大きな特徴です。アプリケーションコードやインフラ設定の変更は一切不要で、Kubernetesや主要クラウド、オンプレミス環境にシームレスに統合できます。わずか数分の設定で、既存のCI/CDツールと連携し稼働を開始します。
実際の導入効果も顕著です。ある大手ソフトウェア企業ではGPU支出を半分以下に抑えつつ、遅延を35%削減しました。また、大規模なゲーム会社ではGPU稼働率を7倍に引き上げ、年間140万ドルのコスト削減を見込むなど、高い投資対効果が実証されています。