Inception Mercury 2がVercel AI Gatewayで提供開始

Mercury 2の特徴

推論品質をリアルタイム遅延で実現
エージェント・コード補助・音声に最適
RAGパイプラインの遅延累積を解消

AI Gatewayの機能

統合APIでモデル呼び出しを一元管理
自動リトライとフェイルオーバー対応
オブザーバビリティ機能を標準搭載
自前APIキーの持ち込みに対応
プロバイダルーティングで高可用性確保
詳細を読む

Inceptionが開発した大規模言語モデル「Mercury 2」が、VercelAI Gatewayを通じて利用可能になりました。AI SDKでモデル名を「inception/mercury-2」と指定するだけで呼び出すことができます。

Mercury 2の最大の特徴は、推論グレードの品質をリアルタイムの低遅延で提供できる点です。エージェントループやコーディングアシスタント音声インターフェースなど、応答速度が重要な用途に適しています。

特にRAGパイプラインのように複数のLLM呼び出しが連鎖する処理では、各ステップの遅延が累積してボトルネックとなります。Mercury 2はこの課題を低遅延性能で解決し、実用的な応答時間を維持します。

Vercel AI Gatewayは、複数のモデルプロバイダを統合APIで利用できるサービスです。使用量やコストの追跡、リトライ・フェイルオーバーの自動設定により、プロバイダ単体を上回る稼働率を実現します。

同サービスにはオブザーバビリティ機能やBYOK(自前キー持ち込み)サポートも組み込まれています。モデルのリーダーボードやプレイグラウンドも公開されており、導入前の比較検証が容易です。