OpenAI、Responses APIにWebSocket対応を追加

高速化の仕組み

永続接続で会話状態を再利用
トークン再レンダリングを省略
安全性チェックを差分のみに限定

導入効果

エージェント処理が最大40%高速化
GPT-5.3で1,000TPS超を達成
CodexCursor・Clineが即座に採用
推論高速化の恩恵をユーザーへ直結
詳細を読む

OpenAIは2026年4月22日、Responses APIにWebSocketモードを正式導入したと発表しました。従来のHTTPベースでは、エージェントがツール呼び出しのたびに会話履歴全体を再送信する必要があり、推論速度が向上してもAPIのオーバーヘッドがボトルネックになっていました。WebSocketによる永続接続でこの構造的課題を解消し、エージェントのエンドツーエンド処理を最大40%高速化しています。

技術的には、WebSocket接続のライフタイム内で前回のレスポンス状態をインメモリにキャッシュする設計です。後続リクエストがprevious_response_idを指定すると、サーバーはキャッシュから状態を取得し、トークンの再レンダリングやモデル解決ロジックの再実行を省略します。安全性分類器やバリデーターも差分入力のみを処理するよう最適化されました。

開発の背景には、コーディングエージェントCodex向けの高速モデルGPT-5.3-Codex-Sparkの存在があります。同モデルは専用のCerebrasハードウェア上で1,000TPS超の推論速度を実現しますが、従来のAPI構造ではCPU側の処理がGPUの速度に追いつかない状態でした。WebSocketモードの導入により、本番環境で1,000TPSの目標を達成し、バースト時には4,000TPSも記録しています。

既にVercel AI SDK、Cline、Cursorなど主要な開発ツールがWebSocketモードを統合済みです。Vercelは最大40%、Clineは39%、Cursorは最大30%のレイテンシ改善を報告しています。既存のResponses APIと同じリクエスト・レスポンス形式を維持しているため、開発者はインテグレーションを大幅に書き換えることなく移行できる点も普及を後押ししています。

OpenAIはWebSocketモードを、2025年3月のResponses APIローンチ以来最も重要な機能追加と位置づけています。モデルの推論速度が急速に向上する中、APIインフラ側の最適化がユーザー体験に直結する時代に入ったことを示す事例といえます。