OpenAI、Codexの安全運用体制を公開
詳細を読む
OpenAIは2026年5月8日、自律型コーディングエージェントCodexを企業環境で安全に運用するためのセキュリティ・ガバナンス体制を公開しました。AIエージェントがリポジトリの確認やコマンド実行を自律的に行う時代に対応し、組織が必要とする制御機能を設計段階から組み込んでいます。
運用の基本方針は、明確な技術的境界の中でエージェントを動作させ、低リスク操作は自動承認で開発者の生産性を維持しつつ、高リスク操作には人間のレビューを必須とすることです。サンドボックスが書き込み先やネットワーク到達範囲を制限し、承認ポリシーが境界外の操作を制御します。自動承認モードでは、サブエージェントが操作内容とコンテキストを評価し、低リスクと判断した操作を自動で承認します。
ネットワーク制御では、既知の安全な接続先のみ許可し、未知のドメインへのアクセスには承認を求めます。認証情報はOSのセキュアキーリングに保存され、ChatGPT Enterpriseのワークスペースレベルで管理されます。シェルコマンドも一律には扱わず、日常的な安全なコマンドは承認不要、危険なコマンドはブロックまたは承認必須とする段階的なポリシーを適用しています。
従来のセキュリティログが「何が起きたか」しか記録しないのに対し、Codexはエージェント固有のテレメトリで「なぜその操作をしたか」まで記録します。ユーザーのプロンプト、ツール承認判断、実行結果、ネットワークポリシーの判定をOpenTelemetry形式で出力し、SIEMやコンプライアンスシステムに統合できます。
OpenAI社内では、エンドポイントアラートとCodexログを組み合わせたAIセキュリティトリアージエージェントを運用しています。異常検知時にユーザーの意図やエージェントの行動履歴を自動分析し、正常な動作・単純なミス・要エスカレーション案件を区別してセキュリティチームに提示します。同じテレメトリは導入状況の把握やツール利用分析にも活用されています。