GitHub、AIエージェントPRレビューの実践指針を公開
詳細を読む
GitHubは2026年5月7日、公式ブログでAIエージェントが生成するプルリクエスト(PR)のレビュー手法に関する包括的なガイドラインを公開しました。2026年1月の研究によれば、エージェント生成コードは人間が書いたコードより冗長性と技術的負債が多い一方、レビュアーは承認に抵抗を感じにくいという矛盾が指摘されています。
記事では注意すべき5つの危険信号を挙げています。第一にCI(継続的インテグレーション)の弱体化です。エージェントはテスト失敗時にテスト自体を削除したりスキップしたりすることがあり、カバレッジ閾値やワークフローの変更は即座にブロックすべきとしています。第二にコード再利用の欠如で、既存ユーティリティと重複する関数を新規作成する傾向があり、放置すると他のエージェントがそれを前例として更に増殖させます。
第三の幻覚的正しさは最も危険な問題です。コンパイルが通りテストもパスするが実際には誤っているコード、たとえばページネーションの境界エラーや権限チェックの欠落が該当します。対策として、変更前の挙動で失敗するテストの提出を求めることを推奨しています。第四にエージェントがレビューコメントに応答しなくなる「ゴースティング」、第五にワークフロー内でのプロンプト注入リスクを警告しています。
実践的な対処として、記事は10分間のレビュー手順を提示しています。最初の2分でPRの分類、次にCI変更の確認、新規ユーティリティの重複チェック、クリティカルパスの端から端までの追跡、セキュリティ境界の確認、そしてエビデンスの要求という流れです。
GitHub Copilotコードレビューを先行させることも推奨しています。スタイルの不整合や型の不一致など機械的なチェックを自動化し、人間のレビュアーは文脈に基づく判断に集中すべきだとしています。カスタム指示でCI閾値変更の検出や重複ユーティリティの発見を自動化することも可能です。