Anthropic、Claude性能低下の原因を公表し修正
詳細を読む
2026年4月初旬から、開発者やパワーユーザーの間でAnthropicのフラッグシップモデルClaudeの性能が低下しているとの報告が相次いでいた。GitHubやX、Redditでは「AI shrinkflation」と呼ばれる現象が話題となり、推論能力の低下やハルシネーションの増加、トークンの無駄遣いが指摘されていた。AMDのシニアディレクターが6,852件のセッションファイルを分析した詳細な監査や、第三者ベンチマークでの精度低下も報告され、信頼性への懸念が高まっていた。
Anthropicは4月23日、技術的なポストモーテムを公表し、モデルの重み自体は変更されていないことを明確にした上で、モデルを取り巻く「ハーネス」層における3つの変更が原因であったと説明しました。第一に、3月4日にUI遅延対策としてClaude Codeのデフォルト推論レベルを「high」から「medium」に変更したことで、複雑なタスクでの知能が低下しました。第二に、3月26日に導入されたキャッシュ最適化にバグがあり、1時間の非アクティブ後に思考履歴を1回だけ消去する設計が、以降の全ターンで消去される誤動作を起こしていました。
第三の原因は、4月16日にシステムプロンプトへ追加された文字数制限です。ツール呼び出し間のテキストを25語以内、最終応答を100語以内に抑える指示がOpus 4.7のコーディング品質を3%低下させました。これらの問題はClaude Code CLIだけでなく、Claude Agent SDKやClaude Coworkにも影響していましたが、Claude APIには影響がなかったとのことです。
Anthropicは問題の修正として、推論レベルの変更と冗長性制限プロンプトを元に戻し、キャッシュバグをv2.1.116で修正しました。再発防止策として、社内スタッフが公開版と同一のビルドを使用する義務化、システムプロンプト変更ごとのモデル別評価の実施、プロンプト変更の監査を容易にする新ツールの導入を発表しました。また、バグによるトークン浪費への補償として、全有料会員の使用量制限をリセットしています。今後は@ClaudeDevsアカウントやGitHubスレッドを通じて、製品変更の透明性を高めていく方針です。