AIは自らを改良できるか、再帰的自己改善の現在地

自己改善の現状

GPT-5.3が自身の開発に貢献
Anthropicのコードの大半をClaude Codeが記述
AlphaEvolveがアルゴリズム発見を自動化

技術的・社会的な壁

AI研究者の能力はまだ人間に及ばず
複雑化による損失的自己改善の指摘
暗黙知や物理制約が完全自律を阻む

リスクと展望

専門家25人中23人が知能爆発を否定せず
AI安全研究者が開発の一時停止を提唱
詳細を読む

IEEE Spectrumは2026年5月7日、AIが自らを再帰的に改良する「再帰的自己改善(RSI)」の現状と展望を検証する詳報を掲載しました。1966年にI. J. Goodが提唱した「知能爆発」の概念が、大規模言語モデルの急速な進化により現実味を帯びつつある状況を、複数の研究者への取材を通じて多角的に分析しています。

現時点で自己改善の要素は着実に進んでいます。OpenAIGPT-5.3-Codexが自身の開発に貢献したと報告し、Anthropicはコードの大半をClaude Codeが記述していると主張しています。Google DeepMindAlphaEvolveはLLMを用いてアルゴリズムの進化的探索を行い、人間の直感では到達できなかった発見を実現しました。ただし、いずれも目標設定や評価は人間が担っています。

一方で、完全な自律ループの実現には大きな壁があります。Allen Institute for AIのNathan Lambert氏は、システムの複雑化に伴い改善の効果が逓減する「損失的自己改善(LSI)」を提唱しました。TSMCの9万人の従業員が持つ集合知のように、知識は分散し暗黙的であるため、一つのAIに集約することは困難です。Metaの研究者らは、人間を含めた「共改善」こそがより現実的で安全な目標だと主張しています。

リスクの観点では、AI専門家25人への聞き取り調査で23人が知能爆発の可能性を排除しませんでした。AI安全非営利団体Evitableの創設者Krueger氏は、コードの99%がAIに書かれる段階を開発停止の基準として提案し、その時期が近いと警鐘を鳴らしています。

RSIの将来像について、研究者らは単一の巨大AIではなく、多様なエージェントが進化的に共存する「人工知能の社会」を予測しています。人間の研究者は段階的に役割を変え、最終的には監督者としての地位を維持すべきだとされています。経営者エンジニアにとっては、AI開発への投資判断や規制対応において、RSIの進展度合いを正確に見極めることが重要になります。