AIは自らを改良できるか、再帰的自己改善の現在地
技術的・社会的な壁
詳細を読む
IEEE Spectrumは2026年5月7日、AIが自らを再帰的に改良する「再帰的自己改善(RSI)」の現状と展望を検証する詳報を掲載しました。1966年にI. J. Goodが提唱した「知能爆発」の概念が、大規模言語モデルの急速な進化により現実味を帯びつつある状況を、複数の研究者への取材を通じて多角的に分析しています。
現時点で自己改善の要素は着実に進んでいます。OpenAIはGPT-5.3-Codexが自身の開発に貢献したと報告し、Anthropicはコードの大半をClaude Codeが記述していると主張しています。Google DeepMindのAlphaEvolveはLLMを用いてアルゴリズムの進化的探索を行い、人間の直感では到達できなかった発見を実現しました。ただし、いずれも目標設定や評価は人間が担っています。
一方で、完全な自律ループの実現には大きな壁があります。Allen Institute for AIのNathan Lambert氏は、システムの複雑化に伴い改善の効果が逓減する「損失的自己改善(LSI)」を提唱しました。TSMCの9万人の従業員が持つ集合知のように、知識は分散し暗黙的であるため、一つのAIに集約することは困難です。Metaの研究者らは、人間を含めた「共改善」こそがより現実的で安全な目標だと主張しています。
リスクの観点では、AI専門家25人への聞き取り調査で23人が知能爆発の可能性を排除しませんでした。AI安全非営利団体Evitableの創設者Krueger氏は、コードの99%がAIに書かれる段階を開発停止の基準として提案し、その時期が近いと警鐘を鳴らしています。
RSIの将来像について、研究者らは単一の巨大AIではなく、多様なエージェントが進化的に共存する「人工知能の社会」を予測しています。人間の研究者は段階的に役割を変え、最終的には監督者としての地位を維持すべきだとされています。経営者やエンジニアにとっては、AI開発への投資判断や規制対応において、RSIの進展度合いを正確に見極めることが重要になります。