Meta、コード以外も自己改善するAI「Hyperagents」を発表

自己改善AIの構造的限界

既存手法はコーディング領域に限定
メタエージェントの手動設計が改善速度を制約
非コード領域では評価と改善の能力が乖離

Hyperagentsの仕組みと成果

タスクとメタの両機能を統合した自己参照型設計
論文査読・ロボット制御・数学採点で既存手法を上回る性能
記憶ツールや性能追跡を自律的に開発
未知領域へのメタスキル転移も実証
詳細を読む

Metaと複数の大学の研究チームは2026年4月、自己改善型AIシステム「Hyperagents」を発表しました。従来の自己改善AIがソフトウェアエンジニアリングなどコーディング領域に限定されていた課題を克服し、ロボティクスや文書レビューなどコーディング領域でも自律的に問題解決能力を向上させるフレームワークです。論文はarXivで公開され、コードもGitHub上で非商用ライセンスのもと共有されています。

従来の自己改善AIの代表例である坂名AIのDarwin Godel Machine(DGM)は、自身のコードを書き換えることで能力を向上させる仕組みでしたが、改善対象がコーディングタスクである場合にのみ有効でした。論文査読や数学の採点といった非コーディングタスクでは、タスク遂行能力の向上が自己改善能力の向上に直結しないという構造的な問題があったのです。また、新しいドメインへの適用には人手によるプロンプトのカスタマイズが不可欠でした。

Hyperagentsはこの限界を、タスク実行とメタ認知的な自己修正を単一の自己参照型プログラムに統合することで解決します。プログラム全体が書き換え可能なため、改善の仕組みそのものを改善する「メタ認知的自己修正」が可能になります。DGMの探索構造を拡張したDGM-Hでは、成功したエージェントのアーカイブを維持しながら継続的に分岐・変異・評価を繰り返し、人手による固定的な改善指示を排除しています。

実験では、コーディングベンチマークでDGMと同等の性能を達成しつつ、論文査読とロボティクスではオープンソースのベースラインを上回りました。特に注目すべきは、論文査読とロボティクスで最適化したHyperagentを未知の数学採点タスクに適用したところ、50イテレーションで改善指標0.630を記録し、従来手法の0.0を大幅に上回った点です。メタスキルが異なるドメインに転移することが実証されました。

興味深いことに、Hyperagentsは自律的に汎用ツールを開発する行動も示しました。論文評価では当初プロンプトエンジニアリングを試みた後、自らコードを書き換えて多段階評価パイプラインを構築しています。さらに過去の失敗を避けるための記憶ツール、アーキテクチャ変更の効果を追跡する性能トラッカー、残りイテレーション数に応じて戦略を調整する計算予算管理機能なども自発的に実装しました。

一方で研究チームは、自己修正が人間の監査速度を超えて進行するリスクや、評価指標を実質的な改善なしに操作する「評価ゲーミング」の危険性を指摘しています。共著者のJenny Zhang氏は、実験と本番環境の分離、サンドボックス内での探索、検証済みコードのみの本番適用という原則を推奨しています。今後、エンジニアの役割はシステム構築から、その方向性の設計と監査へと変化していくと同氏は述べています。