小型AIがGPT-4o並みに MIT新手法で推論コスト8割減

リーダーと部下の分業で最適化

MITが新手法DisCIPLを開発
LLMが計画し小型モデルが実行を担当
制御言語LLaMPPLで厳密に指示

コード生成で推論コストを激減

推論コストを80.2%削減し効率化
OpenAIo1と同等の精度達成
複雑な制約のある実務タスクに対応
詳細を読む

米マサチューセッツ工科大学(MIT)の研究チームは2025年12月12日、小型言語モデル(SLM)の能力を飛躍的に高める新フレームワーク「DisCIPL」を発表しました。大規模言語モデル(LLM)が「計画」を担い、複数の小型モデルが「実行」を行う協調システムにより、OpenAIの最新モデル「o1」に匹敵する推論精度と、約8割のコスト削減を実現しています。

DisCIPLの仕組みは、組織における「上司と部下」の関係に似ています。まず、高性能なLLM(例:GPT-4o)がタスクの全体計画を立て、MITが開発した制御用言語「LLaMPPL」を用いて厳密な指示書を作成します。次に、軽量な小型モデル(例:Llama-3.2-1B)がその指示に従い、並列処理で実作業を行うことで、単体では困難な複雑なタスクを遂行します。

特筆すべきは、その圧倒的なコストパフォーマンスです。従来の推論モデルが思考プロセスを長文テキストで出力するのに対し、DisCIPLはPythonコードを用いて効率的に処理を行います。実験の結果、推論にかかる記述量を40.1%短縮し、全体コストを80.2%削減することに成功しました。これは企業のAI運用コストを劇的に下げる可能性を示唆しています。

研究チームは、この手法がAIのエネルギー消費問題への有効な解になると期待しています。高価なLLMだけに依存せず、安価で高速な小型モデルを組み合わせて高度な推論を実現するアプローチは、スケーラビリティが高く、ビジネスへの実装に適しています。今後は数学推論への応用や、より曖昧な人間の好みを反映させる研究が進められる予定です。