MITが小型LM協調推論フレームワーク「DisCIPL」発表

仕組みと特徴

大型LLMがプランナー、複数の小型LMが並列で実行する協調型フレームワーク
確率的プログラミング言語「LLaMPPL」でルールをコード化し制約を正確に伝達
GPT-4oがプランナー、MetaLlama-3.2-1Bモデル群がフォロワーとして動作
推論をテキストではなくPythonコードで表現し処理を大幅に圧縮
理論上は規模を問わず数十台のLMを並列接続可能なスケーラブル設計
フォロワーモデルは主力推論モデルと比べ1,000〜10,000倍安価なトークン単価

性能とコスト優位性

o1比で推論長を**40.1%短縮**、コストを**80.2%削減**する高効率を実証
文字数・単語配置などの厳格な制約付きライティングでo1に匹敵する精度を達成
旅行プラン・食材リスト・助成金申請など実務タスクでもGPT-4oを上回る成績
小型LM単独ベースラインは全タスクで最下位となり協調設計の有効性を裏付け
Conference on Language ModelingおよびIVADOワークショップで発表済み
今後は完全再帰型・数学推論・ファジー制約への拡張を計画
詳細を読む

MITのCSAIL研究チームは、大型言語モデルと小型言語モデルを組み合わせた新しい推論フレームワーク「DisCIPL」を発表しました。同フレームワークは、大型モデルが計画を立案し、その指示を小型モデル群に分配して並列処理させるという分業構造を採用しています。

DisCIPLの核心にあるのは、MITの確率的コンピューティングプロジェクトが2023年に開発したプログラミング言語「LLaMPPL」です。このツールを使うことで、大型モデルは制約条件をコードとして正確に小型モデルへ伝えることができます。

実験では、GPT-4oをプランナーとして採用し、MetaLlama-3.2-1Bモデルを複数のフォロワーとして組み合わせました。このチームがGPT-4o単体やo1といった最先端モデルと比較評価されました。

コスト面での優位性は顕著です。o1と比べて推論の長さを40.1%、コストを80.2%削減できることが確認されました。フォロワーとして使う小型モデルのトークン単価が主力推論モデルの1,000〜10,000分の1である点が効率化の主要因です。

精度においても、指定した位置に特定の単語を含む文章生成など厳格な制約付きタスクでo1に匹敵する結果を示しました。旅行日程の作成や字数制限付き文書の作成といった実務的なタスクでもGPT-4oを上回る成績を収めています。

研究チームは今後、同一モデルをリーダーとフォロワーの両方に使う完全再帰型アーキテクチャへの発展を目指しています。また、数学推論タスクや、コードで明示的に表現しにくいファジーな好みへの対応も検討しています。