Ai2、推論強化の「Olmo 3.1」公開。完全オープンで高性能

強化学習の拡張で推論力を強化

強化学習期間を延長し性能向上
数学推論の指標でスコア急増
ThinkモデルはQwen 3を凌駕

企業のAI活用を支える高い透明性

学習データや過程が完全オープン
自社データでの再学習が容易
Hugging Face等ですぐに利用可能
詳細を読む

米Allen Institute for AI (Ai2) は、最新の大規模言語モデル「Olmo 3.1」をリリースしました。既存モデルに対し強化学習(RL)の期間を延長することで、数学推論や指示追従の能力を大幅に引き上げています。中身を完全オープンにすることで、企業利用における信頼性と制御性を担保した点が最大の特徴です。

特に注目すべきは、高度な研究用途に最適化された「Olmo 3.1 Think 32B」です。研究チームは224個のGPUを使用し、さらに21日間の追加トレーニングを実施。その結果、数学等のベンチマークでスコアが5ポイント以上向上するなど、複雑なタスクでの性能が飛躍し、競合のQwen 3を凌駕する実力を示しています。

実務向けには「Olmo 3.1 Instruct 32B」が用意されました。こちらはチャット、ツール使用、複数回のやり取り(マルチターン)に最適化されています。7Bモデルで培った手法を大規模モデルに適用し、実社会でのアプリケーション構築に耐えうる即戦力モデルへと進化しました。

Ai2の一貫した強みは、開発プロセスの透明性です。学習データやコード、トレーニング決定のすべてが開示されており、企業はモデルの挙動を深く理解した上で、自社データを用いたカスタマイズが可能になります。生成結果の根拠を追跡できる点も、ビジネス利用における大きな安心材料となるでしょう。

現在、これらのモデルはAi2 PlaygroundやHugging Faceを通じて利用可能です。APIアクセスも近日中に提供される予定であり、エンジニアや研究者にとって、高性能かつ透明性の高い新たな選択肢となります。