Arceeが米国製オープンソース400Bモデルを公開
Trinity-Largeの概要
性能と市場での位置づけ
詳細を読む
米Arcee AIは2026年4月、399億パラメータのオープンソース推論モデル「Trinity-Large-Thinking」をApache 2.0ライセンスで公開しました。テキスト専用のMixture-of-Experts構成で、推論時にはわずか130億パラメータしか使わず、同規模モデルの2〜3倍の速度で動作します。
サンフランシスコ拠点の30人チームが開発を担い、総調達額約5000万ドルのうち2000万ドルを33日間の訓練に投入しました。NVIDIAの最新Blackwell GPU 2048基を使用し、20兆トークンのデータで学習しています。合成データとキュレーション済みWebデータを半々で構成し、著作権リスクの低減にも注力しています。
エージェント系タスクの評価指標PinchBenchでは91.9を記録し、プロプライエタリ首位のClaude Opus 4.6(93.3)に肉薄しました。IFBenchでも52.3対53.1と僅差です。一方でSWE-bench Verifiedでは63.2対75.6と差があり、コーディング領域では課題が残ります。
最大の差別化要因は価格です。出力100万トークンあたり0.90ドルで、Opus 4.6の25ドルと比べ約96%安価です。OpenRouterでは米国で最も利用されるオープンモデルとなり、ピーク時には1日806億トークンを処理しています。
オープンソースAI市場では、中国のQwenやz.aiがプロプライエタリ路線へ転換し、MetaもLlama 4の品質問題を受けフロンティア競争から後退しました。400B以上の高性能オープンモデルの空白が生じており、Arceeはその需要を満たす「米国製オープンウェイト」の旗手を目指しています。
規制産業向けには、instruction tuning前の生チェックポイント「TrueBase」も公開されました。金融や防衛分野での監査やカスタムアライメントに活用でき、ブラックボックスを排除した透明性の高い運用が可能です。今後はTrinity Largeの知見をMini・Nanoモデルへ蒸留する計画です。