Hugging Face(企業)に関するニュース一覧

アラビア語LLM評価基盤QIMMAが公開

品質検証を先行する新手法

評価前にベンチマーク品質を検証
2つのLLMと人間レビューの多段階審査
109サブセット・5.2万サンプル統合
既存ベンチマークの体系的欠陥を発見

初のコード評価と透明性

アラビア語初のコード生成評価を搭載
全サンプルの推論出力を公開
99%がネイティブアラビア語コンテンツ
7ドメイン・46モデルを網羅的に評価

UAE Technology Innovation Institute(TII)の研究チームは2026年4月21日、アラビア語LLMの評価基盤「QIMMA」をHugging Face上で公開しました。QIMMAはアラビア語で「頂上」を意味し、既存ベンチマークの品質を検証してからモデル評価を行う「品質第一」のアプローチを採用しています。14のソースベンチマークから109サブセット、5万2000以上のサンプルを統合した包括的な評価スイートです。

従来のアラビア語ベンチマークには、英語からの翻訳による文化的不整合、アノテーションの不一致、誤った正解ラベルなどの体系的な品質問題が存在していました。QIMMAでは評価の前段階として、Qwen3-235BとDeepSeek-V3の2つの大規模モデルによる自動審査と、ネイティブ話者による人間レビューを組み合わせた多段階検証パイプラインを構築しています。

検証の結果、ArabicMMLUでは3.1%、MizanQAでは2.3%のサンプルが品質基準を満たさず除外されました。コードベンチマークでは、HumanEval+の88%、MBPP+の81%のアラビア語問題文に修正が必要と判明し、既存評価の信頼性に疑問を投げかけています。

リーダーボードの初期結果では、Qwen3.5-397Bが平均68.06点で首位、アラビア語特化のKarnakが66.20点で2位、Jais-2-70Bが65.81点で3位となりました。注目すべきは、モデルサイズと性能が必ずしも比例しない点で、32Bパラメータのモデルが70B以上のモデルを特定ドメインで上回るケースが確認されています。

QIMMAはオープンソース、ネイティブアラビア語コンテンツ、品質検証、コード評価、推論出力公開の5要素を兼ね備えた唯一のプラットフォームです。アラビア語は4億人以上の話者を持ちながらNLP評価の整備が遅れており、信頼性の高い評価基盤の登場は、同言語圏でのLLM開発・選定に大きな影響を与えると見られます。

Kimi K2.6が数日間稼働するAIエージェントを実現

長時間エージェントの実力

最長5日間の自律稼働を実証
300サブエージェント・4000ステップ同時実行
SySYコンパイラを10時間で構築
8年物のOSSコードを13時間で刷新

オーケストレーションの課題

既存フレームワークは短時間前提の設計
状態管理とロールバックが未整備
ガバナンスが導入速度に追いつかず
エージェント専用インフラの概念が未成熟

中国のAIスタートアップMoonshot AIは2026年4月、新モデルKimi K2.6を発表しました。同モデルは長時間にわたり自律的に稼働するAIエージェントを想定して設計されており、社内テストでは最長5日間の連続実行に成功しています。モデルはHugging Face、API、Kimi Codeなどを通じて公開されました。

Kimi K2.6の特徴は、独自の「Agent Swarms」アーキテクチャにあります。最大300のサブエージェントが4000ステップを同時に処理でき、事前定義された役割ではなくモデル自身がオーケストレーションを判断します。AnthropicClaude CodeOpenAICodexも長時間エージェントを模索していますが、K2.6はより動的な制御を目指しています。

実証実験では、SySYコンパイラを10時間で一から構築し、140件の機能テストをすべて通過しました。Moonshot AIはこれを「エンジニア4人が2カ月かかる作業に相当する」と説明しています。また、8年間運用されたオープンソースの金融マッチングエンジンの改修では、13時間で12の最適化戦略を試行し、1000回以上のツール呼び出しで4000行超のコードを修正しました。

一方、長時間稼働するエージェントは既存のオーケストレーション基盤の限界を露呈させています。大半のフレームワークは数秒から数分の実行を前提に設計されており、環境変化に応じた状態管理や障害時のロールバックが十分に整備されていません。専門家は「エージェントランタイム」「エージェントゲートウェイ」「エージェントメッシュ」といった新たなインフラ概念の必要性を指摘しています。

セキュリティ企業ArmorCodeのMark Lambert氏は、AIエージェントがコードやシステム変更を生成する速度が組織のレビュー能力を超えつつあると警告しています。F5のKunal Anand氏も、エージェントが「永続的インフラ」として機能する時代に入ったと述べ、APIゲートウェイのパターン自体が目標やワークフローを理解する形へ進化する必要があると指摘しました。

Hugging Faceがオープン性こそAIサイバー防御の鍵と主張

Mythos後のAI防御戦略

オープンなツールが防御側の能力格差を縮小
AI脆弱性発見はモデル単体でなくシステム全体に依存
閉鎖的コードは単一障害点になるリスク

半自律エージェントの活用

人間が制御を保つ半自律型が最適解
オープンな構成要素で監査可能性を確保
組織内インフラでの自社運用を推奨

高リスク組織への提言

オープンな脅威モデル共有が防御力を底上げ
孤立した独自防御は攻撃者に対抗不能

Hugging Faceは2026年4月21日、AIサイバーセキュリティにおけるオープン性の重要性を訴えるブログ記事を公開しました。AnthropicMythosがFirefoxの脆弱性を大量に発見した事例を受け、AI防御の在り方を論じています。同社はMargaret Mitchell氏、Yacine Jernite氏、CEO Clem氏の連名で、オープンなエコシステムが防御側に構造的優位をもたらすと主張しています。

記事の核心は、Mythosの成果がモデル単体ではなく大規模計算資源・専用スキャフォールディング・自律的動作を組み合わせたシステム全体によるものだという分析です。同様のシステムは小規模モデルでも構築可能であり、深いセキュリティ専門知識と十分な計算資源があれば、より安価に同等の成果を出せる可能性があるとしています。

オープンソースの利点として、脆弱性の検出・検証・調整・パッチ配布の4段階をコミュニティ全体に分散できる点を挙げています。一方、閉鎖的なコードベースは単一組織だけが修正可能な単一障害点となり、AIコーディングツールの不適切な導入がかえって脆弱性を増やすリスクもあると警告しています。

防御策として推奨されているのは半自律型AIエージェントです。完全自律ではなく、実行可能なアクションを事前に指定し、重要な判断には人間の承認を求める方式が、効果とリスクのバランスに優れるとしています。オープンなエージェント基盤・ルールエンジン・監査可能なログにより、人間がループ内で実質的に機能できる透明性が確保されます。

リスク組織に対しては、オープンで監査可能な基盤から始めることを提言しています。自社のセキュリティチームが監視の仕組みを直接検証でき、自社データでの微調整や自社インフラ内での運用が可能になるためです。今後のAIサイバーセキュリティはモデル単体ではなく周辺エコシステムによって決まるとし、オープンなセキュリティレビュー・脅威モデル公開・脆弱性データベース共有が防御の要になると結論づけています。

NVIDIA、韓国人口統計に基づく合成ペルソナ600万件を公開

データセットの特徴

韓国統計庁等の公的データに基づく生成
600万件の合成ペルソナ、個人情報なし
26フィールド、全17道府県をカバー
CC BY 4.0ライセンスで公開

AIエージェントへの応用

ペルソナでエージェント韓国文化を付与
敬語体系や地域職業分布を反映
医療や金融など多領域に適用可能

NVIDIAは2026年4月21日、韓国の人口統計データに基づく合成ペルソナデータセット「Nemotron-Personas-Korea」をHugging Faceで公開しました韓国統計情報サービス(KOSIS)や大法院、国民健康保険公団などの公的統計をもとに、600万件の合成ペルソナを生成しています。NAVER Cloudがシードデータとドメイン知識で協力しました。

各ペルソナは26のフィールドを持ち、名前、地域、職業、スキルなどの属性が含まれます。韓国全17道府県・25地区をカバーし、2,000以上の職業カテゴリを網羅しています。韓国個人情報保護法(PIPA)を考慮した設計で、個人を特定できる情報は一切含まれていません

このデータセットの主な用途は、AIエージェント韓国の文化的コンテキストを付与することです。現在のAIエージェントの多くは英語ウェブデータで訓練されており、韓国語の敬語体系や地域ごとの職業分布、文化的文脈を反映できていません。ペルソナをシステムプロンプトに組み込むことで、韓国専門家として適切に応答するエージェントを構築できます。

チュートリアルでは、公衆衛生相談エージェントの構築例が示されています。ペルソナから抽出した属性をシステムプロンプトに反映し、NVIDIA APIやNIM、NemoClawなど複数の推論基盤で展開できます。金融、教育、行政など他分野への応用も容易です。

Nemotron-Personasコレクションは韓国のほか、米国日本インド、シンガポール、ブラジル、フランスもカバーしています。NVIDIAは同日からソウルで「Nemotron Developer Days」を開催し、このデータセットを使ったハッカソンも実施しています。

NVIDIA、合成データで多言語OCRモデルを構築

合成データ戦略の成果

1,220万枚の合成画像で学習
6言語を単一モデルで処理
NED誤差率を0.92から0.047以下に改善
フォントとテキストだけで新言語追加が可能

高速アーキテクチャ

A100で毎秒34.7ページ処理
PaddleOCR比28倍以上の速度
検出・認識・関係モデルが特徴マップ共有
パラメータ数わずか8,400万

NVIDIAは2026年4月17日、合成データのみで学習した多言語OCRモデル「Nemotron OCR v2」をHugging Faceで公開しました。英語・日本語・韓国語・ロシア語・中国語簡体字・繁体字の6言語に対応し、単一モデルで言語の事前指定なく文書を読み取れます。データセットとモデルはともにオープンライセンスで提供されています。

従来のNemotron OCR v1は英語専用で訓練されており、日本語や韓国語ではNormalized Edit Distance(NED)が0.7〜0.9と実用に耐えない精度でした。多言語化の課題はモデル構造ではなく学習データの不足にありました。実世界の文書画像を6言語分収集・アノテーションするコストは現実的でないため、チームは合成データによるアプローチを選択しました。

合成データパイプラインはSynthDoGを大幅に改良したもので、単語・行・段落の3階層バウンディングボックスと読み順グラフを自動生成します。CJK言語ではスペース区切りがないため行単位の認識を採用し、165〜1,258種のオープンソースフォントを使用。多様なレイアウトテンプレートとデータ拡張により、合成画像でも実文書への汎化性能を確保しています。

ベンチマーク結果は顕著です。SynthDoG評価では全言語でNEDを0.035〜0.069に低減し、言語別の専用モデルであるPaddleOCRをも上回りました。実文書ベンチマークのOmniDocBenchでは、PaddleOCR v5の毎秒1.2ページに対し毎秒34.7ページを達成しています。この速度はFOTSアーキテクチャに基づく特徴マップの共有設計によるもので、検出用バックボーンの畳み込み処理が1回で済むため下流コンポーネントのオーバーヘッドが最小化されています。

このパイプラインの拡張性も注目に値します。新しい言語への対応に必要なのは対象言語のソーステキストとフォントだけで、モデル構造の変更や手動アノテーションは不要です。mOSCARコーパスが163言語をカバーし、Notoフォントファミリーがほぼ全てのUnicodeスクリプトに対応しているため、さらなる多言語展開への道筋が明確に示されています。

HuggingFace、MLX向けモデル移植Skillを公開

Skillの仕組みと特徴

transformersコードを正解として移植
RoPEバグや精度汚染を自動検出
レイヤー単位で数値比較を実行
PRにレポートと生成例を添付

品質担保の取り組み

エージェント型テストハーネスを併設
再現可能な検証で幻覚リスクを排除
結果をJSON保存し透明性を確保

今後の展望と課題

mlx-vlmやllama.cppへの拡張を検討

HuggingFaceは2026年4月16日、transformersライブラリのモデルをAppleのMLXフレームワーク(mlx-lm)に移植するためのSkillとテストハーネスを公開しました。このSkillはClaude Codeエージェント機能を活用し、コントリビューターとレビュアーの双方を支援することを目的としています。transformersに新モデルが追加された際、速やかにMLXでも利用可能にすることを目指しています。

Skillは単なるコード生成ツールではなく、モデル移植に必要な一連の作業を体系化したものです。Hub上のモデル検索・ダウンロード、仮想環境構築、transformersのモデリングコード読解、MLX実装の作成、テスト実行までを一貫して行います。RoPE設定のバグやfloat32精度汚染といった、経験豊富な開発者でなければ気づきにくい問題も自動的に検出します

品質担保のために、Skillとは別に非エージェント型のテストハーネスも開発されました。LLMの幻覚や過信に依存しない再現可能な検証を提供し、結果はサマリーレポート、モデルごとの詳細、生のJSON出力として保存されます。ただしこのハーネスはCIゲートではなく、最終的な判断はレビュアーとコントリビューターに委ねられます。

ブログではコードエージェント時代のオープンソース貢献の在り方についても問題提起しています。transformersのようなライブラリでは暗黙の設計契約が重要であり、エージェント生成のPRがレビュアーの負担を増大させている現状を指摘しました。今後はビジョン言語モデル向けのmlx-vlmやllama.cppへの対応拡張、テストハーネスの自動化が検討されています。

Sentence Transformersがマルチモーダル埋め込みモデルの学習に対応

学習手法と実装

テキスト・画像音声動画に対応
Qwen3-VL-Embedding-2Bの微調整例を公開
視覚文書検索でNDCG@10が0.888→0.947に向上

実用的な技術要素

MatryoshkaLossで多次元埋め込みに対応
勾配キャッシュで大バッチ学習が可能
テキスト専用と同一のTrainer APIで実装
マルチモーダルリランカーの学習にも対応

Hugging Faceは2026年4月16日、Sentence Transformersライブラリでマルチモーダル埋め込みモデルとリランカーモデルを学習・微調整する方法を解説するブログ記事を公開しました。テキストだけでなく画像音声動画を扱えるモデルの学習が、既存のテキスト専用パイプラインとほぼ同じコードで実現できます。

実践例として、Qwen3-VL-Embedding-2Bを視覚文書検索タスクで微調整する手順が紹介されています。テキストクエリに対して関連するドキュメントのスクリーンショットを検索するタスクで、微調整後のモデルはNDCG@10を0.888から0.947に改善しました。これは8Bパラメータの大型モデルを含む既存のすべてのモデルを上回る成績です。

学習にはCachedMultipleNegativesRankingLossとMatryoshkaLossを組み合わせて使用します。前者は勾配キャッシュにより限られたGPUメモリでも大きな実効バッチサイズを確保でき、後者は埋め込みベクトルを任意の次元数に切り詰めても高い性能を維持できるよう訓練します。512次元への圧縮でもピーク性能の99.7%を保持するという結果が示されています。

さらに、マルチモーダルなクロスエンコーダ(リランカー)モデルの学習方法も紹介されています。画像からテキスト、テキストから画像の双方向の照合を1つのモデルで学習する手法が示されており、Routerモジュールを使った別々のエンコーダの組み合わせにも対応しています。ドメイン固有データでの微調整がモデルサイズの拡大よりも効果的であることを実証した、実践的なガイドとなっています。

IBM、AIエージェント評価基盤VAKRAを公開

VAKRAの設計と特徴

62ドメイン・8000超のAPIで構成
3〜7ステップの推論チェーンを評価
実行トレース全体で正確性を判定

4つの評価能力と課題

API連鎖・ツール選択・多段推論を測定
文書検索との複合推論も対象
ポリシー制約下で全モデルが性能低下
既存モデルの実用信頼性に課題を露呈

主要モデルの比較結果

GPT-OSS-120BがAPI連鎖で最高精度
Gemini-3-flashがツール選択で優位

IBM Researchは2026年4月15日、AIエージェントの実務的な推論能力とツール使用を評価するベンチマークVAKRAHugging Faceで公開しました。従来のベンチマークが個別スキルを測定するのに対し、VAKRAは62ドメインにまたがる8000以上のAPIと文書コレクションを用い、エージェントが複数ステップのワークフローを確実に遂行できるかを実行トレース全体で評価します。

VAKRAは4つの能力を段階的に測定します。第1にビジネスインテリジェンスAPIの連鎖、第2にダッシュボードAPIからの正確なツール選択、第3に複数の論理ステップを要する多段推論、第4にAPI呼び出しと文書検索を組み合わせた複合推論です。第4段階ではさらにマルチターン対話やツール使用ポリシーへの準拠も求められます。

評価はウォーターフォール型パイプラインで実施されます。まずポリシー準拠を検証し、次に予測されたツール呼び出しの系列を正解と比較し、最後に最終回答の正確性を判定します。厳密なステップ一致ではなく、ツール応答の情報的等価性を基準とすることで、正当な代替パスも評価できる設計です。

主要モデルの比較では、GPT-OSS-120BがAPI連鎖タスクで他モデルを大差で上回りました。ツールスキーマの理解とパラメータ選択に優れていたことが要因です。一方、ツール選択タスクではGemini-3-flash-previewが全エラーカテゴリで最良の結果を示しました。多段推論ではホップ数の増加に伴い全モデルで性能が低下しています。

特に注目すべきは、ツール使用ポリシーを課した場合の結果です。情報源へのアクセスを制限するポリシーが存在すると、ほぼ全モデルで明確な性能低下が見られました。モデルは制約を理解しつつも推論に組み込めないケースが多く、企業環境での信頼性確保にはまだ課題があることが示されています。

独BFL、70人で画像生成AIの世界首位級に迫る

独発の急成長スタートアップ

評価額32.5億ドル到達
社員わずか70人体制
本社は独フライブルク近郊

大手との提携と技術力

AdobeCanva画像機能提供
Meta1.4億ドル契約締結
効率的な潜在拡散を採用

次の一手はフィジカルAI

年内にロボット公開予定
スマートグラス分野とも協議

ドイツの黒い森地方に本社を置く70人のAIスタートアップBlack Forest Labs(BFL)が、画像生成AIの分野でOpenAIGoogleに次ぐ世界トップ級の競争力を獲得しています。2025年12月には評価額32.5億ドル資金調達を実施し、AdobeCanvaといった大手クリエイティブ企業の画像生成機能を支える存在になりました。わずか5000マイル離れたシリコンバレーの巨人たちに、少人数チームで真っ向から挑む構図です。

提携先の顔ぶれも際立っています。同社はMicrosoftMetaxAIといった主要AI企業にも技術を供給し、2025年9月にはMetaと総額1.4億ドルの複数年契約を結びました。2024年にはイーロン・マスク氏率いるxAI画像生成Grok」を支える形で一躍有名になった一方、安全策の緩さが物議を醸し、提携は数カ月で終了した経緯があります。

近ごろxAIが再度ライセンス供与を打診したものの、BFLは混沌とした社風との協業は運用負荷が高すぎると判断し、今回は断ったと関係者は語ります。競合より資源が限られる同社は、まず粗い下絵を描き、その後に細部を描き込む潜在拡散(latent diffusion)と呼ばれる効率的な手法を磨いてきました。これが少人数でも一線級のモデルを量産できる理由です。

共同創業者アンドレアス・ブラットマン氏はWIREDに対し、「この手法のおかげで、競合の数分の一の資源で非常に強力なモデルを出せた」と語ります。HuggingFace上で最も多くダウンロードされているテキスト画像変換モデルの一角を占めるのも同社の特徴で、市場に出回る多くの画像AIが裏側でBFLの無料版モデルを利用している可能性が高いといいます。

創業者らは米サンフランシスコへの移転ではなく、故郷に近い独フライブルク周辺に本拠を構え続けることを選びました。「注意を引くものが少ない場所であることは、大きな強みになり得る」とブラットマン氏は述べ、集中できる環境こそが急成長の鍵だったと振り返ります。OpenAISoraを閉じTBPN買収に走るなど、米勢がフォーカスに苦しむ中での対照的な姿勢です。

BFLの野望は画像生成にとどまりません。同社は年内に、自社AIモデルを搭載したロボットを発表する計画を明らかにしました。スマートグラスロボット向けに技術提供するハードウェア企業とも協議中とされ、「視覚知性はコンテンツ生成を超えて広がる」とブラットマン氏は強調します。物理世界で行動するフィジカルAIへの進出が、次の競争軸となりそうです。

Hugging Face、画像音声動画の埋め込みに対応

v5.4の新機能

マルチモーダル埋め込み追加
画像音声動画共有空間
リランカーも多モーダル対応
同一APIで混在入力可能

対応モデルと要件

Qwen3-VLとNemotron統合
2BはVRAM8GBから動作
processor_kwargsへ名称変更

Hugging Faceは4月9日、オープンソースの埋め込みライブラリSentence Transformers v5.4を公開し、テキストに限定されてきた埋め込みとリランキングの機能を画像音声動画にまで拡張しました。開発者は従来と同じAPIを使いながら、モダリティをまたいだベクトル検索RAGパイプラインを構築できるようになります。視覚的な文書検索やクロスモーダル検索といった新しい用途を、少ないコード変更で取り込める点が最大の特徴です。

中核となるのは、異なるモダリティの入力を共有埋め込み空間に写像する多モーダル埋め込みモデルです。テキストクエリと画像文書を直接比較でき、同じsimilarity関数で関連度を評価できます。ブログの例では「黄色い建物前に駐車された緑の車」というテキストが、該当する車の画像に対して最も高い類似度を示し、ハードネガティブの誤マッチが抑えられることが示されました。

リランカー(CrossEncoder)も多モーダル化され、テキスト・画像動画を組み合わせたペアにスコアを付与できます。エンベディングで高速に候補を絞り込み、リランカーで精度を高めるという2段構えの検索パターンが、マルチモーダル文脈でも標準化されました。rank()やpredict()は従来と同じインターフェースのまま、複合入力を受け付けます。

対応モデルにはQwen3-VL-Embedding-2B/8B、NVIDIA llama-nemotron-embed-vl、jinaai/jina-reranker-m0などが含まれ、統合コレクションから即座に利用できます。2BクラスはVRAM約8GB、8Bクラスは約20GBを必要とし、CPUでは推論が著しく遅いためGPU環境の利用が推奨されています。

設定面では画像解像度や精度を制御するprocessor_kwargsとmodel_kwargsが用意され、従来のtokenizer_kwargsは非推奨となりました。経営層やエンジニアにとって、社内ドキュメントのスクリーンショットや動画アーカイブを横断検索する基盤を、既存の知識資産を活かしたまま整備できる点が実務的な価値です。

SafetensorsがPyTorch財団に移管

移管の背景と目的

Hugging Face発のOSSプロジェクト
pickleベース形式の安全性リスクを解消
ベンダー中立なLinux Foundation傘下へ

今後の開発計画

PyTorchコアへの統合を推進
CUDA・ROCm直接読み込み対応
FP8や量子化フォーマットの正式サポート
テンソル並列・パイプライン並列の最適化

Hugging Faceは2026年4月8日、同社が開発したモデル重み保存フォーマット「Safetensors」がPyTorch Foundationに参加すると発表しました。商標・リポジトリ・ガバナンスがLinux Foundationの管理下に移り、特定企業に依存しない中立的な運営体制へと移行します。

Safetensorsは、従来のpickleベースのフォーマットが持つ任意コード実行のリスクを排除する目的で開発されました。JSONヘッダーとテンソルデータのみで構成されるシンプルな設計が特徴で、ゼロコピー読み込みや遅延読み込みに対応しています。現在はHugging Face Hub上の数万モデルで標準フォーマットとして採用されており、オープンソースML分野で事実上の標準となっています。

ガバナンス移管後も、Hugging Faceのコアメンテナ2名が技術運営委員会に残り、日常的な開発を引き続きリードします。既存ユーザーにとってフォーマットやAPIに変更はなく、破壊的変更はありません。新たな貢献者がメンテナになるための手順も正式に文書化されました。

今後の開発ロードマップとしては、PyTorchコアのシリアライゼーションシステムとしての統合、CUDA・ROCmなどアクセラレータへの直接読み込み、テンソル並列やパイプライン並列の最適化、FP8やGPTQ・AWQなどの量子化フォーマット対応が計画されています。PyTorch Foundation内の他プロジェクトとの協業により、エコシステム全体の課題解決を目指すとしています。

中国Z.aiがGLM-5.1をMITライセンスで公開

モデルの技術的特徴

7540億パラメータのMoEモデル
最大8時間の自律作業に対応
1700回超のツール呼び出しが可能
階段状の最適化パターンを実現

ベンチマークと価格戦略

SWE-Bench Proで58.4を記録
Opus 4.6やGPT-5.4を上回る成績
API価格は入力100万トークン1.40ドル
オープンソースと有料版の二段構え

中国のAIスタートアップZ.ai(智譜AI)は2026年4月7日、大規模言語モデルGLM-5.1MITライセンスのオープンソースとして公開しました。7540億パラメータのMixture-of-Expertsモデルで、単一タスクに対して最大8時間の自律的な作業が可能です。Hugging Faceからダウンロードでき、商用利用も許可されています。

GLM-5.1の最大の技術的特徴は、長時間にわたる目標整合性の維持です。従来のモデルが数十ステップで性能が頭打ちになるのに対し、GLM-5.1は1700回以上のツール呼び出しを経ても有効な最適化を継続します。Z.aiはこれを「階段パターン」と呼び、漸進的な調整と構造的なブレークスルーが交互に現れる最適化プロセスだと説明しています。

ベンチマークでは、実世界のGitHub問題を解決するSWE-Bench Proで58.4を達成し、GPT-5.4の57.7やClaude Opus 4.6の57.3を上回りました。VectorDBBenchでは655回の反復と6000回超のツール呼び出しを経て、毎秒21500クエリを達成しています。これはOpus 4.6の最高記録の約6倍にあたります。

価格面では、APIが入力100万トークンあたり1.40ドル、出力が4.40ドルに設定されています。サブスクリプションは四半期27ドルのLiteから216ドルのMaxまで3段階を用意しています。一方、先月公開された高速版のGLM-5 Turboはプロプライエタリのままで、オープンソースと有料製品を組み合わせたハイブリッド戦略を展開しています。

開発者コミュニティからは好意的な反応が寄せられており、従来1週間かかっていた作業が2日で完了したという報告もあります。Z.aiは2026年初頭に香港証券取引所に上場し、時価総額は約528億ドルに達しています。同社はAI競争の次の焦点が推論速度ではなく自律的な作業時間になると位置づけており、エージェント型AIの新たな方向性を示しています。

Google、最強オープンモデルGemma 4をApache 2.0で公開

モデル構成と性能

4種類のモデルを同時公開
31Bがオープン世界3位の性能
26B MoEは4Bの計算量で動作
E2B・E4Bはスマホ端末対応

技術的な特徴

テキスト・画像音声ネイティブ対応
関数呼び出しをモデルに組込み
最大256Kトークンの長文脈
140以上の言語事前学習

ライセンスと展開

Apache 2.0で商用利用自由
Ollamallama.cppで即日利用可能
NVIDIA GPUで最適化済み

Google DeepMindは2026年4月1日、オープンモデル「Gemma 4」を4サイズ同時に公開しました。最上位の31BモデルはArena AIリーダーボードでオープンモデル世界3位を獲得し、ライセンスは従来の独自条項からApache 2.0へ変更されました。

31B Denseは高品質な推論特化、26B MoEは128個の小規模エキスパートのうち8個だけを活性化し、31B級の性能を4B級の速度で実現します。AIME 2026で31Bが89.2%、MoEが88.3%を記録し、前世代Gemma 3の20.8%から飛躍的に向上しました。

エッジ向けのE2BE4Bは、スマートフォンやRaspberry Pi、Jetson Nanoで完全オフライン動作します。Per-Layer Embeddings技術により、E2Bは総パラメータ51億ながら実効2Bとして軽量に動き、音声認識もモデル内で処理できます。

全モデルが画像動画音声マルチモーダル入力に対応し、関数呼び出しもアーキテクチャレベルで統合されています。可変アスペクト比の画像処理、最大256Kトークンの長文脈、140以上の言語への対応により、エージェント型AIワークフローの構築基盤として設計されています。

Apache 2.0ライセンスへの移行は、企業導入における法的障壁を解消する重要な転換点です。NVIDIAとの協業によりRTX GPUからDGX Sparkまで最適化され、Ollamallama.cpp・Hugging Faceなど主要ツールが初日から対応しています。中国系モデルがオープン化を後退させる中、Google逆方向の戦略を明確にしました。

TII、6億パラメータで画像認識の統合モデル「Falcon Perception」公開

単一モデルで高精度認識

画像とテキストを1つのTransformerで統合処理
SAM 3を上回るMacro-F1 68.0達成
属性・OCR・空間理解で大幅な性能差
0.6Bパラメータの軽量設計

OCRモデルも同時発表

Falcon OCRは0.3Bパラメータ
olmOCRベンチで80.3点の高精度
オープンソースOCR最高スループット

診断ベンチマークPBench

能力別にL0〜L4の5段階で評価
空間理解でSAM 3に+21.9点差

UAE・技術革新研究所(TII)Falconチームは2026年4月1日、画像認識・セグメンテーション・OCRを単一のTransformerで処理するオープンソースモデルFalcon Perception」を公開しました。パラメータ数はわずか6億で、従来のパイプライン型システムに代わる統合的なアプローチを提案しています。

Falcon Perceptionの最大の特徴は、画像パッチとテキストトークンを最初の層から同一のパラメータ空間で処理する「早期融合」アーキテクチャです。画像トークンには双方向注意、テキストトークンには因果的注意を適用するハイブリッドマスクにより、1つのモデルで視覚エンコーダとテキストデコーダの両方の役割を果たします。

オープン語彙セグメンテーションベンチマークSA-Coでは、Macro-F1で68.0を達成し、Meta社のSAM 3の62.3を上回りました。特に属性認識で+8.2、食品・飲料カテゴリで+12.2と大きな差をつけています。一方、存在判定の精度(MCC 0.64対0.82)ではSAM 3に及ばず、今後の改善課題として示されています。

同時に発表されたFalcon OCRは0.3Bパラメータの文書認識モデルです。olmOCRベンチマークで80.3点、OmniDocBenchで88.6点を記録し、DeepSeek OCR v2やGPT 5.2を上回る性能を示しました。オープンソースOCRモデルとして最高のスループットを実現し、vLLM統合によりA100上で毎秒2.9画像を処理できます。

チームは性能評価のため、能力別に分類した診断ベンチマークPBench」も公開しました。単純な物体認識(L0)から関係推論(L4)まで5段階に分かれ、Falcon Perceptionは空間理解でSAM 3に+21.9点、OCR識別で+13.4点と、プロンプトが複雑になるほど差が拡大する結果となっています。

学習には5400万枚の画像と1億9500万の正例表現、4億8800万のハードネガティブを使用しました。3段階の学習レシピにより、シーン理解からタスク特化、高密度シーン対応へと段階的に能力を獲得させています。モデルとコードはHugging Faceで公開されており、Apple Silicon向けのMLX統合やDockerサーバーも提供されています。

H社、PC操作AI「Holo3」で業界最高精度を達成

Holo3の性能と特徴

OSWorld検証で78.85%達成
アクティブ10Bパラメータで低コスト
35BモデルをApache2で公開
GPT 5.4やOpus 4.6より安価に運用

独自の学習手法

合成環境で業務操作を学習
自動データ生成と強化学習を反復
486タスクの企業向け評価で検証

企業利用への展望

複数アプリ横断の業務自動化に対応
未知のソフトにも適応する次世代を開発中

フランスのAIスタートアップH社は2026年4月1日、デスクトップPC操作に特化したAIモデル「Holo3」を発表しました。業界標準ベンチマークOSWorld-Verifiedで78.85%を記録し、PC操作AIとして最高スコアを達成しています。

Holo3の最大の特徴は、総パラメータ数122Bに対しアクティブパラメータがわずか10Bという効率的な設計です。これにより、GPT 5.4やOpus 4.6といった大規模モデルと比べて大幅に低いコストで運用できます。小型の35BモデルはApache2ライセンスHugging Faceに公開されています。

学習には「エージェント学習フライホイール」と呼ばれる独自手法が用いられています。合成ナビゲーションデータの生成、ドメイン外への拡張、厳選された強化学習の3段階を繰り返し、PC画面の認識力と判断力を継続的に向上させる仕組みです。

実務での有効性を検証するため、H社は486の業務タスクからなる「H Corporate Benchmarks」を独自に設計しました。EC、業務ソフト、コラボレーション、複数アプリ連携の4領域にわたり、PDF価格表の参照から予算照合、個別メール送信まで、複雑な業務フローを評価対象としています。

今後H社は「Adaptive Agency」と呼ぶ次世代技術の開発を進めます。これは未知の業務ソフトウェアにもリアルタイムで適応し、自律的に操作を習得する能力を目指すもので、企業のデジタル業務全体を自動化する構想の実現に向けた取り組みです。

IBM、文書理解特化の小型視覚言語モデル「Granite 4.0 3B Vision」公開

モデルの特徴と構造

企業文書の表・図・帳票を高精度抽出
30億パラメータの軽量設計
LoRAアダプタでテキスト専用と視覚の両対応
DeepStack方式で意味と空間情報を分離処理

ベンチマーク性能

図表要約スコア86.4%で全モデル首位
表抽出でも複数ベンチで最高精度達成
政府帳票KVP抽出で85.5%のゼロショット精度

導入と活用方法

Apache 2.0ライセンスで公開
Docling連携で大規模PDF処理に対応

IBMは2026年3月31日、企業向け文書理解に特化した小型視覚言語モデル「Granite 4.0 3B Vision」をHugging Faceで公開しました。30億パラメータながら、表・図表・帳票からの情報抽出で大型モデルを上回る性能を発揮します。

本モデルはGranite 4.0 Microの上にLoRAアダプタとして構築されており、画像処理が不要な場面ではベースモデルに自動的にフォールバックします。この設計により、1つのデプロイマルチモーダルとテキスト専用の両方に対応できます。

技術面では、独自のDeepStack Injection方式を採用しています。抽象的な視覚特徴を前段レイヤーに、高解像度の空間特徴を後段レイヤーに分離して注入することで、文書の内容と配置の両方を正確に理解します。

性能面では、図表理解ベンチマークChart2Summaryで86.4%を達成し、自身の2倍以上のサイズのモデルを含む全評価対象中で首位となりました。表抽出でもPubTables-v2やTableVQAなど複数のベンチマークで最高スコアを記録しています。

さらに、170万件の合成チャートデータセット「ChartNet」を独自開発し、CVPR 2026で発表予定です。24種類のチャートタイプと6つの描画ライブラリをカバーし、コード・画像・データ表・要約・QAの5要素を揃えた高品質なデータで訓練されています。

活用面では、単体での画像理解に加え、文書処理ツールDoclingとの統合により、大規模PDFの自動処理パイプラインを構築できます。請求書や財務報告書、学術論文など幅広い文書に対応し、Apache 2.0ライセンスで自由に利用可能です。

Hugging Face、ポストトレーニング基盤TRLがv1.0に到達

TRL v1.0の設計思想

75種超の手法を実装
安定版と実験版を明確に分離
セマンティックバージョニング導入
抽象化を最小限に抑える方針

エコシステムでの位置づけ

月間300万回のダウンロード
UnslothやAxolotlの基盤として機能
汎用ライブラリとしての独自の立ち位置

今後の開発計画

非同期GRPOで学習効率向上へ
エージェント向け学習可視化を計画

Hugging Faceは2026年3月、大規模言語モデルのポストトレーニングライブラリ「TRL」のv1.0を正式リリースしました。6年以上の開発を経て、75種類を超えるポストトレーニング手法を実装する汎用ライブラリとして安定版の節目を迎えています。

ポストトレーニング分野は、PPOからDPO、さらにGRPOへと手法の中心が急速に移り変わってきました。TRLはこの変化に対応するため、強固な抽象化ではなく「変化に適応する設計」を選択しています。クラス階層を避け、実装間の重複をあえて許容することで、新手法への対応速度を維持しています。

v1.0の最大の特徴は、安定版と実験版の明確な分離です。安定版はSFT、DPO、報酬モデリング、RLOO、GRPOなどの主要トレーナーで構成され、セマンティックバージョニングに従います。実験版は新手法を素早く取り込む場として機能し、利用実績に応じて安定版へ昇格する仕組みです。

TRLは月間300万回ダウンロードされる規模に成長し、UnslothAxolotlといった主要プロジェクトの基盤としても利用されています。これらの下流プロジェクトへの影響を考慮し、破壊的変更は0.xリリース期間中に段階的に実施されました。

今後の開発では、生成と学習を分離する非同期GRPOの本格導入、KTOや蒸留系トレーナーの安定版昇格、マルチノード学習の強化が予定されています。さらに、学習ループにヒューリスティクスを組み込み、方策の崩壊や過学習を自動検知する「エージェント向け学習可視化」機能の開発も計画されています。

Cohere、オープンウェイト音声認識モデルを公開

モデルの性能

WER 5.42%で業界最高精度
Whisper Large v3の7.44%を大幅に上回る
14言語対応(日本語含む)
20億パラメータ、Apache-2.0ライセンス

企業導入の優位性

自社GPUでのローカル運用が可能
データ残留リスクなしの音声処理
RAGエージェント構築に即戦力
商用利用を前提とした設計

Cohereは、オープンウェイトの自動音声認識モデル「Transcribe」を公開しました。20億パラメータのこのモデルは、平均単語誤り率(WER)5.42%を達成し、企業の音声パイプラインに直接組み込める精度を実現しています。

TranscribeはHugging FaceのASRリーダーボードで首位を獲得しました。OpenAIのWhisper Large v3(WER 7.44%)、ElevenLabs Scribe v2(5.83%)、Qwen3-ASR(5.76%)をいずれも上回り、商用レベルの音声認識における新たな基準を打ち立てています。

最大の特徴は、Apache-2.0ライセンスによる商用利用と自社インフラでのローカル運用が可能な点です。従来のクローズドAPIではデータの外部送信が避けられず、オープンモデルでは精度が不十分という課題がありましたが、Transcribeはその両方を解決しています。

対応言語は英語、フランス語、ドイツ語、日本中国語、韓国語など14言語です。会議理解を測るAMIデータセットで8.15%、多様なアクセントを評価するVoxpopuliで5.87%と、幅広い音声タスクで高い性能を示しています。

企業のエンジニアリングチームにとって、RAGパイプラインエージェントワークフロー音声入力を組み込む際、データ残留リスクやレイテンシの問題なく本番運用できる選択肢が加わりました。早期導入企業からは、精度とローカル展開の両立が高く評価されています。

Hugging Face、OpenClawのオープンモデル移行手順を公開

2つの移行経路

HF推論API経由が最速
ローカル実行で完全無料化
GLM-5を推奨モデルに指定
HF PRO会員は月2ドル無料枠

ローカル環境構築

llama.cppでローカル推論
Qwen3.5-35Bが32GB RAMで動作
OpenAI互換APIとして接続
プライバシーと完全制御を実現

Hugging Faceは、OpenClawやPiなどのAIエージェントをクローズドモデルからオープンモデルへ移行するための具体的な手順を公開しました。ホスト型とローカル型の2つの方法が提示されています。

ホスト型の方法では、Hugging Face Inference Providersを利用します。APIトークンを取得し、OpenClawの設定コマンドで認証を行うだけで、数千のオープンソースモデルから選択して即座にエージェントを復旧できます。

推奨モデルとしてGLM-5が挙げられており、Terminal Benchで高いスコアを記録しています。設定ファイルのrepo_idを変更するだけでモデルの切り替えが可能で、HF PRO会員には月額2ドルの無料クレジットが付与されます。

ローカル型の方法では、オープンソースの推論ライブラリllama.cppを使用します。macOS・Linux・Windowsいずれにも対応しており、パッケージマネージャから簡単にインストールできます。

ローカル実行ではQwen3.5-35B-A3Bが推奨されており、32GBのRAMで動作します。APIコストゼロ、レート制限なし、完全なプライバシー保護が実現でき、クローズドモデルに依存せずエージェントを運用できる点が強調されています。

Cohereが音声認識モデルをオープンソースで公開

モデルの特徴

20億パラメータの軽量設計
消費者向けGPUで自己運用可能
14言語対応(日本語含む)
1分間で525分音声処理

性能と展開

WER 5.42で業界最高精度
人間評価で勝率61%達成
企業向け基盤Northに統合予定
API無料提供を開始

エンタープライズAI企業のCohereは2026年3月26日、同社初の音声モデル「Transcribe」をオープンソースで公開しました。議事録作成や音声分析などの用途を想定した自動音声認識モデルで、APIを通じて無料で利用できます。

Transcribeは20億パラメータと比較的軽量に設計されており、消費者向けGPUでの自己ホスティングが可能です。英語、日本語、中国語、韓国語など14言語に対応し、1分間で525分の音声を処理できる高いスループットを実現しています。

Hugging FaceOpen ASRリーダーボードでは、平均単語誤り率(WER)5.42を達成し、Zoom Scribe v1やIBM Granite 4.0、ElevenLabs Scribe v2などの競合モデルを上回りました。人間評価者による精度・一貫性・実用性の評価でも平均勝率61%を記録しています。

一方で、ポルトガル語、ドイツ語、スペイン語の文字起こしでは競合に後れを取る課題も残っています。Cohereは今後、同モデルを企業向けエージェント統合基盤「North」やマネージド推論プラットフォーム「Model Vault」にも展開する計画です。

音声認識モデル市場は、GranolaやWispr Flowなどの議事録・ディクテーションアプリの需要拡大に伴い急成長しています。Cohereは2025年の年間経常収益が2億4000万ドルに達したとされ、IPOの可能性も示唆されており、今回の音声モデル投入で事業領域の拡大を図ります。

NVIDIA、オープンAI基盤モデル連合を設立

連合の概要と初動

Nemotron Coalition発足
データ・評価・専門知識を共有
Hugging Face最大組織に成長

業界リーダーの展望

AIエージェント高度な同僚
マルチモデルオーケストレーション時代
オープンと独自の共存が不可欠
専門特化モデルで差別化実現

NVIDIAは2026年3月のGTCカンファレンスにおいて、オープンなフロンティアAI基盤モデルの開発を推進する国際連合「Nemotron Coalition」の設立を発表しました。Mistral AIをはじめとする主要AI研究機関が参画し、データや計算資源を共有します。

CEOのジェンスン・フアン氏は「独自かオープンかではなく、独自もオープンも」と述べ、両方のアプローチの共存が不可欠であるとの見解を示しました。NVIDIAは現在Hugging Faceで最大の組織となり、約4,000人のチームメンバーを擁しています。

連合の最初のプロジェクトとして、Mistral AINVIDIA基盤モデルを共同開発します。連合メンバーがデータ提供や評価、ドメイン専門知識で貢献し、オープンエコシステムに公開される予定です。Nemotronモデルはすでに4,500万回以上ダウンロードされています。

GTCのパネルではCursorPerplexityLangChain、Thinking Machines LabなどのAI業界リーダーが登壇しました。AIエージェントが数時間・数日かかるタスクを処理する「同僚」になるとの見通しや、複数モデルの自動オーケストレーションの重要性が議論されました。

パネリストらは、汎用モデルと専門特化モデルの両立が社会に価値をもたらすと強調しました。オープンな基盤の上に各組織が独自データを組み合わせることで差別化が可能になり、学術界を含む幅広い参加者がAIの進歩に貢献できる環境が整うと述べています。

ServiceNow、音声AIエージェント評価フレームワークEVAを公開

EVAの評価体系

正確性と体験の2軸で評価
ボット同士の音声対話を自動生成
航空業界50シナリオを初期公開
タスク完了・忠実性・音声再現の3指標

主要な発見

正確性と体験にトレードオフ確認
固有名詞の誤認識が主要障害
複数ステップ処理で精度が大幅低下
20システムのベンチマーク結果公開

ServiceNowの研究チームは2026年3月24日、音声AIエージェントを包括的に評価するフレームワーク「EVA」を発表しました。コード・データセット・ジャッジプロンプトGitHubHugging Faceで公開しています。

EVAはタスクの正確な完了を測るEVA-A(Accuracy)と、対話体験の質を測るEVA-X(Experience)の2つの高次スコアを算出します。従来のフレームワークはこれらを個別に評価していましたが、EVAは両者を統合的に評価する初の手法です。

評価はボット同士のリアルタイム音声対話で行われ、ユーザーシミュレーターが発話し、対象エージェントがツール呼び出しやポリシー遵守を含むタスクを処理します。決定論的なコード指標とLLM審査員による定性評価を組み合わせています。

20種類のカスケード型・音声ネイティブ型システムを評価した結果、正確性と体験の間に一貫したトレードオフが確認されました。タスク完了率の高いエージェントほどユーザー体験が低下する傾向があり、両軸で優位なシステムは存在しませんでした。

特に確認コードやフライト番号など固有名詞の音声認識エラーが、会話全体の破綻につながる主要因と判明しました。今後は多言語対応、騒音環境テスト、感情認識評価、追加ドメインのデータセット拡充が予定されています。

NVIDIA、多言語・マルチモーダル対応のAI安全モデルを公開

モデルの特徴

140以上の言語に対応
画像とテキストの複合判定
Gemma-3 4B基盤で軽量高速
文化的文脈を考慮した安全判定

性能と実用性

有害コンテンツ検出精度84%
競合モデルの約半分の遅延
12言語で安定した精度を維持
8GB VRAMGPUで動作可能

NVIDIAは2026年3月20日、マルチモーダル・多言語対応のコンテンツ安全モデル「Nemotron 3 Content Safety 4B」をHugging Faceで公開しました。従来の英語中心・テキストのみの安全モデルが抱えていた文化的ニュアンスの見落としを解消することを目指しています。

同モデルはGemma-3 4B-ITビジョン言語基盤モデル上に構築され、LoRAアダプターで安全分類機能を追加しています。テキスト・画像またはその両方を入力として受け取り、安全・危険の判定を出力します。アシスタント応答が含まれる場合はやり取り全体の文脈を評価し、複合的に生じる違反も検出できます。

訓練データにはNemotron Safety Guard Dataset v3の文化的に適応された多言語データ、人手でアノテーションされたマルチモーダルデータ、合成データなどが含まれます。英語データは日本語・中国語・韓国語を含む12言語に翻訳され、実運用環境を反映した多言語カバレッジを実現しています。

ベンチマーク評価では、Polyguard・VLGuard・MM SafetyBenchなど主要テストで平均84%の精度を達成し、同規模のオープン安全モデルを上回りました。さらにポルトガル語やロシア語など訓練外言語でも強力なゼロショット汎化性能を示しています。推論遅延は大型モデルの約半分で、エージェントループやリアルタイム用途にも適しています。

4月にはNVIDIA NIMとしても提供予定で、GPU最適化された推論マイクロサービスとして本番環境への迅速な導入が可能になります。企業のAIエージェントやグローバルサービスにおけるコンテンツモデレーション基盤として、実用性の高い選択肢となりそうです。

IBM Research、構造化AIワークフロー基盤Mellea 0.4.0を公開

Mellea 0.4.0の新機能

Granite Librariesとネイティブ統合
制約付きデコードでスキーマ正確性を保証
指示・検証・修復パターンの導入
観測フックワークフロー監視が可能に

Granite Librariesの構成

granitelib-core:要件検証用アダプタ
granitelib-ragRAGパイプライン全工程対応
granitelib-guardian:安全性・事実性・コンプライアンス特化
granite-4.0-micro向けLoRAアダプタ

IBM Researchは2026年3月20日、オープンソースのPythonライブラリMellea 0.4.0と3つのGranite Librariesを同時公開しました。これにより、IBM Graniteモデル上で構造化・検証可能・安全性を備えたAIワークフローの構築が容易になります。

Melleeは確率的なプロンプト動作を、構造化された保守可能なAIワークフローに置き換えるライブラリです。制約付きデコードや構造化修復ループ、パイプラインの組み合わせにより、LLMベースのプログラムの予測可能性と保守性を高める設計思想を持っています。

バージョン0.4.0では、Granite Librariesとのネイティブ統合が実現しました。制約付きデコードに基づく標準化APIを通じ、出力のスキーマ正確性を保証します。さらにリジェクションサンプリング戦略による指示・検証・修復パターンや、イベント駆動型コールバックによる観測フックも導入されました。

同時公開されたGranite Librariesは、granite-4.0-microモデル向けの特化型LoRAアダプタ群です。granitelib-coreは要件検証、granitelib-rag検索前・検索後・生成後のRAGタスク、granitelib-guardianは安全性・事実性・ポリシー準拠の各領域をカバーします。

汎用プロンプティングに頼らず、タスク特化型アダプタを用いることで、少ないパラメータコストで各タスクの精度を向上させつつ、ベースモデルの能力を損なわない点が特長です。コードと論文はHugging FaceおよびGitHubで公開されており、すぐに導入を開始できます。

Hugging Faceオープンソース生態系、中国勢が米国を逆転

エコシステムの急成長

ユーザー1300万人に倍増
公開モデル200万超を達成
データセット50万件を突破
Fortune 500の30%超が参加

中国の台頭と地政学

中国がダウンロード数で米国を逆転
Qwen派生モデルが20万件超
韓国欧州AI主権を推進

技術トレンドの変化

ロボティクスデータセットが23倍増
小型モデルの実用採用が加速

Hugging Faceは2026年春のオープンソースAI生態系レポートを公開しました。2025年にユーザー数は1300万人に達し、公開モデルは200万件超、データセットは50万件を突破するなど、すべての指標がほぼ倍増しています。

中国が月間ダウンロード数で米国を逆転し、全ダウンロードの41%を占めるに至りました。DeepSeek R1の公開を契機に、Baiduは2024年のゼロから100件超のリリースへ急増し、ByteDanceやTencentも8〜9倍にリリース数を拡大しています。

企業の開発シェアは2022年以前の約70%から2025年には37%に低下しました。一方、個人や小規模コミュニティがダウンロードの39%を占め、量子化やファインチューニングを通じてモデルの流通を主導する存在へと成長しています。

各国政府はAI主権の確保に動いています。韓国は国家ソブリンAIイニシアティブを発足させ、LG AI ResearchやNaverなど国内企業を指名しました。スイスやEU各国も公的資金によるオープンモデル開発を推進し、Reflection AI韓国データセンター提携も発表されています。

ロボティクス分野ではデータセットが2024年の1,145件から2025年に26,991件へと急増し、Hub最大のカテゴリとなりました。科学研究でもタンパク質折りたたみや創薬への応用が進み、オープンソースAIは言語・画像生成を超えて物理世界への拡張を加速させています。

NVIDIA、40億パラメータの軽量AI「Nemotron 3 Nano 4B」公開

モデルの特徴

Mamba-Transformer混合構造採用
40億パラメータでエッジ動作対応
指示追従性能で同クラス最高水準
VRAM使用量が同クラス最小

圧縮と学習手法

9BモデルからNemotron Elasticで圧縮
2段階蒸留で精度回復を実現
3段階強化学習でツール使用を強化
FP8・Q4_K_M量子化で効率向上

NVIDIAは2026年3月17日、40億パラメータの軽量言語モデル「Nemotron 3 Nano 4B」をオープンソースで公開しました。Mamba-Transformer混合アーキテクチャを採用し、エッジデバイスでの高効率な推論を実現するモデルです。

同モデルはJetson ThorやJetson Orin Nano、DGX Spark、RTX GPUなど幅広いNVIDIAプラットフォームで動作します。低VRAM環境でも高速な応答が可能で、データプライバシーの確保と柔軟なデプロイを両立しています。

開発にはNemotron Elasticフレームワークが用いられ、9Bパラメータの親モデルから構造化プルーニングと知識蒸留により4Bモデルへ圧縮されました。ルーターが自動的に最適な枝刈り構成を決定し、従来手法より低コストで高精度なモデルを実現しています。

学習では教師あり微調整に続き、指示追従とツール呼び出しに特化した3段階の強化学習パイプラインを適用しました。推論時の思考なしでもタスク解決に優れ、ハルシネーション回避性能も高い水準を達成しています。

量子化ではFP8版で最大1.8倍のレイテンシ改善を達成し、Q4_K_M GGUF版はJetson Orin Nano 8GBで毎秒18トークンを出力します。Transformers、vLLM、TRT-LLM、Llama.cppなど主要推論エンジンに対応し、Hugging Faceで公開中です。

H Company、高スループット型PC操作AIモデルHolotron-12Bを公開

推論性能の飛躍

SSMハイブリッド構造を採用
H100単体で8.9kトークン/秒達成
Holo2-8B比で2倍超のスループット
KVキャッシュ不要でメモリ効率向上

エージェント性能

WebVoyagerスコア35.1%→80.5%に向上
UI操作・画面理解の精度大幅改善
NVIDIA Nemotronベースを微調整
次世代Nemotron 3 Omniも予告

H Companyは2026年3月17日、NVIDIAのNemotron-Nano-2 VLモデルをベースにしたマルチモーダルコンピュータ操作エージェントモデル「Holotron-12B」Hugging Faceで公開しました。本モデルは画面認識・操作に特化し、量産環境での高スループット推論を目指して開発されたものです。

Holotron-12Bの推論効率を支えるのは、状態空間モデル(SSM)とアテンション機構のハイブリッドアーキテクチャです。従来のTransformerが抱える二次計算コストを回避し、長いコンテキストや複数画像を含むエージェント的ワークロードで優れたスケーラビリティを実現しています。

ベンチマーク評価では、WebVoyagerスコアがベースモデルの35.1%から80.5%へと大幅に向上しました。H100 GPU1枚でvLLMを使用した実験では、同時接続100の条件下で8.9kトークン/秒のスループットを記録し、前モデルHolo2-8Bの5.1kトークン/秒を大きく上回りました。

学習は2段階で実施されました。NVIDIANemotron-Nano-12B-v2-VLを起点に、H Company独自の画面理解・ナビゲーションデータで教師あり微調整を行い、約140億トークンで最終チェックポイントを構築しています。ライセンスはNVIDIA Open Model Licenseで公開されています。

今後の展開として、NVIDIAが同日発表したNemotron 3 Omniをベースとした次世代モデルの開発も予告されました。SSM-AttentionとMoEアーキテクチャを活用し、企業向けの大規模自律型コンピュータ操作への展開を目指すとしています。

NVIDIA主導で医療ロボット初の大規模オープンデータセット公開

データセットと規模

778時間医療ロボットデータ
手術・超音波・内視鏡を網羅
35組織が国際共同構築
CC-BY-4.0で完全公開

基盤AIモデル2種

GR00T-H:手術用VLAモデル
縫合タスクの端到端実行を実証
Cosmos-H:手術シミュレータ
実機2日分を40分で再現

NVIDIAとジョンズ・ホプキンス大学、ミュンヘン工科大学らが主導する国際コミュニティが、医療ロボティクス分野初の大規模オープンデータセット「Open-H-Embodiment」を公開しました。35組織が参加し、778時間分のCC-BY-4.0ライセンスデータを提供しています。

データセットは手術ロボティクスを中心に、超音波検査や大腸内視鏡の自律制御データも含みます。シミュレーション、ベンチトップ訓練、実臨床手術にまたがり、CMR SurgicalやRob Surgicalなどの商用ロボットおよびdVRK、Frankaなどの研究用ロボットのデータを収録しています。

同時に公開されたGR00T-Hは、NVIDIAのVision-Language-Actionモデルを手術ロボット向けに特化させた初のポリシーモデルです。約600時間のデータで訓練され、SutureBottベンチマーク端到端の縫合タスクを完遂する能力を実証しました。異なるロボット間の運動学的差異を吸収する独自の設計が特徴です。

Cosmos-H-Surgical-Simulatorは、運動指令から物理的に妥当な手術映像を生成するワールド基盤モデルです。従来のシミュレータでは再現困難な軟組織変形や反射、出血を暗黙的に学習します。実機で2日かかる600回のロールアウトをわずか40分で完了でき、データ拡張にも活用可能です。

次期バージョンでは、意図・結果・失敗モードを注釈した推論対応データへの拡張を目指しています。手術ロボットが状況を説明し、計画を立て、長時間の手術に適応できる推論能力付き自律制御の実現が目標です。データセットとモデルはHugging FaceおよびGitHubで公開されており、コミュニティへの参加を呼びかけています。

OpenAIが指示階層の強化手法とデータセットを公開

指示階層の仕組み

System>開発者>ユーザー>ツールの優先順位
上位指示と矛盾する下位指示を拒否
強化学習優先順位判断を訓練
IH-Challengeデータセットを設計

安全性への効果

安全ステアラビリティの改善を確認
過剰拒否なく有用性を維持
学術・内部ベンチマークで汎化性能を実証

公開と今後

GPT-5 Mini-Rで性能検証済み
IH-ChallengeデータセットをHuggingFaceで公開

OpenAIは、AIモデルが複数の指示源からの命令を適切に優先順位付けする「指示階層」の強化手法を発表しました。安全ポリシー違反やプロンプトインジェクション攻撃への耐性向上を目的としています。

AIシステムはシステムメッセージ、開発者指示、ユーザー要求、ツール出力など複数の指示を受け取ります。これらが矛盾した場合、信頼度の高い指示を優先する判断が求められますが、従来のモデルでは誤った指示に従うケースがありました。

同社は強化学習用データセット「IH-Challenge」を設計しました。各タスクは高権限ロールからの指示と、それに違反させようとする低権限ロールの指示で構成され、Pythonスクリプトで客観的に採点可能な点が特徴です。

このデータセットで訓練したGPT-5 Mini-Rは、TensorTrustで0.76から0.91へ、内部ベンチマークのSystem対User Conflictで0.84から0.95へと大幅に改善しました。同時に過剰拒否率も0.79から1.00に改善し、有用性を損なわない成果を示しています。

エージェント型AIがツール呼び出しや外部文書読み取りを行う時代において、信頼できる指示を一貫して優先する能力は安全性の基盤となります。OpenAIはIH-ChallengeデータセットをHuggingFaceで公開し、研究コミュニティへの貢献を図っています。

NVIDIAジェットソンがエッジAIの新標準に、重機から家庭まで展開

エッジ推論の実用例

キャタピラー重機に音声AIアシスタント搭載
クラウド不要のローカル推論を実現
Jetson Thorがリアルタイム処理を担保
ロボット・スマートホームにも展開

対応オープンモデル群

GemmaMistralQwen主要モデルに対応
GR00T N1.6でロボット動作を自律制御
vLLMで最大273トークン/秒を達成
2B〜30Bパラメータを柔軟に切り替え

NVIDIAは2026年のCESにおいて、エッジAIプラットフォーム「Jetson Thor」上でキャタピラーの小型油圧ショベル向け音声AIアシスタントのデモを公開した。Qwen3 4BモデルをvLLC経由でローカル動作させ、クラウド接続なしで低遅延な自然言語応答を実現している。

従来のオープンモデルはデータセンターで運用されてきたが、クラウド依存はレイテンシとコストの課題を抱える。Jetsonはシステムオンモジュールにコンピュートとメモリを統合し、メモリ不足による調達難を解消しながら、産業機器向けに安定したエッジ推論環境を提供する。

ロボティクス分野ではFranka RoboticsのFR3 DuoがオンボードでGR00T N1.6モデルを実行し、タスクスクリプト不要で知覚から動作まで完結させた。NYU・UIUCなどの研究機関もJetson Thor上でヒューマノイド制御や抹茶製造ロボットの開発に成功している。

個人開発者レベルでも活用が広がっており、Hugging FaceのAndré Marafiotiはエージェント型AIシステムをJetson AGX Orin上で構築し、タスク自律スケジューリングを実現した。CollabnixのAjeet Singh RainaはOpenClawをJetson Thor上で24時間稼働させ、メール・カレンダー管理を自動化している。

Jetson Thorは現在、Gemma 3・Mistral 3・Qwen 3.5・gpt-oss-20B・NVIDIA Cosmosなど主要オープンモデルを広くサポートしており、開発者はvLLM・Ollamallama.cppなど多様なフレームワークを選択できる。GTC 2026では産業自律化の未来をテーマにした展示も予定されている。

NVIDIAがComfyUI連携強化、ローカルAI動画生成を大幅高速化

ComfyUI刷新

App Viewで初心者も利用可能に
ノード不要の簡易UIを追加
RTX最適化で40%高速化達成

性能と4K対応

NVFP4で2.5倍高速・VRAM60%削減
RTX Videoで4Kアップスケール対応
Python開発者向け無償パッケージ公開

対応モデル拡大

FLUX.2 KleinのNVFP4/FP8版公開
LTX-2.3のNVFP4対応も近日予定

NVIDIAは米サンフランシスコで開催中のGame Developers Conference(GDC)において、ComfyUIとの連携強化を含むAI動画生成の高速化アップデートを発表しました。RTX GPUおよびDGX Sparkデスクトップ向けに、コンセプト開発やストーリーボード制作の効率を大幅に向上させます。

ComfyUIに新たに追加されたApp Viewは、ノードグラフに不慣れなアーティスト向けの簡易インターフェースです。プロンプト入力とパラメータ調整だけで画像生成が可能になり、従来のNode Viewとの切り替えもシームレスに行えます。AI創作ツールの利用障壁を大きく引き下げる取り組みです。

性能面では、RTX GPUへの最適化により9月比で40%の高速化を実現しました。さらにGeForce RTX 50シリーズのNVFP4フォーマットを活用することで、パフォーマンスは2.5倍に向上し、VRAMの使用量は60%削減されます。FP8でも1.7倍の高速化と40%のVRAM削減を達成しています。

RTX Video Super ResolutionがComfyUIのノードとして利用可能になり、生成した動画リアルタイムで4Kにアップスケールできるようになりました。従来の手法と比較して30倍高速で、VRAM消費も大幅に抑えられます。AI開発者向けにはPyPIから無償のPythonパッケージも公開されています。

対応モデルも拡充され、FLUX.2 Kleinの4Bおよび9BモデルのNVFP4・FP8版がHugging Faceで公開されました。LTX-2.3のFP8版も利用可能で、NVFP4対応も近日中に予定されています。ゲーム開発者クリエイターがローカル環境で高品質なAI動画を生成できる基盤が着実に整いつつあります。

HuggingFace、非同期RL訓練の設計指針を16ライブラリ調査から導出

同期RL訓練の課題

推論待ちGPU稼働率40%以下
32Bモデルの1バッチ生成に数時間
ストラグラー問題が遅延を増幅

非同期化の共通設計

推論と訓練をGPUプールに分離
ロールアウトバッファで両者を接続
8/16ライブラリがRayを採用
NCCLブロードキャストが重み同期の標準

TRL新設計と今後の課題

トークン単位のバージョン管理を採用
MoE対応が次世代の差別化要因

Hugging Faceは、大規模言語モデルの強化学習(RL)訓練における非同期アーキテクチャの設計指針を、16のオープンソースライブラリを7軸で比較調査した結果として公開しました。

同期型RL訓練では、推論フェーズがウォールクロック時間の大半を占め、訓練用GPUが長時間アイドル状態になります。32Bモデルで32Kトークンのロールアウトを生成すると、1GPU当たり約3.7時間を要し、GRPOのグループ生成では最も遅い完了に全体が律速されます。

調査対象の全ライブラリが共通して採用した解決策は、推論と訓練を別々のGPUプールに分離し、ロールアウトバッファで接続して非同期に重みを転送する構成です。これにより推論は継続的にデータを生成し、訓練側は待機なく勾配計算を進められます。

比較7軸のうち特に重要なのは、重み同期プロトコル陳腐化管理です。重み同期ではNCCLブロードキャストが主流で、verlのバケット化により20ミリ秒まで短縮可能です。陳腐化対策はバージョン棄却・深度制限・重要度サンプリング補正の3戦略があり、本番環境では複合的に組み合わせる傾向にあります。

Hugging FaceTRLの新しい非同期トレーナーに向け、トークン単位のバージョンタグ付きバウンデッドキュー、NCCLバケット転送、エージェント型ワークロード向けの部分ロールアウト対応を設計方針として示しました。今後はMoEモデルのエキスパート並列対応や、蒸留との統合が差別化の鍵になると分析しています。

Hugging FaceがUlyssesシーケンス並列でミリオントークン学習を実現

技術の仕組み

アテンションヘッドを複数GPUに分散
All-to-All通信で通信量を1/Nに削減
Ring Attentionより低レイテンシで効率的
FlashAttention 2/3と完全互換

エコシステム統合

AccelerateでParallelismConfig設定のみ
Transformers Trainerが損失集計を自動処理
TRL SFTTrainerでSFT最適化に対応
Liger-Kernelと組み合わせてメモリ節約

ベンチマーク結果

96Kトークンを4枚のH100で学習可能
64K時にスループットが3.7倍向上
8K時はDP=4と同等メモリ消費

Hugging Faceは2026年3月、Snowflake AI Researchが開発したArctic Long Sequence Training (ALST)プロトコルの一部であるUlyssesシーケンス並列(SP)をAccelerate・Transformers Trainer・TRL SFTTrainerに統合したことを発表した。

Ulyssesは、トランスフォーマーのアテンション機構が系列長の2乗でメモリ・計算量が増大する課題を解決する手法で、系列をGPU間で分割したうえでアテンションヘッドも並列化し、All-to-All通信を1アテンション層あたり2回行うことで通信量をO(S×H/N)に抑えている。

Ring Attentionと比較すると、Ulyssesの通信量はGPUあたりRing Attentionの1/N倍で済み、全帯域幅を1ステップで活用できるAll-to-All集合通信により低レイテンシを実現している。ただし、ヘッド数がsp_size以上である必要があるという制約がある。

ベンチマークではQwen3-4BをH100 80GB×4枚で学習し、SP=4の構成で最大96Kトークン(66GB)まで安定して学習できることを確認した。64Kトークン時のスループットは1GPU比で3.7倍の13,396トークン/秒を記録し、通信オーバーヘッドは最小限であることが示された。

利用にはdeepspeed>=0.18.1・accelerate>=1.12が必要で、HopperアーキテクチャにはFlashAttention 3、BlackwellにはFlashAttention 4(リリース待ち)の使用が推奨されている。ZeRO Stage 3やLiger-Kernelとの組み合わせでさらなるメモリ削減も可能だ。

IBMがGranite 4.0 1B Speechを公開、エッジ向け多言語音声認識で首位

モデルの特徴

パラメータ数を前世代比半減
英語転写精度が前世代を上回る
投機的デコード推論を高速化
日本語を含む6言語に対応
キーワードバイアシング機能を新搭載

性能と展開

OpenASRリーダーボードで1位獲得
パラメータ数以上の翻訳精度を実現
Apache 2.0ライセンスで公開
Granite Guardianとの組み合わせ推奨

IBMは2026年3月9日、エッジデバイス向け音声言語モデル「Granite 4.0 1B Speech」をHugging Faceで公開した。多言語音声認識(ASR)と双方向音声翻訳(AST)に対応し、英語・仏語・独語・西語・葡語・日本語の6言語をサポートする。

前世代モデル「granite-speech-3.3-2b」と比べてパラメータ数を半分の約10億に削減しながら、英語転写の単語誤り率(WER)は改善した。投機的デコードの採用により推論速度も向上しており、リソースが限られたデバイスでの実用展開を想定した設計となっている。

今回の新機能として、日本語ASRサポートとキーワードバイアシングが追加された。キーワードバイアシングは固有名詞や略語の認識精度を高める機能で、コミュニティから要望の多かった機能を優先実装している。

性能面では、Hugging Faceが運営するOpenASRリーダーボードで1位を獲得。複数の標準ベンチマークにおいて、はるかにパラメータ数の多いモデルと同等以上の精度を達成しており、小規模モデルとしての競争力を示した。

モデルはApache 2.0ライセンスで公開され、transformersおよびvLLMでネイティブサポートされる。本番環境ではリスク検出のためにGranite Guardianとの組み合わせが推奨されており、アーキテクチャ詳細や学習データはモデルカードで確認できる。

HuggingFace、LeRobot v0.5.0でヒューマノイド対応と6つの新ポリシーを追加

ハードウェア拡張

Unitree G1ヒューマノイド初対応
全身協調制御(WBC)の実現
OpenArmロボットアームの統合
CANバスモーター対応で高性能化

AIポリシーと高速化

Pi0-FAST自己回帰VLAの導入
Real-Time Chunkingで推論の応答性向上
LoRA/PEFTで大規模VLAの効率微調整
画像学習10倍高速化を実現

エコシステム整備

EnvHubでHub上のシミュレーション環境を直接利用
NVIDIA IsaacLabとのGPU並列学習統合
サードパーティポリシープラグイン対応
ICLR 2026採択で学術的評価を獲得

Hugging Faceは2026年3月にオープンソースロボット学習フレームワーク「LeRobot」のv0.5.0をリリースした。同バージョンでは初のヒューマノイドロボット対応や6つの新ポリシー追加、データパイプラインの大幅な高速化など、あらゆる次元でのスケールアップが実現されています。

最大のハードウェア追加はUnitree G1ヒューマノイドの全面サポートです。歩行・ナビゲーション・物体操作・遠隔操作に加え、全身協調制御(WBC)により移動と操作を同時実行できる。これはLeRobotが卓上アームを超えた汎用ロボティクスへ踏み出す重要な一歩となっています。

ポリシー面ではPi0-FASTが注目されます。Gemma 300Mベースの自己回帰型アクションエキスパートを採用し、FASToトークン化によって離散化されたアクション列を生成します。また推論技術のReal-Time Chunking(RTC)は、フローマッチングポリシーの応答性を劇的に改善し、実世界デプロイでのレイテンシ問題を解消します。

データセットパイプラインではストリーミングビデオエンコーディングの導入により、エピソード記録後のエンコード待ち時間がゼロになりました。さらに画像学習が最大10倍、エンコードが3倍高速化されており、データ収集からモデル訓練までのサイクルが大幅に短縮されています。

コードベース面ではPython 3.12+とTransformers v5への移行が完了し、サードパーティポリシープラグインシステムの導入でエコシステムの拡張性が向上しました。EnvHubとNVIDIA IsaacLab-Arenaの統合により、シミュレーション環境の共有・活用も容易になっています。同論文はICLR 2026にも採択されており、学術コミュニティからの評価も高まっています。

Hugging Face、画像生成パイプラインを自在に組み替える新基盤を公開

モジュラー設計の核心

ブロック単位で自由に着脱
既存APIと互換性を維持
カスタムブロックをHub共有可能
コンポーネントの遅延読み込み対応

エコシステムの広がり

Kreaがリアルタイム動画生成に採用
ノードUIMellonと統合
モジュラーリポジトリで量子化モデル参照
コミュニティパイプラインがHub上で増加

Hugging Faceは、画像生成ライブラリDiffusersの新機能「Modular Diffusers」を公開しました。従来の固定的なDiffusionPipelineクラスに代わり、テキストエンコード・デノイズ・デコードなどの処理を独立したブロックとして組み合わせる設計を導入しています。

各ブロックは入出力が明確に定義されており、パイプラインから任意のブロックを抜き出して単独実行したり、別のブロックと差し替えたりすることが可能です。たとえば深度推定ブロックを作成し、ControlNetワークフローの先頭に挿入するといった柔軟な構成が数行のコードで実現できます。

カスタムブロックはHugging Face Hubに公開でき、他のユーザーがtrust_remote_codeオプションで即座に読み込めます。公式テンプレートも用意されており、コンポーネント定義・入出力宣言・処理ロジックの3要素を記述するだけでブロックを作成できます。

すでにコミュニティでの活用が始まっており、KreaはB200 GPU1枚で11fpsのリアルタイム動画生成パイプラインを構築しました。またOverworldのWaypoint-1はインタラクティブなワールド生成をモジュラーブロックで実装しています。

ノードベースのビジュアルインターフェース「Mellon」との統合も進んでおり、ブロックのAPI定義からUIを自動生成する仕組みを備えています。ComfyUIに似た操作感ながら、モデルに応じてノードが動的に変化する点や、パイプライン全体を1ノードに集約できる点が特徴です。

NXPがロボットAIのエッジ実装手法を公開

データ収集の要点

カメラ固定とコントラスト確保
グリッパーカメラの併用推奨
作業空間を分割し多様なエピソード収録
失敗リカバリ動作を20%含める

エッジ最適化と成果

VLAモデルをブロック分割し個別最適化
量子化でレイテンシ2.86秒→0.32秒
非同期推論で連続動作を実現
i.MX 95で精度96%を達成

NXPは2026年3月5日、組み込みプラットフォーム上でロボットAIを動作させるための実践ガイドをHugging Faceと共同で公開しました。データ収録からVLAモデルの微調整、オンデバイス最適化までの一連の手法を体系的に示しています。

Vision-Language-Action(VLA)モデルは、視覚と言語の理解に基づきロボットの動作を生成する次世代技術です。しかし組み込み環境では計算資源やメモリ、消費電力の制約があり、リアルタイム制御との両立が大きな課題となっています。

データ収集ではカメラの固定設置、照明の統一、対象物とのコントラスト確保が重要とされています。特にグリッパーに装着したカメラが精密操作の成功率を大幅に向上させることが確認されました。作業空間を11クラスタに分割し、各クラスタで多様な開始位置を記録する手法が推奨されています。

最適化ではVLAモデルをビジョンエンコーダ、LLMバックボーン、アクションエキスパートの3ブロックに分解し、それぞれ独立に量子化を適用しました。ビジョンとLLM部分は4〜8ビット量子化が可能な一方、ノイズ除去を繰り返すアクション部分は高精度を維持する必要があります。

NXP i.MX 95プロセッサ上でACTポリシーを実行した結果、最適化モデルで推論レイテンシ0.32秒、テストセット精度100%、全体精度89〜96%を達成しました。非同期推論により動作中に次の指令を並行生成でき、滑らかなロボット制御を実現しています。今後はシミュレーション環境や強化学習を活用し、より複雑なタスクへの展開を目指します。

Microsoft、150億パラメータの視覚推論モデルPhi-4をオープン公開

モデルの特徴と性能

150億パラメータの軽量マルチモーダルモデル
競合比5分の1のデータ量で訓練
数学・科学推論GUI操作に特化
精度と推論速度のパレート最適を実現

推論の選択的制御

思考・非思考の混合モード搭載
画像認識は直接応答で低遅延実現
数学問題は段階的推論で精度向上
ユーザーがモード手動切替も可能

公開とエコシステム展開

HuggingFaceGitHub重み公開
Phiファミリーがロボティクス領域にも拡大

Microsoft Researchは、150億パラメータのオープンウェイト・マルチモーダル推論モデルPhi-4-reasoning-vision-15B」を公開しました。テキストと画像の両方を処理し、数学・科学の推論、チャート読解、GUI操作など幅広いタスクに対応します。

最大の特徴は訓練効率の高さです。約2000億トークンのマルチモーダルデータで訓練されており、QwenGemma3など競合モデルが1兆トークン以上を使用するのに対し、およそ5分の1のデータ量にとどまります。その秘訣はオープンソースデータの徹底的なフィルタリングと品質改善にあります。

技術的に注目すべきは「混合推論」アプローチです。訓練データの約20%に思考過程を含む推論サンプルを、80%に直接応答のサンプルを使用し、モデルがタスクに応じて推論の要否を自動判断する仕組みを実現しました。画像キャプションでは即座に応答し、数学では段階的に思考します。

ベンチマーク評価では、ChartQAで83.3、MathVistaで75.2、ScreenSpot v2で88.2のスコアを記録しました。大型モデルのQwen3-VL-32Bには及ばないものの、同規模モデルを上回り、推論速度と精度のバランスでパレート最前線に位置しています。

Microsoftは本モデルをMIT許容ライセンスで公開し、ファインチューニングコードや評価ログも提供しています。Phiファミリーはエッジデバイス向けのPhi Silicaロボティクス向けのRho-alphaにも拡大しており、「最も賢いモデルは最大のモデルではなく、いつ考えるべきか知っているモデルだ」という戦略を鮮明にしています。

Alibaba Qwen技術リーダー林氏が突然退任、チーム再編へ

主要メンバーの相次ぐ離脱

林駿洋氏Qwen技術リーダーを退任
研究員Hui氏やインターンも同時離脱
Qwen3.5小型モデル発表の翌日の退任
同僚が「本人の意思ではない」と示唆

Alibabaの組織再編と戦略転換

Google DeepMind出身の周昊氏が後任に
CEOが基盤モデルタスクフォース設立を発表
垂直統合型R&D;から水平分業型へ転換
オープンソース戦略の継続を表明

オープンソースAIへの影響

Qwenモデルの累計6億DL超の実績
9万社超の企業導入への信頼性懸念
将来モデルの有料API限定化の可能性
中国発オープンソースAIの転換点

AlibabaのAIモデルQwenの技術リーダーである林駿洋(ジャスティン・リン)氏が2026年3月上旬に退任を発表しました。退任はQwen3.5小型モデルシリーズの発表からわずか1日後のことで、同僚の研究員やインターンも相次いで離脱しています。

林氏はXに「me stepping down. bye my beloved qwen」と短い投稿を残しました。同僚の陳成氏は「辞めるのは本人の選択ではなかった」と示唆し、チーム内外に衝撃が広がっています。Hugging FaceのAPACエコシステム責任者も「計り知れない損失」と評しました。

Alibaba CEOのエディ・ウー氏は社内書簡で林氏の貢献に感謝を示すとともに、自身を含む基盤モデルタスクフォースの設立を発表しました。オープンソースモデル戦略の継続とAI研究開発への投資拡大を約束しています。

背景には組織方針の対立があるとされます。林氏が推進した垂直統合型の自律的チーム運営に対し、経営側は数百人規模のプロジェクトを「一人の頭脳」で管理することへの限界を指摘しました。Google DeepMind Geminiチーム出身の周昊氏が後任に就任し、研究重視から指標重視への転換が進む見通しです。

Qwenモデルは累計6億ダウンロードを超え、9万社以上の企業が導入する中国最大級のオープンウェイトAIです。業界では今後のモデルが有料APIに限定される可能性が指摘されており、オープンソースAIコミュニティにとって大きな転換点となっています。

独テレコム、通話中に呼び出せるAIアシスタントを導入

サービスの概要

ElevenLabsと共同開発
「Hey Magenta」で通話中に起動
リアルタイム翻訳や予定確認に対応
アプリ不要で端末を問わず利用可能

プライバシーの懸念

非暗号化通話へのAI導入リスク
研究者がUXの不自然さを指摘
音声アクセント偏り問題も浮上

展開計画と制約

まずドイツ国内のみで提供開始
12カ月以内に50言語対応予定

ドイツの通信大手ドイツテレコムは、AI音声企業ElevenLabs提携し、通話中にウェイクワード「Hey Magenta」で呼び出せるAIアシスタントMagenta AI Call Assistant」を発表しました。MWC 2026バルセロナで両社幹部が登壇し、概要を公開しています。

このアシスタントリアルタイムの多言語翻訳、カレンダー参照による空き時間の確認、地図サービスを使った近隣施設の検索などの機能を備えています。特定のアプリやスマートフォンを必要とせず、通信ネットワーク側に組み込まれている点が既存の端末依存型サービスとの大きな違いです。

一方で、プライバシーに関する懸念も指摘されています。Hugging Faceの研究者アビジット・ゴーシュ氏は、非暗号化の電話回線にAIアシスタントを導入することでデータ収集のリスクが高まると警告しました。通話中に突然AIに話しかけるUXの不自然さも問題視しています。

さらにゴーシュ氏は、ElevenLabs合成音声におけるアクセント偏りに関する研究を発表しており、英語を母語としない話者の地域アクセントの認識精度に課題があると述べています。汎用的なAIを十分な安全策なしに展開することへの懸念を示しました。

ドイツテレコムは、サービスはオプトイン方式で通話の双方が同意する必要があると説明しています。音声録音は保存されず、EU一般データ保護規則(GDPR)に完全準拠するとしています。まずドイツ国内で年内に提供を開始し、12カ月以内に最大50言語への翻訳対応を計画しています。

Alibaba「Qwen3.5」小型モデル群公開、9Bで120B超え性能

小型で大型超えの性能

9BOpenAI 120Bを上回る推論性能
ノートPC上でローカル実行可能
Apache 2.0で商用利用も無償

技術革新と実用性

ハイブリッドアーキテクチャで高効率化
ネイティブマルチモーダル対応
0.8B〜9Bの4モデル構成

企業への影響

エッジ推論クラウドAPI不要に
文書解析・コード生成など業務自動化に対応

Alibaba傘下のQwenチームは2026年3月、小型オープンソースモデルQwen3.5 Small Model Series」を公開しました。0.8B、2B、4B、9Bの4モデルで構成され、Apache 2.0ライセンスのもとHugging FaceとModelScopeで即日提供が開始されています。

最大の注目点はQwen3.5-9Bの性能です。GPQAベンチマークで81.7を記録し、13.5倍の規模を持つOpenAIgpt-oss-120B(80.1)を上回りました。MMMU-Proでも70.1を達成し、Gemini 2.5 Flash-Liteの59.7を大幅に超えています。

技術面では従来のTransformerアーキテクチャから脱却し、Gated Delta NetworksとスパースMixture-of-Expertsを組み合わせたハイブリッド構造を採用しています。これにより推論時のスループット向上と低レイテンシを実現し、小型モデルの「メモリの壁」問題を解消しています。

開発者コミュニティからは強い関心が寄せられています。「M1 MacBook Airで無料で動く」との報告や、ブラウザ上での動画解析が可能との検証結果が共有されました。Baseモデルも同時公開され、企業独自のファインチューニングが容易になった点も高く評価されています。

企業活用の観点では、エッジデバイス上でのUI自動操作、文書解析、コードリファクタリング、モバイルでのオフライン動画要約など幅広い用途が想定されます。クラウドAPIへの依存を減らしコスト削減データ主権の確保を両立できる点が、企業導入の大きな推進力となりそうです。

Hugging FaceがMoEの仕組みを詳解

MoEの技術概要

複数の専門家モデルを状況に応じて選択的活用
全パラメータを常時使わず計算効率を向上
DeepSeekMistralが採用する主流アーキテクチャ
スケーリングコストを抜本的に削減

Hugging FaceのブログがTransformerにおけるMixture of Experts(MoE)アーキテクチャを詳細解説しました。MoEは複数の「専門家ネットワークを持ち、入力に応じて最適な専門家を選択して処理する仕組みです。

MoEはDeepSeekMistralなど最新の高効率LLMが採用している主流アーキテクチャで、同等の品質をより低い計算コストで実現します。エンジニアがAIシステムを設計・選択する際の必須知識です。

Unsloth×HFでLLM微調整が無料開放へ

無料LLMファインチューニングの実現

Hugging Face JobsプラットフォームでUnslothを無料利用可能
高速かつ低メモリなLLMファインチューニングが一般開放
LoRA/QLoRAベースの効率的な訓練手法に対応
GPUアクセスのない研究者・開発者に訓練機会を提供
クラウドコストの民主化でドメイン特化モデルが普及

エコシステムへの影響

ファインチューニング参入コストが実質ゼロに低下
企業・研究機関がカスタムモデルを低コストで構築可能
Unslothの速度最適化技術がHFのスケールで利用可能に
HFのモデルハブとの統合でデータセット→訓練→公開が一貫

Hugging FaceとUnslothは、Hugging Face Jobsプラットフォームを通じてLLMのファインチューニングを無料で提供するパートナーシップを発表しました。Unslothはその高速化(通常の2〜5倍速)とメモリ効率(最大80%削減)で知られており、これをHFのクラウドインフラと組み合わせることで、GPUを持たない開発者や研究者に訓練機会を開放します。

ファインチューニングの民主化は、AI活用の次のフロンティアを拓きます。汎用的な基盤モデルをドメイン特化させる能力は、医療、法律、製造など特定業界でのAI活用精度を大幅に向上させます。これまでこの作業には高額なGPUクラスターが必要でしたが、今後は個人や中小企業でも実施可能になります。

HuggingFaceにとってこの提携は、モデルハブ(保管)からトレーニング基盤(構築)、さらにはデプロイメントまでをカバーするフルスタックMLプラットフォームとしての地位を強化します。Unslothのユーザーベースを取り込む獲得戦略でもあります。

Unslothの側では、有料の商用サービスへの入口としてHF経由の無料ティアを活用する戦略です。無料で試したユーザーが高度な機能や大規模訓練のために有料プランに移行するフリーミアムモデルを狙っています。

この動きはより広いトレンドの一部です。LLMの推論コストが下がり続ける中、次の競争軸は専用化・個別最適化にシフトしています。ファインチューニングの民主化が進むことで、汎用LLMよりもドメイン特化モデルが主流になる時代が近づいています。

llama.cppがHFに合流して機能強化

ローカルAI基盤の統合

Georgi Gerganov率いるGGMLチームがHFに合流
llama.cppは最も広く使われるローカル推論エンジン
HuggingFace傘下でコミュニティ規模の拡大を目指す
GGML形式がGGUFフォーマットとして業界標準に確立
商業利用・研究利用双方でのオープン推進が継続

ローカルAIエコシステムへの影響

エッジ・オンデバイス推論の民主化が加速
クラウドへの依存を減らすプライバシー重視AIが普及
企業向けオンプレAI展開の標準スタックとして定着
HFのモデルハブとの深い統合でアクセスが容易に
コミュニティ持続性の確保が長期課題

Hugging Faceは、最も影響力のあるローカルAI推論フレームワークであるGGMLとllama.cppの開発者Georgi Gerganovとそのチームを迎え入れたと発表しました。この統合は、ローカルAI推論エコシステムの長期的な発展を担保する重要な動きです。

llama.cppは、MacのM系チップからRaspberry Piまで幅広いデバイスでLLMを実行できるフレームワークとして、ローカルAI革命の立役者となってきました。GGUF形式はモデルの量子化・配布の事実上の標準フォーマットとして採用されています。

HuggingFaceとの統合により、GGMLチームはHFの広大なモデルハブ、コミュニティ、インフラを活用できるようになります。一方、HFにとってはオンデバイスAI分野での存在感を大幅に強化できるメリットがあります。

ローカルAIの重要性はプライバシー保護、オフライン利用、低コスト展開の観点から高まり続けています。企業がクラウドAIコストに悩む中、オンプレミスLLMの需要は急速に拡大しており、llama.cppはそのユースケースで中心的役割を担っています。

この統合はオープンソースAIエコシステムの成熟を示す重要なマイルストーンです。商業的に成功したHFがコミュニティ主導の重要プロジェクトを取り込むことで、オープンソースの持続可能性モデルの新たな形を示しています。

NVIDIAが日本語特化小型AIモデルを公開

日本語SLMの性能と特徴

Nejumi Leaderboardでトップ性能
10Bパラメータ以下の最先端モデル
オープンモデルとして公開

NVIDIA日本語に特化した小規模言語モデル(SLM)「Nemotron 2 Nano 9B Japanese」をHugging Faceで公開しました。Nejumi Leaderboard 4において10Bパラメータ以下のモデルで最先端の性能を達成しています。

このモデルは日本主権AI(Sovereign AI)戦略を支えるために設計されており、日本語データで特化したファインチューニングが施されています。開発者がモデルをカスタマイズできるよう、データセットやレシピも合わせて公開されます。

日本語対応の高精度AIモデルへの需要が高まる中、NVIDIAの本モデルは日本企業のAI活用を加速させる可能性があります。エッジデバイスやオンプレミス環境での実行も視野に入れた設計です。

VercelがClaude Opus 4.6対応とAIアクセラレータ、HuggingFaceがSyGra Studio公開

各プラットフォームのアップデート

Vercel AI GatewayでOpus 4.6が即日対応
600万ドル分のクレジットを付与する加速プログラム
SyGra StudioHuggingFaceが公開
AI開発者向けツールが一斉拡充
Vercel Acceleratorの第2弾開始
アプリ開発速度の大幅短縮

開発者エコシステム

スタートアップ支援の資金提供競争
AI開発の参入障壁をさらに低下
エコシステム囲い込み戦略

Vercelは2026年2月5日、AI GatewayがClaude Opus 4.6を即日サポートしたと発表し、新モデルを素早く開発環境に組み込める体制を示した。

同社はまた「Vercel AI Accelerator」の第2弾として、スタートアップに総計600万ドル分のインフラクレジットを提供するプログラムを開始した。

HuggingFaceも同日、AI開発のためのビジュアルプラットフォーム「SyGra Studio」を発表し、グラフィカルなAIワークフロー構築ツールを開発者に提供した。

これらの動きは開発者エコシステム獲得競争の一環で、スタートアップを早期に自社プラットフォームに取り込む戦略を反映している。

特にVercelのacceleratorプログラムはNext.js/Reactエコシステムの中心にいる同社がAIスタートアップの出口として選ばれることを狙ったものだ。

NvidiaのNemotronモデルがマルチモーダル検索と文書AIを強化

モデルの性能と用途

ColEmbed V2がマルチモーダル検索首位
ViDoRe V3ベンチマークでトップ達成
Nemotron AgentsがAIリアルタイムBI実現
文書構造を理解した情報抽出
RAGパイプラインとの高い親和性
エンタープライズ文書処理の革新

ビジネス活用

非構造化文書からKPI抽出
業務意思決定支援の即時化
Nvidiaエコシステムとの統合促進

Nvidiaは2026年2月4日、マルチモーダル検索モデル「Nemotron ColEmbed V2」がHuggingFaceのViDoRe V3ベンチマークでトップスコアを達成したと発表した。

ColEmbed V2は画像・テキスト・表・チャートを統合したマルチモーダル文書検索において卓越した性能を持ち、企業の複雑な文書からの情報抽出を実現する。

Nemotron Agentsはリアルタイムで文書をビジネスインテリジェンスに変換するシステムで、ERPデータやレポートから即座にKPIを算出できる。

これらのモデルはNvidiaのAI基盤(NIM)上で動作し、既存のRAGアーキテクチャ検索システムへの統合が容易だ。

日本企業においても大量の非構造化文書(契約書、報告書等)を持つ組織にとって、文書AI自動化の実用性が高まった重要な進展だ。

MistralがオープンソースVoxtral音声モデルと超高速翻訳モデルを公開

新モデルの特徴

Voxtral Transcribe 2をオープンソース公開
オンデバイス動作で低コスト実現
高速翻訳モデルが大手AIに匹敵
数セント音声処理を実現
プライバシー保護のエッジ処理対応
多言語対応の幅が大幅拡大

開発者・企業への影響

オープンウェイト自社サービス統合可能
コスト効率クラウドAPIへの代替
リアルタイム翻訳アプリ開発が加速

Mistralは2026年2月4日、オープンソースの音声文字起こしモデル「Voxtral Transcribe 2」と超高速翻訳モデルを相次いで公開した。

Voxtral Transcribe 2はオンデバイスで動作し、処理コストが数セント程度と非常に低く、プライバシーを重視するアプリケーション開発者にとって魅力的な選択肢となる。

翻訳モデルはWiredの報道によると、OpenAIGoogleなど大手企業のモデルに匹敵する速度と精度を実現しており、オープンソースの競争力を示した。

両モデルともにHuggingFace経由でダウンロード・利用可能であり、開発者は自社サービスに統合することでクラウドAPIコストを削減できる。

Mistralのオープンソース戦略は欧州発AIの競争力を示すものとして注目されており、日本企業にとっても活用しやすいモデルの登場となった。

HuggingFaceがコミュニティEvalsで不透明なリーダーボードへ対抗

Community Evalsの仕組み

コミュニティ主導のモデル評価プラットフォーム
ブラックボックス評価への代替提案
実際のユーザーによる多様なタスク評価
オープンな評価指標で透明性向上
HuggingFaceが審査の中立性を担保
特定ベンダー有利のバイアス排除を目指す

業界への意義

AIベンチマーク信頼性問題に対処
オープンソースモデルの公正な評価機会
ユーザー目線の実用性評価が可能に

HuggingFaceは2026年2月4日、「Community Evals」プラットフォームを発表した。既存の非透明なAIリーダーボードに代わる、コミュニティ主導の評価手法だ。

現在のAIモデル評価では大手企業が有利になるようベンチマーク汚染が疑われるケースも多く、独立した評価の必要性が叫ばれていた。

Community Evalsでは実際のユーザーが多様なタスクでモデルを評価し、その結果を集計することでより現実的な能力比較が可能になる。

HuggingFaceが中立的なプラットフォームとして評価プロセスの透明性と公正性を担保することで、オープンソースモデルにも公平な評価機会が与えられる。

このイニシアティブはAI評価の民主化を推進し、実用性重視の選定基準を業界に広める意味で、モデル選定に迷う企業にとって重要な参照先となる。

Nous Research、NousCoder-14Bをオープンソースで公開

NousCoder-14Bの特徴と性能

14Bパラメータのオープンソースコーディングモデル
主要コーディングベンチマークで最高水準に近い性能
コード生成・補完・デバッグ・解説を高品質で実行
HuggingFaceで無償公開、自由に商用利用が可能
14B規模でコスト効率の高いローカル実行が可能
企業内コードの機密性を保ちながら活用できる

Nous Researchは14BパラメータのオープンソースコーディングモデルNousCoder-14Bを公開しました。主要なコーディングベンチマークでトップクラスに近い性能を示しており、オープンソース・コーディングモデルの水準を引き上げる成果として注目されています。

14Bという規模は、高品質なコード生成とローカル実行のバランスが取れたサイズです。企業内のコードリポジトリや業務ロジックを外部クラウドAPIに送らずに処理できるため、ソースコードの機密性を重視する開発組織にとって特に価値が高いモデルです。

HuggingFaceで商用利用可能な形で公開されており、開発者コミュニティによる採用と改善が見込まれます。CodeLlamaDeepSeekCoderなどの既存モデルとの直接競争の中で、Nous Researchの研究能力の高さを示す成果となっています。

小型モデルがマルチモーダル検索の精度を大幅に向上

Llama Nemotron RAGモデルの性能

HuggingFaceLlama Nemotron RAGモデルを公開
マルチモーダル検索で大型モデルに匹敵する精度
視覚的なドキュメント検索(VDR)の精度を改善
テキストと画像の混在したドキュメントを効率処理
小型かつ高速なモデルで運用コストを削減
RAGパイプラインへの組み込みが容易な設計

実務への応用と意義

ドキュメント処理の精度とコストを両立
PDFや表・グラフを含む複合文書に強い
クラウドに依存しないローカル展開が可能
金融・法務・医療などの業種で高い需要
エンタープライズ検索システムの精度向上に貢献
オープンソースで無償利用できる利点も大きい

HuggingFaceは、小型でありながら高い精度を持つLlama Nemotron RAGモデルの詳細を発表しました。このモデルはマルチモーダル検索と視覚的なドキュメント検索(VDR)において、はるかに大型のモデルと競争できる性能を持ちます。

特に、テキストと図表・画像が混在するPDFや業務文書の検索において優れた結果を示しています。RAGパイプラインに組み込むことで、エンタープライズ検索システム全体の精度向上が期待できます。

小型モデルの高性能化というトレンドの典型例として、オンプレミスや低コストクラウドでの展開が可能であり、クラウドへのデータ送信をためらう金融・医療・法務などのセンシティブな業界での活用が広がりそうです。

NvidiaがロボティクスAIスタック全体を公開:物理AIの時代が本格化

Cosmos Reason 2とAlpamayoの革新

Cosmos Reason 2ロボット向け推論VLMを実現
自律走行車・産業ロボット双方に適用可能
Alpamayoオープンソースモデルが自動車に思考力を
「人間のように考える」自動運転AIが目標
Isaac Lab-Arenaシミュレーション評価を自動化
LeRobotとの統合で汎用ロボット政策を評価

NvidiaがロボティクスのAndroidを目指す

ロボット向け共通基盤モデルを標準化
シミュレーション→実機の移行コスト削減
エッジAIハードウェアとの統合が鍵
MobileNet的な役割をロボティクスで担う
物理AIが製造・物流・農業を変革

Nvidiaは「物理AI」(Physical AI)という概念を中心に、ロボティクス向けAIスタック全体を公開した。Cosmos Reason 2は視覚言語モデル(VLM)に推論能力を組み合わせ、自動運転車や産業ロボットが複雑な物理環境を理解・判断できる基盤を提供する。

Alpamayoは自律走行車向けのオープンソースAIモデル群で、「人間のように考える」能力の実現を目指している。複数シナリオの推論・予測・意思決定を組み合わせることで、従来のルールベース自動運転からAI推論型へのパラダイムシフトを促進する。

Isaac Lab-Arenaはシミュレーション環境でロボット政策(Policy)を自動評価するツールで、実機テストのコストと時間を大幅に削減できる。LeRobotHugging Face)との統合により、汎用ロボット政策の標準的なベンチマーク基盤として機能する。

Jensen HuangのビジョンはNvidiaを「ロボティクスAndroid」として位置づけることだ。スマートフォンでAndroidが共通プラットフォームとして機能したように、Nvidiaロボットスタックがさまざまなハードウェアメーカーの共通基盤になることを目指している。

物理AIの普及は製造・物流・農業・医療など多岐にわたる産業に変革をもたらす。Nvidiaロボティクスエコシステムへの参加企業数が増加するにつれ、ネットワーク効果が働き業界標準としての地位が強固になる見通しだ。

Nvidia DGX Spark・DGX StationとBlueFieldがエンタープライズAIを刷新

デスクトップAIスーパーコンピューターの登場

DGX Sparkがデスクトップサイズで最先端モデルを動作
DGX Stationが研究・開発チーム向けの高性能版
オープンソース・フロンティアモデル双方に対応
クラウド依存なしのオンプレミスAI実現
NvidiaHugging Faceが連携してエージェント展開
Reachy Miniロボットとのエージェント統合デモ

BlueFieldによるセキュリティと加速

BlueField DPUがAIファクトリーのネットワークを保護
ゼロトラストセキュリティハードウェアレベルで実現
ネットワーク・ストレージ・セキュリティを統合処理
エンタープライズAIファクトリーの標準構成に
サイバー攻撃への耐性強化が大企業の要件
CPUオフロードで主処理の効率が大幅向上

NvidiaはCES 2026でDGX SparkとDGX Stationという2つのオンプレミスAIコンピューティング製品を発表した。DGX Sparkはデスクトップサイズながら最先端のAIモデルをローカルで実行できる製品で、研究者・開発者中小企業AI活用を民主化する。

Hugging Faceとの連携により、DGX Spark上でオープンソースモデルを即座にデプロイし、エージェント型AIアプリケーションを構築できる。Reachy Miniロボット)をDGX Sparkで制御するデモは、AIエージェントが物理世界に接続される未来を示した。

DGX Stationは研究チームや企業のAI開発部門向けに設計された、より高性能な版だ。フロンティアモデルのファインチューニングや大規模推論クラウドなしで実行できることで、データプライバシーと低遅延を両立する。

BlueField DPUはエンタープライズAIファクトリーネットワークセキュリティと加速の要として位置づけられている。AIインフラへのサイバー攻撃が増加する中、ハードウェアレベルでのゼロトラストセキュリティ実装が大企業の重要要件となっている。

DGX SparkとBlueFieldを組み合わせることで、エッジからデータセンターまで一貫したNvidiaエコシステムを構築できる。これは企業がクラウドプロバイダーへの依存を減らしながら、AI能力を高めるという二律背反を解消する重要なアーキテクチャとなっている。

GoogleがAI安全ツールと超小型エッジモデルを公開

AI安全性研究ツール

Gemma Scope 2で全モデルを解析可能
Jailbreakや幻覚の仕組みを可視化
史上最大規模のOSSリリース
110PBデータでSAE・トランスコーダ訓練

エッジ向け小型モデル

FunctionGemmaを端末上で動作
関数呼び出し精度が85%に向上
2026年向けエージェント予測も発表

Google DeepMindGemma 3の全サイズ(2.7億〜270億パラメータ)に対応するオープンソース解釈可能性ツール群「Gemma Scope 2」を公開しました。AI安全性研究コミュニティ向けとしては過去最大規模のリリースです。

Gemma Scope 2はスパースオートエンコーダ(SAE)とトランスコーダを組み合わせ、モデルの内部動作を可視化します。Jailbreakや幻覚のメカニズム、思考連鎖の誠実性などの研究に活用できます。同ツールの開発には約110PBのデータと1兆パラメータ超の学習が必要でした。

Google DeepMindはさらに270Mパラメータの超小型エッジモデル「FunctionGemma」もリリースしました。自然言語のユーザーコマンドを構造化コードに変換することに特化し、クラウド接続なしで動作します。

内部評価では標準的な小型モデルが58%の精度しか出なかった関数呼び出しタスクで、FunctionGemmaは85%を達成しています。スマートフォン・ブラウザ・IoT機器での動作を想定し、HuggingFaceとKaggleで公開中です。

Google Cloudは「2026 AIエージェントトレンドレポート」も公開し、生産性向上・業務プロセス自動化・顧客体験・セキュリティ・AI人材育成の5領域でエージェントが変革をもたらすと予測しています。

GemmaとHF v5が新展開を加速

Gemmaの新バリアント

FunctionGemmaエッジ公開
T5Gemma 2が長文脈対応
累計DL3億件超を達成

研究・ツールの進展

MITが学習不適を覆す実験
HF v5で設計刷新
Kaggleで5日集中講座
C2Scaleで癌研究応用

GoogleGemmaモデルの新バリアント「FunctionGemma」を公開しました。エッジデバイス上でのカスタム関数呼び出しに特化した軽量設計で、オフライン環境での活用が広がります。

「T5Gemma 2」はGemma 3基盤のエンコーダー・デコーダーモデルで、マルチモーダル処理と長文脈への対応を初めて実現しており、文書分類や翻訳タスクでの活用が期待されています。

MITのCSAIL研究チームは、これまで学習不適とされてきたニューラルネットワークも短期間のガイダンスで効果的に学習できることを実験的に実証し、従来の通説を覆しました。

Hugging FaceTransformers v5でトークナイザーの設計を大幅に刷新し、学習済み語彙との分離によってコードのモジュール性を高め、カスタマイズと保守の容易さを向上させました。

KaggleとGoogleが共催した5日間のAIエージェント集中講座には世界中から多数の参加者が集まり、実践的なAI教育への高い需要と世界的なAI学習熱の高まりを改めて示しました。

Gemmaファミリーの累計ダウンロード数は3億件を突破しており、一般的なNLPタスクを超えて癌研究(C2Scale)など高度に専門化された科学的応用も着実に増加しています。

AIエージェント構築・検証・微調整の最前線

自律エージェントの精度を高める新アプローチ

ReplitのAgent 3がREPLベース検証で200分以上の自律動作を実現
ブラウザ自動化とコード実行を組み合わせ「見せかけ実装」を自動検出
IBM製オープンソースフレームワークCUGAがHugging Face Spacesに統合
AppWorldベンチマーク1位・WebArena上位を達成した設定可能な汎用エージェント
プランナー/エグゼキューター分離とコードアクト方式で幻覚を抑制
MCP・OpenAPI・LangChain対応のマルチツール連携機能を提供

エージェントAIを支えるデータ基盤と軽量ファインチューニング

Twilioレポートで54%の消費者がAIの文脈保持の欠如を指摘
会話型AIには静的CDPではなくリアルタイム会話メモリが必要と提言
NVIDIAがNemotron 3ファミリーをエージェントAI微調整向けに発表
Unslothを使い低メモリNVIDIA GPULoRA/QLoRAによる効率的なファインチューニングが可能

ReplitはAgent 3の開発において、コードが「動いているように見えるだけ」の問題、いわゆる「ポチョムキン実装」に悩まされてきました。この課題を解決するためREPL(対話型実行環境)とブラウザ自動化を組み合わせた独自の検証システムを構築し、エージェントが生成したコードを実際に実行・操作して機能の実在性を確認できるようにしました。

この仕組みによりAgent 3は200分以上にわたって自律的にタスクを継続でき、単に見た目を整えるだけの実装を自動的に検出・修正するサイクルを回せるようになりました。自己テスト型の検証ループはエージェント品質保証に新たな基準を示しています。

IBMが開発したCUGA(Configurable Generalist Agent)はオープンソースの汎用AIエージェントフレームワークです。AppWorldベンチマークで1位、WebArenaでも上位を記録しており、WebやAPIを跨ぐ複雑なマルチステップタスクを高い精度でこなします。

CUGAは現在Hugging Face Spacesに統合され、オープンモデルと組み合わせて誰でも試せる環境が整いました。推論モードをコスト・レイテンシに応じて切り替えられる柔軟な設計が特徴で、MCP・OpenAPI・LangChain経由の多様なツール連携にも対応しています。

Twilioの調査によると、消費者の54%が「AIは過去のやりとりをほとんど覚えていない」と感じており、AIから人間担当者へ引き継がれる際に全文脈が共有されると答えたのはわずか15%でした。エージェントAIが真に機能するには、リアルタイムで携帯可能な会話メモリが不可欠です。

この問題を解決するには、従来のCRMやCDPを使い続けるのではなく、会話メモリをコミュニケーションインフラの内部に組み込む必要があると指摘されています。Twilioはこうした次世代の顧客データ基盤の構築を推進しています。

NVIDIAはNemotron 3ファミリーを発表し、エージェントAIの微調整に最適化されたオープンモデルとライブラリを提供しました。GeForce RTXラップトップからDGX Sparkまで幅広いNVIDIA GPUで動作します。

Unslothを使ったLoRA/QLoRAによるファインチューニングは、フルパラメータ更新より少ないメモリと時間でモデルを特定タスクへ特化させる手法です。製品サポートや個人アシスタントなどの用途で小型言語モデルの精度を高める実用的なアプローチとして注目されています。

Ai2、強化学習を延長したOLMo 3.1を公開

OLMo 3.1の概要と強化学習の延長

Ai2がOLMo 3.1をリリース、OLMo 3の後継として公開
OLMo 3.1 Think 32BとInstruct 32Bの2モデルを更新
Think 32Bは追加21日・224GPU規模でRLトレーニングを延長
AIMEで5点超、ZebraLogicで4点超など主要ベンチマークが大幅改善
Instruct 32Bは7Bモデルのレシピを32Bに適用して開発
現在はAi2 PlaygroundとHugging Faceで利用可能、API提供も予定

ベンチマーク性能とオープンソースへの取り組み

OLMo 3.1 ThinkはAIME 2025でQwen 3 32Bを上回る性能を記録
OLMo 3.1 InstructはGemma 3を上回る数学ベンチマーク結果を達成
32Bスケールのオープン命令調整モデルとして最高水準と主張
RL-Zero 7Bの数学コーディングモデルも長期安定学習で更新
データ・コード・学習決定の完全な透明性を維持する方針を継続
OLMoTraceによる学習データ追跡ツールも引き続き提供

アレン人工知能研究所(Ai2)は、オープンソース言語モデルファミリー「OLMo 3」のアップデート版となる「OLMo 3.1」を公開しました。前バージョンのリリース後も強化学習(RL)トレーニングを継続し、さらなる性能向上を実現しています。

OLMo 3.1 Think 32Bは、OLMo 3 Think 32BのRLトレーニングを追加21日間、224個のGPUを用いて延長することで開発されました。数学推論・命令追従の各ベンチマークで大幅な改善が確認されています。

具体的な改善幅としては、AIMEで5点超、ZebraLogicで4点超、IFEvalで4点超、IFBenchで20点超の向上が報告されています。コーディングや複雑な多段階タスクの性能も向上しています。

OLMo 3.1 Instruct 32Bは、より小規模な7Bモデル向けの手法を大規模化することで構築されました。チャット、ツール利用、マルチターン対話に最適化された設計になっています。

ベンチマーク比較では、OLMo 3.1 ThinkがAIME 2025においてQwen 3 32Bを上回り、Gemma 27Bに近い性能を示しました。OLMo 3.1 InstructはGemma 3を数学ベンチマークで超えたとされています。

Ai2はデータ・コード・学習プロセスの完全な透明性を重視しており、企業や研究機関がモデルのデータ構成を把握・変更できる点を強調しています。OLMoTraceツールによるLLM出力と学習データの追跡機能も提供が続いています。

モデルはAi2 PlaygroundおよびHugging Faceで即時利用可能であり、API経由のアクセスも近日中に提供予定とされています。また、数学コーディング向けのRL-Zero 7Bモデルも今回の更新で改善されています。

Codex、HF Skills連携でOSSモデル訓練可能に

統合の機能

トレーニングメトリクスの監視
チェックポイント評価と報告作成
GGUF量子化とHub公開

意義と展望

Claude Codeに続く統合
AGENTS.mdでリポジトリ設定
OSS開発の民主化に貢献

Hugging Faceが、OpenAIコーディングエージェントCodex」にHugging Face Skillsリポジトリを統合しました。先行してClaude Codeで実現された機能に続くもので、Codexオープンソースモデルの訓練から公開まで一連のMLタスクを実行できるようになります。

HF Skillsにより、Codexは言語モデルのファインチューニング、RL整合の適用、Trackioからのリアルタイムメトリクス監視、チェックポイント評価、実験レポート作成、GGUF量子化、Hugging Face Hubへの公開が可能です。AGENTS.mdファイルによるリポジトリレベルの設定に対応しています。

この統合は、コーディングエージェントとMLOpsプラットフォームの融合における重要な進展です。ソフトウェア開発とML エンジニアリングの壁を低くし、専門的なMLインフラの知識がないチームでもオープンソースモデル開発に取り組める環境の実現に貢献します。

Nous Research、数学推論AIのNomos 1をOSS公開

数学推論の新たな到達点

オープンソース数学推論AINomos 1を公開
難関パトナム試験で2位の成績を達成
Hugging Faceで自由に利用可能
プロプラ系に匹敵する推論能力を実証
専門領域でのOSS AI競争力を証明
高度な数学的問題解決能力を備える

サンフランシスコのNous Researchが、オープンソースの数学推論AIシステム「Nomos 1」を公開しました。北米で最も難しい学部レベルの数学コンペティションであるパトナム試験で全体2位という優秀な成績を収めています。Hugging Faceで公開され、研究コミュニティが自由に活用できます。

この成果は、オープンソースAIが高度な専門推論分野でプロプライエタリなシステムと競争できることを示す重要なマイルストーンです。コミュニティ主導の開発でも、潤沢な資金を持つ企業のシステムに匹敵する性能が実現可能であることを証明しています。

MS、安価な病理画像から高精度な細胞データを生成するAI公開

希少データを仮想生成しコスト削減

安価なH&E;画像から仮想mIF画像を生成
4000万細胞の学習データで高精度を実現

大規模な仮想集団で医学的発見

1.4万人の患者から30万枚画像を生成
がん微小環境と指標の関連を1234件特定

オープンソースで医療AI加速

外部データセットで検証し有効性を確認
モデルをHugging Face無償公開

マイクロソフトリサーチは12月9日、Providenceらと共同で、がん研究用マルチモーダルAI「GigaTIME」を発表しました。安価に入手可能な病理画像から、高価で希少な詳細分析データを仮想的に生成し、精密医療の進展を加速させます。

本技術の核心は、標準的なH&E;染色スライドから、高コストな多重免疫蛍光(mIF)画像を予測生成する点です。これにより、従来は資金と手間の制約で困難だった大規模な腫瘍微小環境の分析が、既存の安価なデータ資産を用いて可能になります。

研究チームは4000万個の細胞データでAIを訓練し、1万4256人の患者データに適用しました。その結果、30万枚の仮想画像を生成し、がんの進行や生存率に関わる1234件の統計的に有意な関連性を新たに特定することに成功しています。

外部のTCGAデータセットを用いた検証でも高い整合性が確認されました。同社はこのモデルをオープンソースとして公開しており、将来的には個々の患者の病態をデジタル上で再現する「仮想患者」の実現に向けた重要な一歩と位置づけています。

Claudeが自律的にLLM学習実行、HF新機能公開

指示だけで学習工程を完結

自然言語でファインチューニングを指示
最適なGPU選定とコスト試算を自動化
データセット検証からデプロイまで代行

実用的な学習手法を網羅

SFT・DPO・GRPOなど主要手法に対応
ローカル利用向けのGGUF形式への変換
学習進捗をリアルタイム監視可能

Hugging Faceは2025年12月4日、AIエージェントClaude」などがLLMのファインチューニングを自律的に実行できる新機能「Skills」を発表しました。エンジニアはチャットで指示するだけで、複雑な学習プロセスを完結できます。

本機能はスクリプト作成に留まらず、クラウド上のGPU確保からジョブ送信、進捗監視、モデルのアップロードまでを自動化します。データセットの形式チェックや、モデル規模に応じた最適なハードウェア選定もAIが代行し、失敗リスクを低減します。

対応手法は、一般的な「SFT(教師あり微調整)」に加え、人間の好みを反映する「DPO」、数学やコード生成に有効な「GRPO」など多岐にわたります。実運用レベルの高度なモデル開発が、対話インターフェースを通じて手軽に実行可能になります。

利用にはHugging FaceのPro以上のプランが必要です。開発者インフラ管理の時間を節約でき、AIモデルのカスタマイズやローカル環境向けの軽量化(GGUF変換)を、低コストかつ迅速に試行錯誤できるようになり、生産性が大幅に向上します。

Hugging Faceがv5発表、PyTorch特化と相互運用性強化

開発効率を高める構造改革

モデル定義をモジュール化し保守性向上
開発基盤をPyTorchへ完全一本化

実用性を極めた学習・推論

大規模な事前学習への対応を強化
OpenAI互換の推論サーバー機能導入
低精度の量子化を標準機能として統合

エコシステムをつなぐハブへ

外部推論エンジンとの連携を円滑化
ローカル実行オンデバイス対応

Hugging Faceは、AI開発のデファクトスタンダードであるライブラリの最新版「Transformers v5」を発表しました。本バージョンでは「相互運用性」と「シンプルさ」を最優先し、コード構造のモジュール化やPyTorchへのバックエンド一本化を断行。急速に拡大するAIエコシステムにおいて、エンジニアがより効率的に学習・推論を行えるよう、量子化の標準サポートや外部ツールとの連携を強化した大型アップデートです。

前バージョンのリリースから5年、Transformersは爆発的な成長を遂げました。1日あたりのインストール数は2万回から300万回へと急増し、累計ダウンロード数は12億回を突破。サポートするモデルアーキテクチャも40種類から400種類以上へと拡大しており、AI技術の民主化と普及を支える重要なインフラとしての地位を確立しています。

v5の最大の焦点は「シンプルさ」の追求です。開発チームは「コードこそが製品である」という哲学のもと、モデル定義のモジュール化を推進。複雑化していたコードベースを整理し、新しいモデルの追加や保守を容易にしました。これにより、コミュニティによる貢献プロセスが簡素化され、最新モデルへの対応速度がさらに向上します。

技術的な大きな転換点として、バックエンドをPyTorchに一本化します。TensorFlowやFlaxのサポートを縮小し、PyTorch財団との連携を深めることで、パフォーマンスと安定性を最大化します。同時に、JAXエコシステムとの互換性は維持し、多様な開発環境やニーズに応える柔軟性も確保しています。

実用面では、推論機能と量子化が大幅に強化されました。新たにOpenAI互換のAPIを持つ「transformers serve」を導入し、手軽な推論サーバー構築が可能に。また、8-bitや4-bitといった低精度モデルの量子化を「第一級市民」として扱い、リソース制約のある環境でも高性能なモデルを効率的に扱えるようになります。

最終的な目標は、あらゆるAIツールとのシームレスな連携です。UnslothやAxolotlでの学習から、vLLMやllama.cppを用いた推論・ローカル実行まで、Transformers v5はエコシステムのハブとして機能します。この高い相互運用性により、開発者は最適なツールを自由に組み合わせ、生産性を最大化できるでしょう。

AI応答速度と効率を劇的改善する「連続バッチ」技術

LLM運用の課題と解決策

生成AIの計算負荷と遅延の解消
従来のパディングによる無駄を排除

核心となる技術要素

KVキャッシュで再計算を回避
パディング不要のRagged batching
長文を分割するChunked prefill

実装によるビジネス効果

推論スループットの最大化
GPUリソースの完全稼働
大規模同時接続への柔軟な対応

生成AIの実装において、応答遅延と膨大なGPUコストは経営上の大きな課題です。解決の切り札となるのが、最新の推論最適化技術Continuous batchingです。本稿ではHugging Faceの技術解説を基に、AIインフラ生産性を最大化する本技術の全貌を紐解きます。

LLMの核となるAttention機構は計算コストが高く、通常は過去の計算結果をKVキャッシュとして保存し再計算を防ぎます。しかし、複数リクエストを同時処理する際、従来のバッチ処理では長さの不揃いな文章を扱うために非効率が発生していました。

最大の問題は、長さを揃えるための「パディング(穴埋め)」による無駄です。無意味なデータ処理でGPUメモリを浪費し、さらに長い処理の終了待ちが発生します。これはシステム全体のスループットを低下させ、コスト対効果を悪化させる主因でした。

新技術はRagged batchingを採用し、この常識を覆します。パディングなしで複数リクエストを連結し、Attentionマスクで干渉を防ぎます。空いたリソースへ即座に次のタスクを割り当て、GPU稼働率を限界まで高めることが可能になります。

加えて、長い入力を分割処理するChunked prefillを組み合わせます。これにより、メモリ不足を防ぎつつ、短い生成処理の合間に長い読込処理を隙間なく実行します。動的なスケジューリングにより、常に最適な順序で計算が行われます。

結果として「初期読込」と「文章生成」を混在させ、処理能力を劇的に向上させます。これはChatGPT等の大規模基盤であり、AIサービスの収益性と体験を両立させるため、エンジニアのみならずリーダー層も理解すべき必須概念です。

MSのPC操作AI「Fara-7B」 端末完結でGPT-4o凌駕

端末完結でGPT-4o超え

70億パラメータの軽量モデルでPC動作
WebVoyagerで勝率73.5%を達成
視覚情報のみでマウス・キー操作

高度なプライバシーと安全設計

データが外部に出ないピクセル主権
重要操作前に停止する安全機構

革新的な学習手法と入手性

合成データによる効率的な学習
MITライセンスで商用利用も可能

マイクロソフトは2025年11月24日、PC操作に特化した新しい小規模言語モデル(SLM)「Fara-7B」を発表しました。わずか70億パラメーターながら、GPT-4oベースのエージェントを凌駕する性能を記録。データが外部に出ないオンデバイス実行を実現し、プライバシー保護と低遅延を両立させています。

最大の特徴は、人間と同じように画面の視覚情報だけを頼りに操作を行う点です。HTMLコード等の裏側情報を必要とせず、スクリーンショットからボタン位置などを認識してマウスやキーボードを操作します。Web操作のベンチマーク「WebVoyager」では、GPT-4o(65.1%)を上回る73.5%のタスク成功率を達成しました。

ビジネス利用で重要なのがセキュリティです。Fara-7Bはローカル環境で動作するため、機密情報がクラウドに送信されるリスクを排除する「ピクセル主権」を確立しています。また、送金やメール送信などの不可逆的な操作の直前には、必ずユーザーの同意を求める「クリティカルポイント」機能が組み込まれています。

開発には「知識の蒸留」という高度な手法が用いられました。マルチエージェントシステム「Magentic-One」が生成した14万件以上の高品質な合成データを学習させることで、小型モデルながら複雑な推論能力を獲得しています。ベースモデルには視覚処理に優れたQwen2.5-VL-7Bが採用されました。

本モデルは現在、Hugging Face等を通じてMITライセンスで公開されており、商用利用を含む試験運用が可能です。Windows 11搭載のCopilot+ PCでも動作確認済みで、企業は自社のセキュリティ要件に合わせたPC操作自動化エージェントの開発を、低コストかつ安全に開始できます。

Hugging Faceが音声認識評価を刷新、LLM融合が精度で圧倒

評価軸の拡張と現状

多言語と長文書き起こしを評価軸に追加
登録モデル数は150以上に急増

精度と速度のトレードオフ

LLMデコーダーとの統合が最高精度を記録
高速処理はCTC/TDT方式が最大100倍速

実用シーン別の選定指針

長文認識はクローズドソースが依然優位
英語特化と多言語対応で性能差が顕著

Hugging Faceは2025年11月、音声認識(ASR)モデルの性能を競う「Open ASR Leaderboard」を大幅に更新しました。従来の短い英語音声に加え、多言語対応長文書き起こしの評価軸を新設し、ビジネス現場で真に使えるモデルの選定指針を提示しています。

精度の面では、音声処理に特化したConformerエンコーダーとLLMデコーダーを組み合わせたモデルが首位を独占しています。NVIDIAやIBM、Microsoftの最新モデルが示すように、LLMの推論能力を統合することで、認識精度が飛躍的に向上しているのです。

一方で、会議の議事録作成など速度が求められる場面では、選択肢が異なります。LLMベースは高精度ですが処理が重いため、リアルタイム処理にはCTCTDTといった軽量なデコーダーを持つモデルが適しており、最大で100倍の処理速度を実現します。

多言語対応や長文処理においては、依然としてOpenAIのWhisperや商用のクローズドソースモデルが強力です。特定の言語に特化させて精度を高めるか、汎用性を取るかというトレードオフが存在するため、導入時には用途に応じた慎重なモデル選定が不可欠です。

Apple端末でのLLM開発を統一、Hugging Faceが新API公開

複雑なAI実装を一本化

Apple端末向け統合LLMライブラリ
ローカルとクラウド同一コードで制御
OpenAIやMLXなど幅広く対応

開発効率と拡張性を両立

標準API準拠で学習コストを抑制
依存関係を絞れるTraits機能採用
将来を見据えた画像入力機能も先行実装

Hugging Faceは11月20日、Apple端末向けにローカル・クラウドLLMを統一的に扱えるSwiftパッケージ「AnyLanguageModel」を発表しました。開発者は複雑なAPI統合から解放され、AI機能の実装とモデル選定が劇的に効率化します。

従来、Apple端末でのAI開発は、Core ML等のローカル実行とOpenAI等のクラウド利用で異なる実装が必要でした。この「統合の摩擦」は開発者の大きな負担となり、最適なモデルを柔軟に試行錯誤するコストを高止まりさせていたのです。

本ツールはAppleの標準フレームワークを拡張して設計され、わずかなコード変更で多様なモデルへの切り替えを可能にします。Swift 6.1の新機能を活用し、必要なライブラリのみを読み込むことで、アプリサイズを肥大化させない工夫も特徴です。

特筆すべきは、Apple標準機能に先駆け画像入力等のマルチモーダル機能に対応した点です。ローカルLLMの活用障壁を下げるこの動きは、端末内で完結する高度なAIエージェント開発への重要な足がかりとなるでしょう。

「LLMバブルは来年崩壊」Hugging Faceトップが予測

LLMへの過度な期待

現在はLLMバブルの渦中にある
来年にもバブル崩壊の可能性を指摘
万能モデルへの資金集中を懸念

特化型AIへのシフト

LLMはAIの一部に過ぎない
バイオや化学など応用分野は初期段階
今後数年で実用化が加速する見通し

Hugging FaceのClem Delangue CEOは11月中旬、現在は「LLMバブル」の渦中にあり、来年にも崩壊する可能性があると警告しました。しかしAI全体については強気で、生物学や化学などへの応用はまだ初期段階だとの見解を示しています。

Delangue氏が問題視するのは、単一の巨大モデルですべてを解決しようとする汎用チャットボットへの偏重です。膨大な計算資源と資金が一部に集中する現状に対し、これらが必ずしもすべての企業や課題にとって最適解ではないと指摘します。

重要なのは、LLMバブルの崩壊がAIの終わりを意味しない点です。画像音声、科学研究といった特定領域へのAI応用はこれから本格化します。市場は「何でもできるチャットボット」から、具体的な課題を解決する実用的なAIへとシフトしていくでしょう。

Hugging Face CEO「LLMバブル」崩壊を予測

バブルの所在と予測

現在はLLMバブルの最中
来年にも崩壊する可能性
AI全体の未来はリスクなし

モデル開発の未来

万能モデルから特化型へシフト
小型・高速・安価なAIが普及
企業の自社インフラで運用へ

堅実な経営戦略

他社と異なる資本効率重視
調達資金の半分を温存
長期的な持続可能性を追求

Hugging FaceのClem Delangue CEOは11月18日、Axiosのイベントにて、現在の市場は「AIバブル」ではなく「LLMバブルの状態にあると指摘しました。このバブルは来年にも弾ける可能性がありますが、AI技術自体の将来性については楽観的な見解を示しています。

同氏は、ChatGPTなどの大規模言語モデル(LLM)に資金や注目が集中しすぎている現状を懸念しています。しかしLLMはAIの一側面に過ぎず、生物学や画像音声といった分野への応用はまだ初期段階にあり、今後数年で大きな発展を遂げると予測しています。

「一つの巨大モデルが全ての問題を解決する」という考え方から、今後は「特化型モデル」の活用へとシフトが進むでしょう。銀行のチャットボットに哲学的な問いは不要であり、より小型で安価、かつ高速なモデルが企業の課題を解決する未来を描いています。

企業の自社インフラで運用可能なカスタマイズモデルの普及は、セキュリティやコスト面でも合理的な選択です。汎用的な巨大モデルへの依存から脱却し、実用性と効率性を重視したAIの実装が、これからのエンジニア経営者に求められる視点となるでしょう。

バブル崩壊の影響について、同社は堅実な財務戦略で備えています。他社がインフラに巨額を投じる中、Hugging Faceは調達資金の半分を温存し、短期的な熱狂に流されず長期的な持続可能性を追求する姿勢を明確にしています。

Hugging Face、ROCmカーネル開発・共有基盤を公開

ROCmカーネル開発を刷新

複雑なビルド工程を自動化
Nixによる再現性の高い環境構築
PyTorchとのシームレスな統合
CUDA、Metalなどマルチ対応

Hubで共有し即時利用

開発資産をHubで公開・共有
コミュニティによる再利用を促進
数行のコードでカーネルを読込

Hugging Faceは2025年11月17日、AMD製GPU向けのカスタムカーネル開発を大幅に簡素化する新ツール群とガイドを発表しました。高性能な深層学習に不可欠なカスタムカーネルですが、その開発は複雑でした。新ツール「kernel-builder」とライブラリ「kernels」により、開発者はビルドや共有の手間から解放され、AMDのROCmプラットフォーム上で効率的にAI開発を進められるようになります。

なぜ、このようなツールが必要なのでしょうか。従来、カスタムカーネルの開発は、特定のGPUアーキテクチャに合わせたコンパイルや、PyTorchなどのフレームワークとの連携において、専門的な知識と煩雑な作業を要しました。設定ファイルの記述ミスや環境差異によるエラーは日常茶飯事で、開発者の大きな負担となっていました。この生産性のボトルネックを解消することが、新ツールの狙いです。

中核となる「kernel-builder」は、ビルドからPyTorch連携までを自動化します。特に、ビルド環境を完全に固定する「Nix」技術により、誰でも同じ結果を保証する「再現性」を確保。これにより開発プロセスが大幅に安定します。

最大の特長は、Hugging Face Hubを通じた共有エコシステムです。開発したカーネルはHubで公開でき、他ユーザーは数行のコードで即時利用可能。コミュニティ全体で資産を共有し、開発の車輪の再発明を防ぎます

今回の発表では、具体的な事例としてAMDの最新GPU「Instinct MI300X」に最適化された行列積(GEMM)カーネルが紹介されました。深層学習の中核演算であるGEMMを高速化するこのカーネルは、Hugging Faceのツール群がいかに実用的な性能向上に貢献するかを明確に示しています。

今回の取り組みはAMD製GPUの活用を大きく後押しします。ソフトウェア開発の障壁を下げ、NVIDIA優位の市場に新たな競争軸をもたらす可能性があります。オープンなエコシステム戦略が、今後のAIの進化を加速させるでしょう。

Meta、1600言語対応の音声認識AIを無償公開

Whisperを凌駕する規模

OpenAIの99言語を圧倒
1600以上の言語を公式サポート
ゼロショット学習で5400言語へ拡張可能
少数言語のデジタル化を促進

ビジネス利用を後押し

Apache 2.0ライセンスで公開
商用利用に一切の制限なし
企業の多言語対応コストを削減
新たな音声アプリ開発の起爆剤

Metaは2025年11月10日、1,600以上の言語に対応する多言語自動音声認識(ASR)モデル「Omnilingual ASR」をオープンソースで公開しました。このモデルは、OpenAIのWhisper(99言語対応)を大幅に上回る言語カバレッジを誇り、Apache 2.0ライセンスの下で商用利用も可能です。企業の多言語対応や新たな音声アプリケーション開発を加速させる一手となるでしょう。

「Omnilingual ASR」の最大の特徴は、その圧倒的な言語カバレッジです。公式サポートする1,600言語に加え、「ゼロショット学習」という技術を用いることで、事前の再学習なしに新たな言語の文字起こしが可能になります。これにより、理論上は世界に存在する約5,400の言語に対応できるとされ、これまでデジタル化から取り残されてきた少数言語の活用に道を開きます。

企業にとって、このモデルは大きなビジネスチャンスを意味します。ライセンスが商用利用を完全に許可するApache 2.0であるため、大企業も追加費用なしで自社サービスに組み込めます。多言語対応のカスタマーサポート、グローバルなコンテンツの字幕生成、教育ツールなど、これまでコストの壁で実現が難しかった分野での応用が期待されます。

このプロジェクトは、MetaのAI戦略における重要な転換点と見られています。最新の大規模言語モデル「Llama 4」が期待ほどの評価を得られなかった中、Omnilingual ASRはMetaの技術的信頼性を再確立する狙いがあります。制限の多いライセンスから完全にオープンな形態へ移行したことも、コミュニティからの信頼回復とエコシステム拡大に向けた強い意志の表れです。

今回の公開には、複数のモデルファミリーが含まれています。自己教師あり学習用の「wav2vec 2.0」モデルから、高精度な文字起こしを実現する「LLM-ASR」モデルまで、用途に応じて選択可能です。開発者GitHubHugging Faceを通じて、モデルやデータセットに即座にアクセスし、自社のプロジェクトに統合することができます。

Omnilingual ASRの登場は、音声認識技術のあり方を「固定的な機能」から「コミュニティが拡張できる基盤」へと変える可能性を秘めています。企業は言語の壁を越えた事業展開を加速でき、研究者やコミュニティは言語の多様性を保護・活用する新たなツールを手に入れたことになります。今後の活用事例が注目されます。

OpenAI、推論で安全性を動的分類する新モデル公開

新モデルの特長

開発者安全方針を直接定義
推論ポリシーを解釈し分類
判断根拠を思考過程で透明化
商用利用可能なオープンモデル

従来手法との違い

ポリシー変更時の再学習が不要
大量のラベル付きデータが不要
新たな脅威へ迅速な対応が可能

性能と実用上の課題

小型ながら高い分類性能を発揮
処理速度と計算コストが課題

OpenAIは2025年10月29日、開発者が定義した安全方針に基づき、AIが推論を用いてコンテンツを動的に分類する新しいオープンウェイトモデル「gpt-oss-safeguard」を発表しました。このモデルは、従来の大量データに基づく分類器とは異なり、ポリシー自体を直接解釈するため、柔軟かつ迅速な安全対策の導入を可能にします。研究プレビューとして公開され、コミュニティからのフィードバックを募ります。

最大の特徴は、AIの「推論能力」を活用する点です。開発者は自然言語で記述した安全方針を、分類対象のコンテンツと共にモデルへ入力します。モデルは方針を解釈し、コンテンツが方針に違反するかどうかを判断。その結論に至った思考の連鎖(Chain-of-Thought)」も示すため、開発者は判断根拠を明確に把握できます。

このアプローチは、従来の機械学習手法に比べて大きな利点があります。従来、安全方針を変更するには、数千件以上の事例データを再ラベル付けし、分類器を再学習させる必要がありました。しかし新モデルでは、方針テキストを修正するだけで対応可能です。これにより、巧妙化する新たな脅威や、文脈が複雑な問題にも迅速に適応できます。

例えば、ゲームのコミュニティサイトで不正行為に関する投稿を検出したり、ECサイトで偽レビューを特定したりと、各サービスの実情に合わせた独自の基準を容易に設定・運用できます。大規模なデータセットを用意できない開発者でも、質の高い安全分類器を構築できる道が開かれます。

性能評価では、社内ベンチマークにおいて、基盤モデルである「gpt-5-thinking」を上回る精度を示しました。一方で、特定の複雑なリスクに対しては、大量のデータで専用に訓練された従来の分類器に劣る場合があることや、推論プロセスに伴う計算コストと処理遅延が課題であることも認めています。

OpenAIは、社内ツール「Safety Reasoner」で同様のアプローチを既に採用しており、GPT-5画像生成AI「Sora 2」などの安全システムの中核を担っています。今回のオープンモデル公開は、こうした先進的な安全技術を広く共有し、コミュニティと共に発展させることを目指すものです。モデルはHugging Faceからダウンロード可能で、Apache 2.0ライセンスの下で自由に利用、改変、配布ができます。

LLMも「脳腐敗」、低品質データで性能低下か

「LLM脳腐敗」仮説

人間の脳腐敗から着想
ジャンクデータで認知能力が低下
米国の複数大学が共同研究

「ジャンクデータ」の定義

高エンゲージメントで短い投稿
陰謀論や誇張された主張
クリックベイトなど扇動的な内容
GPT-4oで意味的な質を評価

ビジネスへの示唆

学習データの品質管理が不可欠
モデルの長期的な性能を左右

テキサスA&M;大学など米国の研究チームが、大規模言語モデル(LLM)を低品質な「ジャンクデータ」で継続的に学習させると、人間の「脳腐敗」に似た性能低下が起きる可能性を指摘する論文を発表しました。この研究は、LLMの性能を維持・向上させる上で、学習に用いるデータの「量」だけでなく「質」が極めて重要であることを示唆しており、AIをビジネス活用する企業にとって重要な知見となりそうです。

研究チームが提唱するのは「LLM脳腐敗仮説」です。これは、人間がインターネット上で些細で質の低いコンテンツを大量に消費すると、注意⼒や記憶⼒が低下する現象に着想を得ています。同様に、LLMもジャンクなウェブテキストで事前学習を続けると、持続的な認知能力の低下を招くのではないか、というのが仮説の骨子です。

では、何が「ジャンクデータ」と見なされるのでしょうか。研究チームはHuggingFaceが公開する1億件のツイートデータを分析し、2つの指標で定義を試みました。一つは、エンゲージメント(いいね、リツイート等)は高いが、文章が短いツイートです。これらは些細な内容でユーザーの注意を引く「ジャンク」の典型例とされました。

もう一つの指標は、ツイートの「意味的な質」です。研究チームはGPT-4oを活用し、陰謀論、誇張された主張、根拠のない断言、あるいはクリックベイトのような扇動的な見出しを含むツイートを「ジャンク」として分類しました。このAIによる分類の精度を人間が検証したところ、76%の一致率を示し、一定の信頼性が確認されています。

この研究は、AIをビジネスに活用する経営者エンジニアに重要な問いを投げかけています。自社データなどでLLMをファインチューニングする際、安易に大量のデータを投入するだけでは、かえってモデルの性能を損なう危険性があるのです。AI戦略において、データの品質をいかに担保するかというデータガバナンスの重要性が、改めて浮き彫りになったと言えるでしょう。

AIモデルの安全強化へ Hugging FaceとVirusTotalが提携

提携の概要と仕組み

220万超の全公開資産を常時スキャン
VirusTotalの脅威データベースと連携
ファイルハッシュ照合でプライバシー保護

ユーザーと企業への恩恵

ダウンロード前にファイルの安全性を可視化
悪意ある資産の拡散を未然に防止
CI/CDへの統合で開発効率を向上
信頼できるオープンソースAIエコシステムの構築

AIモデル共有プラットフォーム大手のHugging Faceは2025年10月23日、脅威インテリジェンスで世界をリードするVirusTotalとの協業を発表しました。この提携により、Hugging Face Hubで公開されている220万以上の全AIモデルとデータセットがVirusTotalによって継続的にスキャンされます。AI開発におけるセキュリティリスクを低減し、コミュニティ全体を悪意のあるファイルから保護することが目的です。

なぜ今、AIのセキュリティが重要なのでしょうか。AIモデルは、モデルファイルやデータに偽装されたマルウェア、不正なコードを実行する依存関係など、隠れた脅威を内包する可能性があります。プラットフォームが拡大するにつれ、共有される資産の安全性を担保することが、エコシステム全体の信頼性を維持する上で不可欠な課題となっています。

今回の連携では、ユーザーがHugging Face Hub上のファイルにアクセスすると、そのファイルのハッシュ値がVirusTotalのデータベースと自動で照合されます。ファイルの中身自体は共有されないため、プライバシーは保護されます。過去に悪意あると分析されたファイルであれば、その情報が表示され、ユーザーはダウンロード前にリスクを把握できます。

この協業は、開発者や企業に大きな恩恵をもたらします。ファイルの安全性が可視化されることで透明性が高まるだけでなく、企業はセキュリティチェックをCI/CD(継続的インテグレーション/継続的デプロイメント)のパイプラインに組み込めます。これにより、悪意ある資産の拡散を未然に防ぎ、開発の効率性と安全性を両立させることが可能になります。

Hugging FaceとVirusTotalの提携は、オープンソースAIのコラボレーションを「設計段階から安全(セキュア・バイ・デザイン)」にするための重要な一歩です。開発者が安心してモデルを共有・利用できる環境を整えることで、AI技術の健全な発展とイノベーションを強力に後押しすることになるでしょう。

Hugging Face、文章埋め込みの雄を正式に傘下へ

Hugging Faceへ正式移管

セマンティック検索で人気のライブラリ
開発元は独ダルムシュタット工科大学
Hugging Faceインフラ開発加速

エコシステムのさらなる発展

オープンソース・ライセンスは維持
コミュニティ主導の開発を継続
Hub上で1.6万超のモデルが利用可能
月間ユニークユーザーは100万人超

AIプラットフォームのHugging Faceは2025年10月22日、高品質な文章埋め込み生成ライブラリ「Sentence Transformers」を正式に管理下に置くと発表しました。これまでドイツのダルムシュタット工科大学UKP Labが主導してきましたが、今後はHugging Faceインフラを活用し開発を加速させます。これはセマンティック検索などを手掛ける開発者にとって重要な動きです。

Sentence Transformersは、文章の持つ意味を捉えたベクトル表現(埋め込み)を生成する人気のオープンソースライブラリです。2019年の登場以来、セマンティック検索や文章の類似度比較、クラスタリングといった多様な自然言語処理タスクで広く採用され、業界のデファクトスタンダードとしての地位を確立しています。

このライブラリは、もともとダルムシュタット工科大学のUKP Labで開発・維持されてきました。しかし、2023年後半からはHugging Faceエンジニアがメンテナンスを引き継いでおり、今回の発表でその関係が公式化されました。長年の研究成果が、エコシステムの中心的存在へと引き継がれる形となります。

Hugging Faceへの移管により、同社の持つ堅牢なインフラが最大限に活用されます。継続的インテグレーションやテスト環境が整備されることで、ライブラリの安定性が向上し、情報検索や自然言語処理における最新技術への追随がより迅速かつ確実になることが期待されています。

今後の運営方針はどうなるのでしょうか。ライセンスは従来通りApache 2.0を維持し、オープンソースかつコミュニティ主導のプロジェクトとして継続されます。Hugging Faceは、これまでのオープンで協力的な精神を尊重しつつ、プロジェクトのさらなる成長と革新を支援していくと表明しています。

Hugging Face Hubでは、既に1万6000以上のSentence Transformers関連モデルが公開され、月間100万人以上のユニークユーザーに利用されています。今回の正式移管は、この巨大なエコシステムをさらに強化し、AIを活用したアプリケーション開発の加速に繋がるでしょう。

AI Sheetsが画像対応、ノーコードでAI活用へ

画像から情報を自動抽出

領収書から項目を自動抽出
手書きメモを瞬時にテキスト化
画像内容をAIが分類・タグ付け

テキストで画像を生成・編集

指示文から画像を自動生成
既存画像スタイル変更も自在
SNS投稿用の素材を一括作成

AIプラットフォームのHugging Faceが、オープンソースのデータ活用ツール「AI Sheets」のメジャーアップデートを発表しました。今回の更新で新たに追加されたのは画像処理機能です。これにより、ユーザーはプログラミングの知識なしに、スプレッドシート上で直接、画像の分析、情報抽出、生成、編集が可能になります。データ活用のハードルを劇的に下げる一歩と言えるでしょう。

これまでのAI Sheetsは、主にテキストデータの構造化や拡充に強みがありました。今回のアップデートで「ビジョン(視覚)サポート」が加わったことで、製品カタログの写真、領収書、図表といった画像に含まれる膨大な情報を、誰でも簡単に扱えるようになります。ワークフローを分断することなく、テキストと画像を同一の環境で処理できるのが最大の特長です。

具体的な活用例として、領収書からのデータ抽出が挙げられます。複数の領収書の画像をアップロードし、「店名、日付、合計金額を抽出」といった簡単な指示を与えるだけで、自動的にデータが整理されます。手書きのレシピをデジタル化し、検索可能なデータベースにすることも可能です。人の手によるデータ入力作業を大幅に削減します。

コンテンツ制作の現場でも強力なツールとなります。例えば、SNS投稿の企画案が並ぶスプレッドシートで、「ヘルシーなレシピの美味しそうな写真」といった指示文から画像を直接生成できます。さらに「背景を木目調にして」といった指示で、生成した画像を編集することもでき、コンテンツ制作の全工程を一元管理できます。

これらの高度な機能は、Hugging Faceエコシステム上の数千に及ぶオープンなAIモデルによって支えられています。ユーザーは用途に応じて、処理速度と精度に優れた最新のモデルを簡単に切り替えて試すことが可能です。フィードバックを与えることで、モデルの出力精度をさらに高めることもできます。

この新しいAI Sheetsは、GitHubリポジトリから導入できるほか、インストール不要のウェブ版で誰でもすぐに試せます。画像という身近なデータをビジネス資産に変える強力な一手となり、データドリブンな意思決定コンテンツ制作の生産性向上に大きく貢献するでしょう。

NVIDIA、オープンソースAIで開発者エコシステムを主導

PyTorchとの連携強化

急成長AIフレームワークPyTorch
CUDAにPythonを第一級言語として追加
開発を容易にするCUDA Pythonを公開
1日200万DL超の人気を支える

オープンソースへの貢献

Hugging Faceへの貢献でトップに
1000超のツールをGitHubで公開
500以上のモデルと100以上のデータセット
AIイノベーションの加速と透明性確保

NVIDIAは、開催中の「Open Source AI Week」において、オープンソースAIのエコシステム強化に向けた新たな取り組みを発表しました。急成長するAIフレームワークPyTorchとの連携を深め、開発者NVIDIAGPUをより容易に活用できるツールを公開。AIイノベーションの加速と、開発者コミュニティへの貢献を鮮明に打ち出しています。

今回の発表の核心は、NVIDIAの並列コンピューティングプラットフォーム「CUDA」に、プログラミング言語Pythonを第一級言語として正式対応させた点です。これにより、世界で数百万人に上るPyTorch開発者コミュニティは、GPUアクセラレーションの恩恵をこれまで以上に簡単に受けられるようになり、生産性の飛躍的な向上が期待されます。

具体的には「CUDA Python」がGitHubとPyPIを通じて公開されました。これはカーネルフュージョンやパッケージングを簡素化し、迅速なデプロイを可能にします。1日200万回以上ダウンロードされるPyTorchの人気を背景に、NVIDIAの基盤技術がAI開発の現場で不可欠な存在であり続けることを示しています。

NVIDIAの貢献はPyTorchに留まりません。同社はAIモデル共有プラットフォーム「Hugging Face」において、過去1年で最大の貢献者となりました。GitHubでは1,000以上のオープンソースツールを公開するなど、モデル、ツール、データセットを広く提供し、透明性の高いAI開発を推進しています。

一連の取り組みは、オープンな協業を通じて技術革新を主導するというNVIDIAの強い意志の表れです。自社の強力なハードウェアと、活発なオープンソースコミュニティを結びつけることで、AIエコシステム全体の発展を促し、業界におけるリーダーシップをさらに盤石なものにする狙いがあるでしょう。

ソブリンAI、米中技術覇権の新たな主戦場に

米国のソブリンAI戦略

OpenAIが各国政府と提携
国家によるAI統制を支援
非民主主義国との連携に懸念も

中国のオープンソース攻勢

Alibabaのモデルは3億DL超
来年には米国を凌駕する可能性

真のAI主権をめぐる論点

主権にはオープンソースが必須との声
クローズドとオープンの両立も可能

OpenAIをはじめとするテクノロジー企業が、「ソブリンAI」の構築支援を各国で進めています。ソブリンAIとは、各国が自国の管理下でAIインフラを開発・運用する能力を指し、米中間の技術覇権争いの新たな主戦場となりつつあります。米国が同盟国との連携を深める一方、中国オープンソースモデルで世界的な影響力を急速に拡大しています。

OpenAIはアラブ首長国連邦(UAE)などの政府と提携し、大規模なデータセンター建設を含むソブリンAIシステム構築を支援しています。この動きは米国政府とも連携しており、同盟国が中国の技術に依存するのを防ぐという戦略的な狙いがあります。米国の技術を世界に普及させることで、地政学的な優位性を確保しようとしています。

しかし、UAEのような非民主主義国との提携には懸念の声も上がっています。かつて米国は、経済的な関与が中国の民主化を促すと期待しましたが、結果的に権威主義体制を強めることになりました。AI技術の提供が同様の結果を招かないか、過去の教訓が問い直されています。OpenAIは政府からの要請があっても情報検閲は行わないと明言しています。

対する中国は、オープンソース戦略で猛追しています。AlibabaやTencent、DeepSeekといった企業が公開した高性能な基盤モデルは、世界中で広く採用されています。特にAlibabaの「Qwen」ファミリーは3億回以上ダウンロードされ、日本を含む各国のスタートアップが自国語対応モデルの開発基盤として活用しています。

オープンソースAIモデルをホストするHugging FaceのCEOは、「真の主権はオープンソースなしにはあり得ない」と指摘します。モデルの内部を完全に検証・制御できるためです。中国企業はこの戦略により驚異的な速さで技術力を向上させ、5年前の遅れを取り戻し、今や米国と互角のレベルに達したと分析されています。

AIの国家主権をめぐる競争は、クローズドモデルを推進する米国勢と、オープンソースで勢力を拡大する中国勢という構図を呈しています。OpenAIは両アプローチの共存が可能との見方を示していますが、どちらが次世代のグローバルスタンダードを握るのか。この動向は、各国の事業戦略を左右する重要な要素となるでしょう。

AIで直感開発、新エンジンVibeGame登場

「Vibe Coding」の課題

AIに頼る直感的なゲーム開発
プロジェクト肥大化で性能が低下
既存エンジンはAIとの相性難

VibeGameの設計思想

Web技術の高いAI親和性を基盤に
Robloxのような高い抽象度を実現
AIが理解しやすい宣言的な構文を採用
柔軟なECSアーキテクチャ

現状と今後の可能性

基本機能で良好な結果を確認
複雑な機能は今後実装予定

AIプラットフォームのHugging Faceが、AI支援によるゲーム開発に特化した新オープンソースエンジン「VibeGame」を発表しました。これは、AIとの対話で直感的に開発を進める「Vibe Coding」の課題を解決するものです。Web技術のAI親和性と、高レベルな抽象化を両立させることで、開発者コーディングの詳細から解放され、創造的な作業に集中できる環境を目指します。

Vibe Coding」とは、AIを高レベルなプログラミング言語のように扱い、細かな実装をAIに任せる開発スタイルを指します。この手法は初期段階では有効ですが、プロジェクトが大規模化するとAIが文脈を把握しきれなくなり、性能が著しく低下するという課題がありました。特にゲーム開発では、このコンテキスト管理が成功の鍵を握ります。

開発チームは既存プラットフォームの比較検討から始めました。Robloxは抽象度が高いものの閉鎖的で、Unityは複雑すぎてAIが混乱しがちでした。一方、Web技術はAIの習熟度が高い反面、ライブラリが低レベルで、ゲームエンジン自体の構築から始める必要がありました。それぞれに一長一短があったのです。

そこでVibeGameは、両者の「良いとこ取り」を目指しました。AIが最も得意とするWeb技術(three.jsなど)を基盤としながら、Robloxのような高レベルな抽象化を提供します。これにより、開発者は「地面とボールを配置して」と指示するだけで、物理演算を含むシーンを簡単に生成できます。

VibeGameの核心は3つの設計思想にあります。第一に、物理演算などを内蔵した高い抽象度。第二に、AIが容易に理解・生成できるHTML風の宣言的構文。そして第三に、拡張性に優れたECSアーキテクチャです。これらが組み合わさることで、AIとの円滑な共同作業が初めて可能になります。

VibeGameはまだ初期段階にあり、対応するのは基本的な物理演算やレンダリングに留まります。しかし、簡単なゲーム開発のテストでは非常に良好な結果を示しました。今後は、インベントリ管理やマルチプレイヤー機能など、より複雑なメカニクスの実装を進め、本格的なゲーム開発への対応を目指していく計画です。

この新しいエンジンは、AIを単なるツールではなく「共同開発者」として扱う未来を示唆しています。経営者エンジニアにとって、VibeGameのような技術が開発プロセスをいかに変革し、生産性を劇的に向上させる可能性があるか、注目に値するでしょう。

DeepSeek、APIコスト半減の新AIモデル発表

APIコストを半減する新技術

長い文脈での推論コスト削減
APIコストが最大で半減
新技術「スパースアテンション」
実験モデル「V3.2-exp」を公開

効率化を実現する2段階選択

まず重要部分を抜粋・優先順位付け
次に抜粋内からトークンを選択
サーバー負荷を大幅に軽減
Hugging Faceで利用可能

中国のAI企業DeepSeekは29日、新しい実験的AIモデル「V3.2-exp」を発表しました。このモデルは「スパースアテンション」と呼ばれる新技術を搭載しており、長い文章や大量のデータを処理する際の推論コスト(APIコスト)を最大で半減させる可能性を秘めています。AIの運用コスト削減は業界全体の課題であり、今回の発表は大きな注目を集めています。

新技術の核心は、処理情報を効率的に絞り込む2段階の仕組みです。まずシステムが入力文から重要部分を抜粋し、次にその中から処理に必要な最小限のトークンを選択します。この選択と集中のアプローチにより、関連性の低い情報処理を省略し、サーバー負荷を大幅に軽減するのです。

AIモデルの運用コスト、特に「推論コスト」の削減は、AIサービスを普及させる上で極めて重要です。今回の試みは、AIの基本構造であるTransformerアーキテクチャの効率化を目指すもの。特に大量の文書読解や複雑な対話など、長い文脈を扱う応用でのコストメリットは計り知れません。

この「V3.2-exp」モデルはオープンウェイトとして、開発者プラットフォームのHugging Faceで既に公開されています。誰でも自由に利用し、その性能を検証できるため、DeepSeekが主張するコスト削減効果が実証される日も近いでしょう。今後、第三者による客観的な評価やさらなる改良が期待されます。

DeepSeek中国に拠点を置く企業で、年初には独自の学習手法を用いたモデルで業界を驚かせました。今回の発表は、米中間の技術競争という側面だけでなく、AI業界全体のコスト効率化という共通課題に対する一つの解を示した点で意義深いと言えます。この技術が米国の主要プロバイダーにも影響を与える可能性があります。

Hugging Face、Apple向けAIライブラリv1.0を公開

Apple開発者向けAIツール

ローカルLLMのアプリ統合を簡素化
Tokenizer, Hubなど必須機能を提供
Core MLやMLXを補完する設計

v1.0の進化点

パッケージの安定性向上とAPI整理
モジュール分割による依存性削減
最新Core ML APIとSwift 6に対応

今後のロードマップ

MLXフレームワークとの連携深化
エージェント型ユースケースの探求

AIプラットフォームのHugging Faceが、Apple製品開発者向けライブラリ「swift-transformers」のバージョン1.0を公開しました。本ライブラリは、iPhoneなどのデバイス上でローカルにAIモデルを動作させる際の技術的ハードルを下げ、アプリへの組み込みを容易にすることを目的としています。

swift-transformersは、AppleのCore MLやMLXといった機械学習フレームワークを補完する重要な機能群を提供します。具体的には、複雑なテキスト入力を処理する「Tokenizers」、Hugging Face Hubからモデルを管理する「Hub」、Core ML形式モデルの推論を簡素化する「Models」と「Generation」が中核をなします。

すでに、Apple自身のサンプル集「mlx-swift-examples」や、高性能な音声認識フレームワーク「WhisperKit」など、多くのプロジェクトで採用されています。これにより、AppleエコシステムにおけるオンデバイスAI開発の基盤技術としての地位を確立しつつあると言えるでしょう。

今回のv1.0リリースは、ライブラリの安定性を公式に保証する初のメジャーアップデートです。主要な変更点には、必要な機能だけを導入できるモジュール分割や、最新のCore ML APIへの対応、そしてSwift 6への完全準拠が含まれます。開発者はより安心して長期的なプロジェクトに採用できます。

Hugging Faceは今後の展望として、Apple機械学習フレームワーク「MLX」との連携強化を掲げています。さらに、自律的にタスクを処理する「エージェント」のような、より高度なユースケースの実現も視野に入れており、オンデバイスAIの新たな可能性を切り拓くことが期待されます。

NVIDIA、AIモデル群Nemotronを無償公開 開発加速へ

NVIDIAは9月24日、マルチモーダルAIモデルファミリー「Nemotron」をオープンソースとして公開しました。NemotronにはAIモデル、データセット、開発ツール群が含まれ、研究および商用目的で利用可能です。GitHubなどを通じて提供され、開発者は透明性の高いAIを迅速に構築できます。これにより、あらゆる規模の企業でAI開発の加速が期待されます。 Nemotronは、AI開発の全段階を効率化するオープンソース技術群です。大学院レベルの科学的推論や高度な数学コーディングに優れた最先端のAIモデルが含まれます。さらに、モデルの学習に使われたデータセットや、AIを高速かつ低コストで実行するための数値精度アルゴリズムなども提供されます。 なぜNVIDIAはオープンソース化に踏み切ったのでしょうか。それは、広範な問題解決を可能にする「汎用知能」と、各業界特有の課題に対応する「特化知能」の両方を向上させるためです。同社はNemotronを通じて、あらゆる産業でAIの導入を大規模に推進することを目指しています。 既に多くの企業がNemotronの活用を進めています。例えば、セキュリティ企業のCrowdStrikeは、AIエージェントエコシステム強化に利用しています。また、DataRobotはNemotronを基に、より高速でコスト効率の高い推論モデルを開発するなど、具体的な成果が出始めています。 NVIDIAはNemotron開発で得た知見を次世代GPUの設計に活かす一方、コミュニティの技術も積極的に取り入れています。Alibabaの「Qwen」やMetaの「Llama」といったオープンモデルの技術を活用し、Nemotronのデータセットや機能を強化するなど、エコシステム全体での発展を目指しています。 開発者GitHubHugging Face、OpenRouterを通じてNemotronを利用開始できます。NVIDIA RTX PCユーザーはllama.cppフレームワーク経由でのアクセスも可能です。同社は今後もイベントなどを通じて、開発者コミュニティとの連携を深めていく方針です。

Hugging Face、軽量AIでGUI操作エージェント開発手法を公開

AIプラットフォームのHugging Faceは2025年9月24日、軽量な視覚言語モデル(VLM)をGUI操作エージェントに進化させる新手法「Smol2Operator」を公開しました。この手法は2段階のファインチューニングを通じて、モデルに画面要素の認識能力と複雑なタスクの計画・実行能力を付与します。同社はGUI自動化技術の発展を促進するため、訓練手法やデータセット、モデルを全てオープンソース化し、開発の再現性を高めています。 GUI操作AIの開発では、データセットごとに操作の記述形式が異なり、統一的な学習が困難でした。この課題に対し、同社は多様なデータ形式を標準化された一つのアクション空間に変換するパイプラインを開発。これにより、様々なデータソースを一貫してモデル訓練に活用できるようになりました。企業の開発者は、独自の操作体系に合わせてデータセットを容易に変換できます。 訓練の第1段階では、モデルにGUI上の要素を正確に認識・特定する「グラウンディング能力」を付与します。「ボタンをクリックする」といった低レベルの指示と、画面上の座標を含む実行コードを対にしたデータで学習させ、モデルが画面を「見る」能力の基礎を築きます。これにより、AIは指示された対象を正確に特定できるようになります。 第2段階では、モデルに思考力と計画能力を植え付けます。より高レベルで複雑な指示に対し、次の行動を思考し、複数のステップに分解して実行するデータで訓練します。これにより、モデルは単なる要素認識から、主体的にタスクを遂行するエージェントへと進化し、より複雑な業務自動化への道を開きます。 この2段階訓練により、SmolVLM2-2.2Bという比較的小規模なモデルでも、GUI要素の認識ベンチマークで高い性能を達成しました。同社は、この成果の再現性を担保するため、データ処理ツール、統一されたデータセット、訓練済みモデルを全て公開しており、誰でも追試や応用開発が可能です。 今後の展望として、教師あり学習(SFT)だけでなく、強化学習(RL)や直接選好最適化(DPO)といった手法の活用が挙げられています。これらの手法により、エージェントが静的なデータから学ぶだけでなく、実環境でのインタラクションを通じて学習・改善する、より高度な能力の獲得が期待されます。

Hugging Face、Public AIを推論プロバイダーに追加

AIプラットフォームのHugging Faceは、非営利オープンソースプロジェクト「Public AI」を新たにサポート対象の推論プロバイダーとして追加したと発表しました。これによりユーザーは、Hugging Face HubのモデルページやクライアントSDKから直接、Public AIが提供する推論機能を利用できます。スイスAIイニシアチブのような公的機関が開発したAIモデルへのアクセスを容易にし、選択肢を広げることが狙いです。 Public AIは、公的機関によるAIモデル開発を支援する非営利・オープンソースプロジェクトです。今回の提携で、同プロジェクトが提供する推論ユーティリティがHugging Faceエコシステムに統合され、サーバーレス推論の選択肢が大きく広がりました。ユーザーはより多様なモデルを試せるようになります。 Public AIの推論基盤は、vLLMを採用したバックエンドと、複数のパートナーにまたがる分散型インフラで構成されています。これにより高い耐障害性を実現。グローバルな負荷分散層が、どの国の計算資源を利用しているかに関わらず、リクエストを効率的かつ透過的に処理します。 では、具体的にどのように利用できるのでしょうか。ユーザーはHugging Faceのモデルページに表示されるウィジェットから直接選択したり、アカウント設定で優先プロバイダーとして設定したりできます。また、PythonやJavaScriptのクライアントSDKにも統合されており、数行のコードで利用を開始できます。 現時点では、Hugging Face経由でのPublic AIの利用は無料です。ただし、将来的には価格や提供条件が変更される可能性があります。他のプロバイダーと同様に、Hugging Face経由で利用する場合の料金は、追加手数料なしでプロバイダーのコストがそのまま請求される仕組みです。 今回の提携は、開発者にとって公的機関や国家主導で開発された信頼性の高いAIモデルへのアクセスを容易にします。特に、主権AI(Sovereign AI)への関心が高まる中、多様なモデルを低コストで試せる環境が整ったことは、新たなアプリケーション開発の追い風となるでしょう。

AIリスク評価の新標準、Hugging Faceらが「RiskRubric.ai」を公開

AIプラットフォームのHugging Faceには50万を超えるモデルが存在しますが、その安全性を体系的に評価する方法はこれまでありませんでした。この課題を解決するため、同社はCloud Security Allianceなどと協力し「RiskRubric.ai」を立ち上げました。この構想は、AIモデルのリスクを標準化し、透明性の高い評価を提供することで、エコシステム全体の信頼性を高めることを目的とします。 評価は「透明性」「信頼性」「セキュリティ」など6つの柱に基づきます。各モデルは、1000以上の信頼性テストや200以上の敵対的セキュリティ調査など、自動化された厳格なテストを受けます。その結果は0から100のスコアとAからFの等級で明確に示され、発見された脆弱性や具体的な改善策も提供されるため、開発者はモデル選定の参考にできます。 実際にオープンモデルと商用モデルを同一基準で評価したところ、興味深い傾向が明らかになりました。まず、リスク分布は二極化しており、多くのモデルが安全な一方、性能の低いモデルも一定数存在します。これは「平均的なモデルが安全である」という思い込みが危険であることを示唆しており、組織は導入時に最低限の安全基準を設ける必要があります。 モデルによる評価のばらつきが最も大きかったのは、有害コンテンツの生成防止などを含む「安全性」の項目でした。重要なのは、セキュリティ対策を強化しているモデルほど、この安全性の評価も高くなる傾向が見られたことです。これは、技術的なセキュリティ投資が、社会的なリスクを低減させる上で直接的な効果を持つことを物語っています。 一方で、安全性を高めるための厳格な保護機能(ガードレール)が、逆に透明性を損なう可能性も指摘されています。例えば、モデルが理由を説明せず応答を拒否すると、利用者はシステムを「不透明だ」と感じかねません。セキュリティを確保しつつ、利用者の信頼を維持するためのバランス設計が今後の課題と言えるでしょう。 このようにリスク評価を標準化し公開することは、コミュニティ全体での安全性向上に繋がります。開発者は自らのモデルの弱点を正確に把握でき、他の開発者も修正や改善に貢献できます。Hugging Faceらは、こうした透明性の高い改善サイクルこそが、AIエコシステム全体の信頼性を高める鍵だと強調しています。

Hugging Face、仏Scalewayを推論プロバイダーに統合しAI利用の選択肢拡大

統合の核心と利点

Scalewayを新たな推論プロバイダーに追加。
gpt-ossQwen3など人気モデルへ容易にアクセス。
モデルページからサーバーレスで即時推論可能。
ウェブUIとクライアントSDKからシームレス利用。

Scalewayの技術的強み

欧州データセンターによるデータ主権と低遅延。
トークンあたり€0.20からの競争的価格
構造化出力、ファンクションコーリングに対応。
高速応答(200ms未満)を実現。

柔軟な課金体系

カスタムキー利用でプロバイダーに直接請求
HF経由の請求は追加マークアップなし
PROユーザーは毎月2ドル分の推論クレジット付与。

Hugging Faceは、フランスのクラウドプロバイダーであるScalewayを新たな「Inference Provider(推論プロバイダー)」としてハブに統合しました。これにより、経営者エンジニアgpt-ossQwen3などの人気オープンウェイトモデルを、Scalewayの提供するフルマネージドなサーバーレス環境で利用可能になります。この統合は、AIモデルのデプロイと利用の柔軟性を高め、特に欧州におけるデータ主権への要求に応えるものです。

Scalewayが提供するのは「Generative APIs」と呼ばれるサーバーレスサービスであり、トークンあたり0.20ユーロ/100万トークンからという競争力のある従量課金制が特徴です。ユーザーはシンプルなAPIコールを通じて、最先端のAIモデルにアクセスできます。この手軽さとコスト効率は、大規模な本番環境での利用を検討する企業にとって大きなメリットとなります。

インフラストラクチャはパリの欧州データセンターに置かれており、欧州の利用者に対してデータ主権の確保と低遅延の推論環境を提供します。応答速度はファーストトークンで200ミリ秒未満を達成しており、インタラクティブなアプリケーションやエージェントワークフローへの適用に最適です。テキスト生成とエンベディングモデルの両方をサポートしています。

Scalewayのプラットフォームは高度な機能にも対応しています。具体的には、応答形式を指定できる構造化出力や、外部ツール連携を可能にするファンクションコーリング、さらにマルチモーダル処理能力を備えています。これにより、より複雑で実用的なAIアプリケーションの開発が可能になります。

利用者は、HFのウェブサイトUIだけでなく、PythonやJavaScriptのクライアントSDKからシームレスに推論を実行できます。課金方式は二通りあり、ScalewayのAPIキーを使う場合は直接プロバイダーに請求されます。HF経由でルーティングする場合は、HFによる追加のマークアップは発生しないため、透明性が高い価格で利用できます。

Hugging FaceのPROプランユーザーには、毎月2ドル分の推論クレジットが特典として提供されます。このクレジットは、Scalewayを含む複数のプロバイダーで横断的に使用可能です。本格的な商用利用や高いリミットが必要な場合は、PROプランへのアップグレードが推奨されています。

Hugging Face、ロボット学習用データの大規模ストリーミングに対応

V3.0の主要機能

数百万エピソード対応のスケーラビリティ向上
大容量データをダウンロード不要で処理可能
複数エピソードを単一ファイルに集約(ファイル数削減)
関係メタデータによるエピソード単位の検索

ロボティクスデータ対応

センサー運動、複数カメラフィードなどに対応
PyTorchとのシームレスな統合
時系列データを扱うためのネイティブなウィンドウ操作
実機からシミュレーションまで広範にサポート

Hugging Faceは、ロボット学習向けデータセットフォーマット「LeRobotDataset:v3.0」をリリースしました。これは、数百万エピソードに及ぶ超大規模なロボティクスデータの取り扱いを根本的に改善するものです。旧バージョンで課題だったファイルシステムの制約を克服し、大容量データをディスクにダウンロードせずに処理できるストリーミング機能にネイティブ対応しました。この進化は、ロボティクス分野におけるAI学習の民主化を大きく加速します。

V3.0の最大の設計上の変更点は、スケーラビリティの確保です。従来、エピソードごとにファイルを保存していたため、エピソード数が増加するとファイルシステムに過大な負荷がかかっていました。新フォーマットでは、複数のエピソードを単一のファイルに集約し、リレーショナルメタデータを用いてエピソード単位の情報を効率的に検索します。これにより、大規模データセットの管理が大幅に簡素化されました。

新たに導入されたストリーミング機能は、ロボット学習のアクセシビリティを劇的に向上させます。専用の`StreamingLeRobotDataset`インターフェースを利用することで、ユーザーはテラバイト級のデータをローカルにダウンロードすることなく、Hugging Face Hubから直接データバッチをオンザフライで処理できます。これは、特にリソースが限られた環境での研究開発に貢献します。

データは効率的な構造で保存されます。低次元のセンサーデータやアクションはApache Parquetファイルに、大量のカメラ映像はMP4ファイルに連結・エンコードされます。また、本フォーマットはHugging FaceとPyTorchのエコシステムに統合されており、ロボット学習特有の時系列データのウィンドウ処理(過去の観測のスタック)をネイティブにサポートしている点も特徴的です。