Qwen(プロダクト)に関するニュース一覧

Ai2、推論強化の「Olmo 3.1」公開。完全オープンで高性能

強化学習の拡張で推論力を強化

強化学習期間を延長し性能向上
数学推論の指標でスコア急増
ThinkモデルはQwen 3を凌駕

企業のAI活用を支える高い透明性

学習データや過程が完全オープン
自社データでの再学習が容易
Hugging Face等ですぐに利用可能

米Allen Institute for AI (Ai2) は、最新の大規模言語モデル「Olmo 3.1」をリリースしました。既存モデルに対し強化学習(RL)の期間を延長することで、数学推論や指示追従の能力を大幅に引き上げています。中身を完全オープンにすることで、企業利用における信頼性と制御性を担保した点が最大の特徴です。

特に注目すべきは、高度な研究用途に最適化された「Olmo 3.1 Think 32B」です。研究チームは224個のGPUを使用し、さらに21日間の追加トレーニングを実施。その結果、数学等のベンチマークでスコアが5ポイント以上向上するなど、複雑なタスクでの性能が飛躍し、競合のQwen 3を凌駕する実力を示しています。

実務向けには「Olmo 3.1 Instruct 32B」が用意されました。こちらはチャット、ツール使用、複数回のやり取り(マルチターン)に最適化されています。7Bモデルで培った手法を大規模モデルに適用し、実社会でのアプリケーション構築に耐えうる即戦力モデルへと進化しました。

Ai2の一貫した強みは、開発プロセスの透明性です。学習データやコード、トレーニング決定のすべてが開示されており、企業はモデルの挙動を深く理解した上で、自社データを用いたカスタマイズが可能になります。生成結果の根拠を追跡できる点も、ビジネス利用における大きな安心材料となるでしょう。

現在、これらのモデルはAi2 PlaygroundやHugging Faceを通じて利用可能です。APIアクセスも近日中に提供される予定であり、エンジニアや研究者にとって、高性能かつ透明性の高い新たな選択肢となります。

NeurIPS2025:強化学習への回帰とGoogleの復権

技術トレンドの転換点

スケーリングから強化学習(RL)
特定用途へのモデル調整が加速
継続学習や世界モデルが新潮流

激変する企業勢力図

Google DeepMindが復権
中国や新興ラボが急速に台頭
物理AIロボティクスの実用化

2025年12月、サンディエゴで開催された世界最大級のAI国際会議「NeurIPS」にて、業界の潮流が決定的な転換点を迎えました。これまでのデータ量を追求する競争から、強化学習(RL)や推論能力の深化を目指す「研究の時代」へと、開発の主戦場が大きく移行しています。

最大の焦点は、会場のあらゆる議論を席巻した強化学習(RL)の再流行です。単に事前学習データを増やすスケーリング則の限界が意識され始め、特定のユースケースに向けてモデルを精緻に調整するアプローチが、次なる成長のドライバーとして認知されています。

企業間の勢力図においては、Google DeepMindが圧倒的な存在感を示しました。Gemini 3の発表や最多の論文採択数を背景に、技術的なリーダーシップを取り戻しています。一方でAnthropicも勢いを維持する中、OpenAIは相対的に注目度を分け合う形となりました。

新たな技術トレンドとして、継続学習(Continual Learning)や世界モデルへの関心が急上昇しています。静的なモデルではなく、環境との相互作用を通じて学習し続けるシステムの構築が、2026年に向けた重要な研究テーマとして浮上してきました。

また、AlibabaのQwenDeepSeekといった中国、およびReflection AIなどの新興ラボが台頭しています。彼らは既存の大手ラボとは異なるアプローチで成果を上げており、AI開発の多極化が進んでいることを印象づけました。

実用面では、デジタル空間を超えた物理AI(Physical AI)ロボティクスへの応用が加速しています。エージェントAIを単なるモデルではなく「スタック」として捉え、実社会の複雑な課題解決に直結させる動きが、エンジニアたちの関心を集めています。

Nvidia、8Bの小型AIで巨大モデル凌ぐ効率と精度実現

巨大モデル依存からの脱却

単一モデルではなく複合システムへ移行
80億パラの軽量モデルが指揮役を担当
専門ツールや他LLMを適材適所で活用

低コストで高精度と柔軟性を実現

強化学習でコストと精度を最適化
博士級試験で巨大モデルを上回る成果
ユーザーの好みや制約に柔軟に対応
企業向けAIエージェント実用化を加速

Nvidiaと香港大学の研究チームは、80億パラメータの小型AIモデル「Orchestrator」を発表しました。強化学習を用いて他のツールやAIモデルを指揮・管理し、単一の巨大モデルよりも低コストかつ高精度に複雑な課題を解決します。

従来は一つの巨大な汎用モデルにあらゆる処理を依存していましたが、本手法は軽量な指揮者検索エンジンやコード解析、他のAIモデルへ処理を委譲します。人間が専門家や道具を使い分けるように、適材適所でツールを活用しシステム全体の効率を高めました。

Qwen3-8B」を基盤に強化学習を行った結果、博士号レベルの難問を含むテストでも巨大モデルを凌ぐ成果を出しました。GPT-5のような高価なモデルの利用を約4割に抑え、安価なツールと組み合わせることで、計算コストを劇的に削減しています。

企業導入における最大の利点は、コスト対効果と高い制御性です。「オープンソースモデルを優先する」といったユーザーの指定条件に従ってツールを選択できるため、予算やプライバシー要件に応じた柔軟な運用が可能となります。

この複合的なアプローチは、より高度で拡張性のあるAIシステムへの道を開くものです。現在、モデルの重みは非商用ライセンスですが、トレーニングコードはApache 2.0で公開されており、次世代のエージェント開発における重要な基盤となるでしょう。

2025年AI総括:GPT-5実用化と中国・小型モデルの台頭

OpenAIの進化と実用化加速

GPT-5と5.1が始動、ZenDeskで解決率9割事例も
Sora 2やブラウザAtlas、OSSモデルも全方位展開
コーディング特化モデルで長時間タスクが可能に

中国勢と多様なモデルの台頭

DeepSeekQwen3など中国OSSが世界を席巻
Google Gemma 3など超小型モデルが実用段階へ
MetaがMidjourneyと提携画像生成をSNS統合
Gemini 3やClaude Opus 4.5で競争激化

2025年11月、米VentureBeatは今年のAI業界を振り返る総括記事を公開しました。2025年は、特定の最強モデル一強ではなく、オープンソースや中国勢、エッジ向け小型モデルを含めた「エコシステムの多様化」が決定的となった年です。経営者エンジニアにとって、用途に応じて最適なAIを選択できる環境が整ったことが、今年最大の収穫と言えるでしょう。

OpenAIは待望のGPT-5およびGPT-5.1をリリースし、市場を牽引し続けました。初期の反応は賛否両論ありましたが、改良を経てZenDeskなどの企業導入が進み、顧客対応の自動解決率が80〜90%に達する事例も報告されています。さらに、動画生成AI「Sora 2」やブラウザ統合型「Atlas」、そして意外にもオープンウェイトモデルの公開など、全方位での攻勢を強めています。

特筆すべきは中国発のオープンソースモデルの躍進です。DeepSeek-R1やAlibabaのQwen3シリーズなどが、推論能力やコーディング性能で米国のフロンティアモデルに肉薄しています。MITなどの調査によれば、中国製モデルのダウンロード数は米国をわずかに上回る勢いを見せており、コストパフォーマンスを重視する企業にとって無視できない選択肢となりました。

「巨大化」へのカウンターとして、小型・ローカルモデルの実用性も飛躍的に向上しました。GoogleのGemma 3やLiquid AIのLFM2は、パラメータ数を抑えつつ特定タスクに特化し、エッジデバイスやプライバシー重視の環境での利用を可能にしました。すべての処理を巨大クラウドAIに依存しない、分散型のAI活用が現実味を帯びています。

画像生成や競合他社の動きも活発です。MetaはMidjourneyの技術ライセンスを取得し、自社SNSへの統合を進めるという驚きの戦略に出ました。一方、GoogleGemini 3に加え、ビジネス図解に強い画像生成モデル「Nano Banana Pro」を投入しています。AnthropicClaude Opus 4.5やBlack Forest LabsのFlux.2など、各領域でハイレベルな競争が続いています。

アリババがAI眼鏡参入、電池交換式で24時間稼働

AI搭載と長時間駆動の両立

独自AIモデル「Qwen」を搭載
バッテリー交換で24時間稼働
音声やタッチでの直感的操作

2つのモデルと価格設定

旗艦機S1はマイクロOLED採用
S1は537ドル、G1は268ドル
骨伝導マイクとカメラを内蔵

自社経済圏との強力な連携

AlipayやTaobaoと統合
即時翻訳や価格認識機能を提供

中国テック大手のアリババは27日、AI搭載スマートグラス「Quark」シリーズを発表し、ウェアラブル市場への参入を果たしました。最大の特徴は交換可能なバッテリーシステムを採用した点で、競合他社製品とは異なり、充電待ち時間なしで24時間の連続使用を可能にしています。

ラインナップは、マイクロOLED搭載の旗艦モデル「S1」(3,799元)と、ライフスタイル重視の「G1」(1,899元)の2種類です。いずれも同社の大規模言語モデル「Qwen」を搭載し、骨伝導マイクやカメラを通じた音声・タッチ操作に対応しています。

アリババの強みである経済圏との統合も進めており、決済アプリ「Alipay」やECサイト「Taobao」と連携します。着用者の視界にある商品の価格認識や、リアルタイム翻訳、ナビゲーション、さらには会議の自動文字起こしなど、ビジネスと日常の双方で実用的な機能を提供します。

MetaのRay-Banモデルなどが先行する市場において、アリババは「長時間稼働」と「実用機能」で差別化を図る狙いです。現在は中国国内での展開ですが、来年には海外市場向けモデルの投入も計画されており、激化するAIウェアラブル競争の一角を占めることになりそうです。

アリババ新技術、AIが自ら学習データ生成し性能3割増

独自データ作成の壁を突破

手作業によるデータ収集コストを削減
LLMが環境を探索し自律的に学習

3つの自己進化メカニズム

自己問答で多様なタスクを自動生成
自己ナビで過去の経験を再利用
各工程を詳細評価する自己帰属

実証された成果とビジネス価値

ツール操作性能が約30%向上
独自アプリへのAI導入障壁を低減

アリババのTongyi Labは、AIエージェントが自ら学習データを生成し能力を高める新フレームワーク「AgentEvolver」を開発しました。この技術は、大規模言語モデル(LLM)の推論能力を活用して自律的な学習ループを構築するもので、従来の強化学習に比べてツール操作のパフォーマンスを約30%向上させることが実証されています。企業が独自のソフトウェア環境にAIを導入する際、最大の障壁となるデータ作成コストを劇的に下げる技術として注目されます。

これまで、AIエージェントに特定のソフトウェアを操作させるには、膨大なコストがかかっていました。従来の強化学習では、人間が手作業でタスク例を作成する必要があり、特に社内専用システムなどの未知の環境では学習データそのものが存在しないことが多いためです。また、試行錯誤による学習は計算リソースを大量に消費します。「AgentEvolver」は、モデル自身に学習プロセスを委ねることで、これらのデータ不足と高コストの課題を一挙に解決しようとしています。

この自己進化プロセスの核となるのが、「自己問答(Self-questioning)」というメカニズムです。これは、AIが新しいアプリケーションを探索し、機能の境界を理解した上で、自らトレーニング用のタスクを生成する機能です。研究者はこれを「モデルをデータ消費者からデータ生産者へと変える」と表現しています。人間が事前にタスクを設計しなくとも、AIが環境に合わせて多様な課題を作り出し、それを解くことでスキルを磨いていくのです。

学習効率を高めるために、「自己ナビゲーション(Self-navigating)」と「自己帰属(Self-attributing)」という機能も組み込まれています。自己ナビゲーションは、過去の成功や失敗の経験を記憶し、存在しない機能を使おうとするなどの無駄な動作を防ぎます。一方、自己帰属は、最終的な結果だけでなく、作業の各ステップが成功にどう寄与したかをLLMが詳細に評価します。これにより、AIは単に正解するだけでなく、プロセスの正しさも学習できるようになります。

実際の性能評価でも、その効果は明らかです。Qwen2.5モデルをベースにした実験では、複雑なツール操作を要するベンチマークにおいて、従来手法と比較してスコアが平均で27.8%〜29.4%向上しました。特に、自律的に生成された多様なタスクが、モデルの推論能力と実行能力を大きく引き上げています。これは、少量のデータからでも高品質な学習が可能であることを示しており、企業にとっては専用AIアシスタント開発のハードルが大きく下がることになります。

MSのPC操作AI「Fara-7B」 端末完結でGPT-4o凌駕

端末完結でGPT-4o超え

70億パラメータの軽量モデルでPC動作
WebVoyagerで勝率73.5%を達成
視覚情報のみでマウス・キー操作

高度なプライバシーと安全設計

データが外部に出ないピクセル主権
重要操作前に停止する安全機構

革新的な学習手法と入手性

合成データによる効率的な学習
MITライセンスで商用利用も可能

マイクロソフトは2025年11月24日、PC操作に特化した新しい小規模言語モデル(SLM)「Fara-7B」を発表しました。わずか70億パラメーターながら、GPT-4oベースのエージェントを凌駕する性能を記録。データが外部に出ないオンデバイス実行を実現し、プライバシー保護と低遅延を両立させています。

最大の特徴は、人間と同じように画面の視覚情報だけを頼りに操作を行う点です。HTMLコード等の裏側情報を必要とせず、スクリーンショットからボタン位置などを認識してマウスやキーボードを操作します。Web操作のベンチマーク「WebVoyager」では、GPT-4o(65.1%)を上回る73.5%のタスク成功率を達成しました。

ビジネス利用で重要なのがセキュリティです。Fara-7Bはローカル環境で動作するため、機密情報がクラウドに送信されるリスクを排除する「ピクセル主権」を確立しています。また、送金やメール送信などの不可逆的な操作の直前には、必ずユーザーの同意を求める「クリティカルポイント」機能が組み込まれています。

開発には「知識の蒸留」という高度な手法が用いられました。マルチエージェントシステム「Magentic-One」が生成した14万件以上の高品質な合成データを学習させることで、小型モデルながら複雑な推論能力を獲得しています。ベースモデルには視覚処理に優れたQwen2.5-VL-7Bが採用されました。

本モデルは現在、Hugging Face等を通じてMITライセンスで公開されており、商用利用を含む試験運用が可能です。Windows 11搭載のCopilot+ PCでも動作確認済みで、企業は自社のセキュリティ要件に合わせたPC操作自動化エージェントの開発を、低コストかつ安全に開始できます。

Ai2が「Olmo 3」公開、完全透明性と推論力で企業支援

完全な透明性と操作性

学習データや過程を完全公開
企業独自のカスタマイズが容易
商用可能なApache 2.0採用

推論能力と効率の向上

思考過程が見えるThinkモデル
計算効率が従来の2.5倍に向上
LlamaQwenに対抗する性能

非営利AI研究機関のAi2は、完全な透明性を備えた最新LLMファミリー「Olmo 3」を公開しました。企業が求めるデータプライバシーと制御性を重視し、学習データからチェックポイントまで全てオープンソースとして提供します。

ラインナップは、高度な推論を行う「Think」、基盤となる「Base」、指示追従に優れた「Instruct」の3種です。特にThinkモデルは、推論プロセス(思考の連鎖)を明示的に出力できる初の完全オープンな32Bモデルとなります。

最大の特徴は、ブラックボックス化が進む商用AIに対する透明性の確保です。GoogleOpenAI推論過程を隠す傾向にある中、Olmo 3は企業がモデルの挙動を完全に把握し、デバッグや監査を行うことを可能にします。

企業ごとのカスタマイズ性も大幅に強化されました。「万能な解決策はない」という思想のもと、主要な学習段階ごとのチェックポイントを提供し、企業が自社データを追加して再学習(ファインチューニング)しやすい設計となっています。

性能面では、メタのLlama 3.1や中国Qwenに対抗しうると主張しています。特に計算効率は従来比で2.5倍に向上しており、より少ないコストとエネルギーで高性能な推論処理を実現している点が強みです。

米国AIの優位性、オープンソース化が鍵 Databricks創業者警鐘

米国AIが抱える危機

中国に研究で後れを取る現状
大手ラボによる技術の独占
学術界からの深刻な頭脳流出
科学者間の対話が枯渇

オープンソース化が鍵

中国オープン戦略が脅威に
生成AIを生んだTransformer公開論文
自由なアイデア交換で革新を促進
民主主義とビジネスの存亡に関わる課題

データ分析基盤大手Databricksの共同創業者アンディ・コンウィンスキー氏が、AI分野で中国に対抗するためには米国はオープンソース戦略に転換すべきだと警鐘を鳴らしました。同氏はCerebral Valley AI Summitにて、現在の技術独占と学術界からの頭脳流出が米国の優位性を損ない、民主主義にとって「存亡に関わる脅威」になっていると強く訴えました。

コンウィンスキー氏が指摘する問題の核心は、大手AIラボの姿勢にあります。OpenAIMetaAnthropicなどは画期的な技術を開発していますが、その多くはプロプライエタリ(独占的)であり、広く共有されません。さらに、高額な報酬で大学のトップ研究者を引き抜くことで、学術界での自由な知見の交換が「枯渇しつつある」と危機感を示しました。

対照的に中国では、政府がAIイノベーションのオープンソース化を奨励していると氏は分析します。DeepSeekやAlibaba傘下のQwenといった企業の研究成果が公開されることで、他の研究者や開発者がその技術を土台に新たなイノベーションを生み出す好循環が生まれる可能性があり、これが米国の脅威となり得るとの見方です。

「今日の生成AIは、公開論文で発表されたTransformerアーキテクチャから生まれた」とコンウィンスキー氏は述べ、オープンな研究の重要性を強調します。次のTransformer級のブレークスルーをどちらの国が先に生み出すかが、今後のAI覇権を決定づける重要な要素となるでしょう。

現状を「トウモロコシの種籾を食べているようなものだ」と表現し、イノベーションの源泉が枯渇すれば、5年後には大手AIラボ自身も競争力を失うと警告。米国がAI分野でトップを維持するためには、オープンなエコシステムの再構築が急務であると結論づけました。

中国発MiniMax-M2、オープンソースLLMの新王者

主要指標でOSSの首位

第三者機関の総合指標で1位
独自LLMに迫るエージェント性能
コーディングベンチでも高スコア

企業導入を促す高効率設計

商用利用可のMITライセンス
専門家混合(MoE)で低コスト
少ないGPU運用可能
思考プロセスが追跡可能

中国のAIスタートアップMiniMaxが27日、最新の大規模言語モデル(LLM)「MiniMax-M2」を公開しました。第三者機関の評価でオープンソースLLMの首位に立ち、特に自律的に外部ツールを操作する「エージェント性能」で独自モデルに匹敵する能力を示します。商用利用可能なライセンスと高い電力効率を両立し、企業のAI活用を加速させるモデルとして注目されます。

第三者評価機関Artificial Analysisの総合指標で、MiniMax-M2オープンソースLLMとして世界1位を獲得しました。特に、自律的な計画・実行能力を測るエージェント関連のベンチマークでは、GPT-5Claude Sonnet 4.5といった最先端の独自モデルと肩を並べるスコアを記録。コーディングやタスク実行能力でも高い性能が確認されています。

M2の最大の特長は、企業での導入しやすさです。専門家の知識を組み合わせる「MoE」アーキテクチャを採用し、総パラメータ2300億に対し、有効パラメータを100億に抑制。これにより、わずか4基のNVIDIA H100 GPUでの運用を可能にし、インフラコストを大幅に削減します。さらに、商用利用を認めるMITライセンスは、企業が独自に改良・展開する際の障壁を取り払います。

高いエージェント性能を支えるのが、独自の「インターリーブ思考」形式です。モデルの思考プロセスがタグで明示されるため、論理の追跡と検証が容易になります。これは、複雑なワークフローを自動化する上で極めて重要な機能です。開発者は構造化された形式で外部ツールやAPIを連携させ、M2を中核とした高度な自律エージェントシステムを構築できます。

M2の登場は、オープンソースAI開発における中国勢の台頭を象徴しています。DeepSeekやアリババのQwenに続き、MiniMaxもまた、単なるモデルサイズではなく、実用的なエージェント能力やコスト効率を重視する潮流を加速させています。監査や自社でのチューニングが可能なオープンモデルの選択肢が広がることは、企業のAI戦略に大きな影響を与えるでしょう。

アント、1兆パラメータAI公開 強化学習の壁を突破

1兆パラメータモデルRing-1T

中国アントグループが開発
1兆パラメータのオープンソース推論モデル
数学・論理・コード生成に特化
ベンチマークGPT-5に次ぐ性能

独自技術で学習効率化

強化学習ボトルネックを解決
学習を安定化させる新手法「IcePop」
GPU効率を高める「C3PO++」を開発
激化する米中AI覇権争いの象徴

中国のアリババ系列企業アントグループが、1兆個のパラメータを持つオープンソースの推論AIモデル「Ring-1T」の技術詳細を公開しました。このモデルは、独自開発した最適化手法により、大規模モデルの学習における強化学習のボトルネックを解決した点が特徴です。OpenAIの「GPT-5」やGoogleの「Gemini」など米国勢に対抗し、激化する米中間のAI覇権争いで存在感を示す狙いがあります。

「Ring-1T」は、数学、論理問題、コード生成、科学的問題解決に特化して設計されています。各種ベンチマークテストでは、多くの項目でOpenAIGPT-5に次ぐ高いスコアを記録しました。特に、同社がテストしたオープンウェイトモデルの中では最高の性能を示し、中国企業の技術力の高さを証明しています。

この成果の背景には、超大規模モデルの学習を効率化する三つの独自技術があります。研究チームは、学習プロセスを安定させる「IcePop」、GPUの遊休時間をなくしリソースを最大限活用する「C3PO++」、非同期処理を可能にするアーキテクチャ「ASystem」を開発。これらが、1兆パラメータ規模のモデル学習を現実のものとしました。

特に注目すべきは、強化学習における課題へのアプローチです。従来、大規模モデルの強化学習は計算コストと不安定性が大きな障壁でした。「IcePop」は、学習を妨げるノイズの多い情報を抑制し、安定した性能向上を実現します。この技術革新は、今後のAIエージェント開発など応用分野の発展にも大きく貢献する可能性があります。

今回の発表は、DeepSeekやアリババ本体の「Qwen」シリーズに続く、中国発の高性能モデルの登場を意味します。米国の巨大テック企業を猛追する中国の勢いはとどまるところを知りません。「Ring-1T」のようなオープンソースモデルの公開は、世界中の開発競争をさらに加速させることになりそうです。

アリババQwen、AIレポートを数秒でWeb・音声化

調査を多様な形式に変換

AIが調査レポートを自動生成
1-2クリックでWebページに即時変換
複数話者のポッドキャストも作成可能
コード、画像音声の生成を統合

競合とのアプローチの違い

ゼロからの新規コンテンツ生成に特化
Google NotebookLM既存資料の整理が中心
アイデアから公開までのプロセスを短縮
クリエイターや教育者にも有用

中国のEコマース大手アリババは10月21日、自社のAIチャット「Qwen Chat」に搭載された調査ツール「Deep Research」を大幅にアップデートしたと発表しました。この更新により、AIが生成した調査レポートを、わずか数クリックでインタラクティブなWebページや複数話者によるポッドキャストに変換できます。調査からコンテンツ公開までのプロセスを劇的に効率化し、ユーザーの生産性を高める狙いです。

新機能の核心は、単一の調査依頼から多様なメディア形式のアウトプットを生成できる点にあります。ユーザーがテーマを入力すると、QwenはWeb上の情報源からデータを収集・分析し、矛盾点を指摘しながら詳細なレポートを作成。その後、ボタン一つでプロ品質のWebページや、2人のホストが対話する形式のポッドキャストを自動で生成します。

この強力な機能は、Qwenチームが開発したオープンソースモデル群に支えられています。Webページの構造化にはQwen3-Coder、ビジュアル作成にはQwen-Image音声合成にはQwen3-TTSがそれぞれ活用されています。アリババはこれらを統合し、ユーザーがインフラを意識することなく利用できるマネージドサービスとして提供します。

この動きは、GoogleのAI調査アシスタントNotebookLM」と比較されています。NotebookLMが既存資料の整理や要約に強みを持つ一方、Qwen Deep Researchゼロから新しいコンテンツを生成し、多形式で出力する点で明確な差別化を図っています。どちらが優れているかは、ユーザーの目的によって評価が分かれるでしょう。

アリババの今回のアップデートは、AIによるリサーチが単なる情報収集に留まらず、コンテンツ制作までをシームレスに繋ぐ未来を示唆しています。専門家クリエイターが、少ないリソースで高品質なWebコンテンツやポッドキャストを発信する上で、強力なツールとなる可能性を秘めています。

ソブリンAI、米中技術覇権の新たな主戦場に

米国のソブリンAI戦略

OpenAIが各国政府と提携
国家によるAI統制を支援
非民主主義国との連携に懸念も

中国のオープンソース攻勢

Alibabaのモデルは3億DL超
来年には米国を凌駕する可能性

真のAI主権をめぐる論点

主権にはオープンソースが必須との声
クローズドとオープンの両立も可能

OpenAIをはじめとするテクノロジー企業が、「ソブリンAI」の構築支援を各国で進めています。ソブリンAIとは、各国が自国の管理下でAIインフラを開発・運用する能力を指し、米中間の技術覇権争いの新たな主戦場となりつつあります。米国が同盟国との連携を深める一方、中国オープンソースモデルで世界的な影響力を急速に拡大しています。

OpenAIはアラブ首長国連邦(UAE)などの政府と提携し、大規模なデータセンター建設を含むソブリンAIシステム構築を支援しています。この動きは米国政府とも連携しており、同盟国が中国の技術に依存するのを防ぐという戦略的な狙いがあります。米国の技術を世界に普及させることで、地政学的な優位性を確保しようとしています。

しかし、UAEのような非民主主義国との提携には懸念の声も上がっています。かつて米国は、経済的な関与が中国の民主化を促すと期待しましたが、結果的に権威主義体制を強めることになりました。AI技術の提供が同様の結果を招かないか、過去の教訓が問い直されています。OpenAIは政府からの要請があっても情報検閲は行わないと明言しています。

対する中国は、オープンソース戦略で猛追しています。AlibabaやTencent、DeepSeekといった企業が公開した高性能な基盤モデルは、世界中で広く採用されています。特にAlibabaの「Qwen」ファミリーは3億回以上ダウンロードされ、日本を含む各国のスタートアップが自国語対応モデルの開発基盤として活用しています。

オープンソースAIモデルをホストするHugging FaceのCEOは、「真の主権はオープンソースなしにはあり得ない」と指摘します。モデルの内部を完全に検証・制御できるためです。中国企業はこの戦略により驚異的な速さで技術力を向上させ、5年前の遅れを取り戻し、今や米国と互角のレベルに達したと分析されています。

AIの国家主権をめぐる競争は、クローズドモデルを推進する米国勢と、オープンソースで勢力を拡大する中国勢という構図を呈しています。OpenAIは両アプローチの共存が可能との見方を示していますが、どちらが次世代のグローバルスタンダードを握るのか。この動向は、各国の事業戦略を左右する重要な要素となるでしょう。

Salesforce、自然言語で開発する新AIツール発表

新ツール「Agentforce Vibes」

自然言語で開発するバイブコーディング
AIエージェント「Vibe Codey」が自動実装
アプリのアイデア出しから構築まで支援
既存Salesforceアカウントと連携

企業導入の利点と市場背景

既存コードを再利用しセキュリティを確保
開発環境のセットアップが不要
過熱するバイブコーディング市場に参入
既存ユーザーには当面無料で提供

企業向けソフトウェア大手のセールスフォースは10月1日、新たなAI搭載開発者ツール「Agentforce Vibes」を発表しました。このツールは、開発者が自然言語で要件を記述するとAIが自動でコードを生成する「バイブコーディング」を企業向けに提供します。既存のSalesforce環境と連携し、セキュリティを確保しながら開発プロセスを大幅に自動化することで、企業のアプリケーション開発の生産性向上を目指します。

新ツールの核となるのは、自律型AIコーディングエージェント「Vibe Codey」です。このエージェントは、アプリケーションのアイデア出しから設計、構築、さらには運用監視に至るまで、開発ライフサイクル全体を支援します。開発者は複雑な技術的実装から解放され、より創造的な業務に集中できるようになるでしょう。

「Agentforce Vibes」の大きな特徴は、企業の既存Salesforceアカウントと直接連携する点です。これにより、組織が既に保有するコード資産を再利用したり、独自のコーディングガイドラインをAIに遵守させたりすることが可能になります。ゼロから開発を始める必要がなく、エンタープライズレベルのセキュリティとガバナンスを維持したまま、AI開発の恩恵を享受できます。

近年、バイブコーディング分野ではスタートアップが巨額の資金調達に成功するなど市場が過熱しています。一方で、AIモデルの運用コストの高さが収益性を圧迫するという課題も指摘されています。セールスフォースは、巨大な製品スイートの一部として提供することでコスト圧力を軽減し、安定したサービス提供で差別化を図る戦略です。

同社は現在、既存ユーザーに対して「Agentforce Vibes」を無料で提供しており、将来的に有料プランの導入を予定しています。利用するAIモデルは、OpenAI社のGPT-5と自社ホストのQwen 3.0を組み合わせることで、コストと性能のバランスを取っています。開発の参入障壁を下げるこの取り組みが、市場にどのような影響を与えるか注目されます。

元OpenAIムラティ氏、AI調整ツールTinker公開

元OpenAI幹部の新挑戦

ミラ・ムラティ氏が新会社を設立
初製品はAIモデル調整ツールTinker
評価額120億ドルの大型スタートアップ

TinkerでAI開発を民主化

専門的な調整作業をAPIで自動化
強化学習でモデルの新たな能力を開拓
調整済みモデルはダウンロードして自由に利用可

OpenAIの最高技術責任者(CTO)であったミラ・ムラティ氏が共同設立した新興企業「Thinking Machines Lab」は2025年10月1日、初の製品となるAIモデル調整ツール「Tinker」を発表しました。このツールは、最先端AIモデルのカスタマイズ(ファインチューニング)を自動化し、より多くの開発者や研究者が高度なAI技術を利用できるようにすることを目的としています。

「Tinker」は、これまで専門知識と多大な計算資源を要したモデルのファインチューニング作業を大幅に簡略化します。GPUクラスタの管理や大規模な学習プロセスの安定化といった複雑な作業を自動化し、ユーザーはAPIを通じて数行のコードを記述するだけで、独自のAIモデルを作成できるようになります。

特に注目されるのが、強化学習(RL)の活用です。共同創業者ChatGPT開発にも関わったジョン・シュルマン氏が主導するこの技術により、人間のフィードバックを通じてモデルの対話能力や問題解決能力を飛躍的に向上させることが可能です。Tinkerは、この「秘伝のタレ」とも言える技術を開発者に提供します。

Thinking Machines Labには、ムラティ氏をはじめOpenAIの元共同創業者や研究担当副社長など、トップレベルの人材が集結しています。同社は製品発表前にすでに20億ドルのシード資金を調達し、評価額は120億ドルに達するなど、業界から極めて高い期待が寄せられています。

現在、TinkerはMeta社の「Llama」やAlibaba社の「Qwen」といったオープンソースモデルに対応しています。大手テック企業がモデルを非公開にする傾向が強まる中、同社はオープンなアプローチを推進することで、AI研究のさらなる発展と民主化を目指す考えです。これにより、イノベーションの加速が期待されます。

NVIDIA、AIモデル群Nemotronを無償公開 開発加速へ

NVIDIAは9月24日、マルチモーダルAIモデルファミリー「Nemotron」をオープンソースとして公開しました。NemotronにはAIモデル、データセット、開発ツール群が含まれ、研究および商用目的で利用可能です。GitHubなどを通じて提供され、開発者は透明性の高いAIを迅速に構築できます。これにより、あらゆる規模の企業でAI開発の加速が期待されます。 Nemotronは、AI開発の全段階を効率化するオープンソース技術群です。大学院レベルの科学的推論や高度な数学コーディングに優れた最先端のAIモデルが含まれます。さらに、モデルの学習に使われたデータセットや、AIを高速かつ低コストで実行するための数値精度アルゴリズムなども提供されます。 なぜNVIDIAはオープンソース化に踏み切ったのでしょうか。それは、広範な問題解決を可能にする「汎用知能」と、各業界特有の課題に対応する「特化知能」の両方を向上させるためです。同社はNemotronを通じて、あらゆる産業でAIの導入を大規模に推進することを目指しています。 既に多くの企業がNemotronの活用を進めています。例えば、セキュリティ企業のCrowdStrikeは、AIエージェントエコシステム強化に利用しています。また、DataRobotはNemotronを基に、より高速でコスト効率の高い推論モデルを開発するなど、具体的な成果が出始めています。 NVIDIAはNemotron開発で得た知見を次世代GPUの設計に活かす一方、コミュニティの技術も積極的に取り入れています。Alibabaの「Qwen」やMetaの「Llama」といったオープンモデルの技術を活用し、Nemotronのデータセットや機能を強化するなど、エコシステム全体での発展を目指しています。 開発者GitHubやHugging Face、OpenRouterを通じてNemotronを利用開始できます。NVIDIA RTX PCユーザーはllama.cppフレームワーク経由でのアクセスも可能です。同社は今後もイベントなどを通じて、開発者コミュニティとの連携を深めていく方針です。

アリババ、NVIDIAと提携し物理AI開発基盤を導入

中国の電子商取引大手アリババは24日、米半導体大手NVIDIAとの提携を発表しました。NVIDIAが提供するロボットや自動運転向けの物理AI開発ツールを、自社のAIクラウドプラットフォームに統合します。この提携は、物理世界で動作するAIの開発を加速させることが目的です。 具体的には、NVIDIAの「Physical AI」ソフトウェアスタックを顧客に提供します。これにより開発者は、現実世界の環境を忠実に再現した3Dのデジタルツインを構築できます。この仮想空間で生成された合成データを用いることで、AIモデルを効率的かつ安全に訓練することが可能になります。 この技術は、特にロボティクスや自動運転車、スマート工場、倉庫といった分野での活用が期待されています。現実世界でのテストが困難または危険なシナリオでも、仮想環境でAIを訓練できるため、開発サイクルが大幅に短縮される可能性があります。 今回の提携は、AI事業を強化するアリババの戦略の一環です。同社はAI技術への投資を従来の500億ドルの予算を超えて拡大すると表明。ブラジルやフランスなどでデータセンターを新設し、世界91拠点にまでインフラを拡大する計画も明らかにしました。 アリババは同日、最新の大規模言語モデル(LLM)「Qwen 3-Max」も発表しました。1兆パラメータで訓練されたこのモデルは、同社史上最大かつ最も高性能とされ、特にコーディングやAIエージェントとしての活用に適していると主張しています。 一方のNVIDIAも、AI分野で積極的な投資を続けています。最近ではインテルへの50億ドルの出資や、OpenAIへの最大1000億ドルの投資計画を発表しており、AIエコシステムにおける影響力を一層強めています。

Qwen、AIの安全性をリアルタイム検知する新モデル公開

大規模言語モデル「Qwen」の開発チームは9月23日、AIとの対話の安全性を確保する新しいオープンソースモデルQwen3Guard」を公開しました。このモデルは、ユーザーの入力とAIの応答の両方を評価し、リスクレベルを判定します。主要な安全性ベンチマークで最高水準の性能を達成しており、責任あるAI開発を支援する強力なツールとなりそうです。 最大の特徴は、AIの応答生成中にリアルタイムで安全性を検知する「ストリーミング機能」です。これは「Qwen3Guard-Stream」バリアントで提供され、応答がトークン単位で生成されるそばから瞬時に安全性を評価します。これにより、ユーザー体験を損なうことなく、不適切なコンテンツの生成を動的に抑制できます。 従来の「安全か危険か」という二者択一の分類とは一線を画し、「物議を醸す(Controversial)」という中間的なラベルを導入した点も革新的です。この3段階の深刻度分類により、開発者はアプリケーションの特性や目的に応じて、安全基準の厳格さを柔軟に調整することが可能になります。これにより、過度な制限を避けつつ安全性を確保できます。 グローバルな利用を想定し、119の言語と方言に対応している点も強みです。インドヨーロッパ語族、シナ・チベット語族、アフロ・アジア語族など、世界中の多様な言語で一貫した品質の安全性評価を提供します。これにより、多言語対応のAIサービスを開発する企業にとって、導入のハードルが大きく下がることでしょう。 モデルは、オフラインでのデータセット評価などに適した生成モデル「Qwen3Guard-Gen」と、前述のリアルタイム検知用「Qwen3Guard-Stream」の2種類が提供されます。それぞれに0.6B、4B、8Bの3つのパラメータサイズが用意されており、開発環境やリソースに応じて最適なモデルを選択できます。 開発チームは、AIの安全性を継続的な課題と捉えています。今後はモデル構造の革新や推論時の動的介入など、より柔軟で堅牢な安全手法の研究開発を進める方針です。技術的な能力だけでなく、人間の価値観や社会規範に沿ったAIシステムの構築を目指し、責任あるAIの普及に貢献していくとしています。

Hugging Face、仏Scalewayを推論プロバイダーに統合しAI利用の選択肢拡大

統合の核心と利点

Scalewayを新たな推論プロバイダーに追加。
gpt-ossQwen3など人気モデルへ容易にアクセス。
モデルページからサーバーレスで即時推論可能。
ウェブUIとクライアントSDKからシームレス利用。

Scalewayの技術的強み

欧州データセンターによるデータ主権と低遅延。
トークンあたり€0.20からの競争的価格
構造化出力、ファンクションコーリングに対応。
高速応答(200ms未満)を実現。

柔軟な課金体系

カスタムキー利用でプロバイダーに直接請求
HF経由の請求は追加マークアップなし
PROユーザーは毎月2ドル分の推論クレジット付与。

Hugging Faceは、フランスのクラウドプロバイダーであるScalewayを新たな「Inference Provider(推論プロバイダー)」としてハブに統合しました。これにより、経営者エンジニアgpt-ossQwen3などの人気オープンウェイトモデルを、Scalewayの提供するフルマネージドなサーバーレス環境で利用可能になります。この統合は、AIモデルのデプロイと利用の柔軟性を高め、特に欧州におけるデータ主権への要求に応えるものです。

Scalewayが提供するのは「Generative APIs」と呼ばれるサーバーレスサービスであり、トークンあたり0.20ユーロ/100万トークンからという競争力のある従量課金制が特徴です。ユーザーはシンプルなAPIコールを通じて、最先端のAIモデルにアクセスできます。この手軽さとコスト効率は、大規模な本番環境での利用を検討する企業にとって大きなメリットとなります。

インフラストラクチャはパリの欧州データセンターに置かれており、欧州の利用者に対してデータ主権の確保と低遅延の推論環境を提供します。応答速度はファーストトークンで200ミリ秒未満を達成しており、インタラクティブなアプリケーションやエージェントワークフローへの適用に最適です。テキスト生成とエンベディングモデルの両方をサポートしています。

Scalewayのプラットフォームは高度な機能にも対応しています。具体的には、応答形式を指定できる構造化出力や、外部ツール連携を可能にするファンクションコーリング、さらにマルチモーダル処理能力を備えています。これにより、より複雑で実用的なAIアプリケーションの開発が可能になります。

利用者は、HFのウェブサイトUIだけでなく、PythonやJavaScriptのクライアントSDKからシームレスに推論を実行できます。課金方式は二通りあり、ScalewayのAPIキーを使う場合は直接プロバイダーに請求されます。HF経由でルーティングする場合は、HFによる追加のマークアップは発生しないため、透明性が高い価格で利用できます。

Hugging FaceのPROプランユーザーには、毎月2ドル分の推論クレジットが特典として提供されます。このクレジットは、Scalewayを含む複数のプロバイダーで横断的に使用可能です。本格的な商用利用や高いリミットが必要な場合は、PROプランへのアップグレードが推奨されています。