DeepSeek(企業)に関するニュース一覧

軽量AI「Nomos 1」、難関数学競技で世界2位相当の性能

圧倒的な数学性能と効率性

難関数学競技で世界2位相当の87点
わずか30億アクティブパラメータの軽量設計
コンシューマー機で動作する高効率モデル

人間を模した推論プロセス

難問に資源を集中させる優先度システム
自己採点とトーナメントによる解の選定
ベースモデルの性能を3倍以上に引き上げ

ビジネスへの示唆

自社インフラで運用可能な高度推論AI
巨大モデルに迫る小規模モデルの可能性

米新興のNous Researchは、数学推論に特化したオープンソースモデル「Nomos 1」を発表しました。世界最難関とされるパトナム数学競技会で、今年度の参加者中2位に相当する87点を記録。巨大テック企業の独壇場だった領域に、軽量かつ高性能なモデルで風穴を開けました。

特筆すべきは、その効率性です。GoogleOpenAIが兆単位のパラメータを要するのに対し、Nomos 1は実効わずか30億パラメータで動作します。ベースモデル単体では24点でしたが、独自の事後学習推論技術により、トップレベルの人間と同等のスコアを叩き出しました。

高性能の秘密は、人間の思考プロセスを模した「推論ハーネス」にあります。AIが並列して問題を解き、自己採点で難易度を判断。計算資源を難問へ優先的に配分し、最終的に複数の回答候補からトーナメント形式で正解を選定する仕組みを採用しています。

DeepSeekなどの競合モデルはより高得点を記録していますが、Nomos 1はコンシューマー機で動作可能な点が革命的です。企業はAPI経由でデータを外部に出すことなく、自社のローカル環境で高度な数学的検証や複雑なモデリングを実行できるようになります。

今回の成果は、賢い学習手法を用いれば小規模モデルでも巨大モデルに拮抗できることを示唆しています。コストや秘匿性が重視されるビジネス現場において、自社専用の「AI数学者」を持つことが現実的な選択肢となりつつあります。

NeurIPS2025:強化学習への回帰とGoogleの復権

技術トレンドの転換点

スケーリングから強化学習(RL)
特定用途へのモデル調整が加速
継続学習や世界モデルが新潮流

激変する企業勢力図

Google DeepMindが復権
中国や新興ラボが急速に台頭
物理AIロボティクスの実用化

2025年12月、サンディエゴで開催された世界最大級のAI国際会議「NeurIPS」にて、業界の潮流が決定的な転換点を迎えました。これまでのデータ量を追求する競争から、強化学習(RL)や推論能力の深化を目指す「研究の時代」へと、開発の主戦場が大きく移行しています。

最大の焦点は、会場のあらゆる議論を席巻した強化学習(RL)の再流行です。単に事前学習データを増やすスケーリング則の限界が意識され始め、特定のユースケースに向けてモデルを精緻に調整するアプローチが、次なる成長のドライバーとして認知されています。

企業間の勢力図においては、Google DeepMindが圧倒的な存在感を示しました。Gemini 3の発表や最多の論文採択数を背景に、技術的なリーダーシップを取り戻しています。一方でAnthropicも勢いを維持する中、OpenAIは相対的に注目度を分け合う形となりました。

新たな技術トレンドとして、継続学習(Continual Learning)や世界モデルへの関心が急上昇しています。静的なモデルではなく、環境との相互作用を通じて学習し続けるシステムの構築が、2026年に向けた重要な研究テーマとして浮上してきました。

また、AlibabaのQwenDeepSeekといった中国、およびReflection AIなどの新興ラボが台頭しています。彼らは既存の大手ラボとは異なるアプローチで成果を上げており、AI開発の多極化が進んでいることを印象づけました。

実用面では、デジタル空間を超えた物理AI(Physical AI)ロボティクスへの応用が加速しています。エージェントAIを単なるモデルではなく「スタック」として捉え、実社会の複雑な課題解決に直結させる動きが、エンジニアたちの関心を集めています。

仏Mistral、コーディング特化AI「Devstral 2」発表

二つの新モデルと開発ツール

旗艦版Devstral 2は1230億パラ
軽量版SmallはPCでローカル動作可
文脈理解するVibe CLIも同時公開

性能と戦略的なライセンス

ベンチマーク72.2%記録し競合凌駕
SmallはApache 2.0で商用自由
上位版は月商2千万ドル超企業に制限

仏Mistral AIは12月9日、コーディングに特化した新AIモデル「Devstral 2」群と、開発者向けコマンドラインツール「Mistral Vibe CLI」を発表しました。高性能な推論能力とローカル環境での動作を両立させ、企業の生産性向上データセキュリティの課題解決を狙います。

最上位のDevstral 2は1230億パラメータを有し、エンジニアリング性能を測るSWE-benchで72.2%を記録しました。これは競合するDeepSeek V3.2などを上回る数値です。一方、軽量版のDevstral Small(240億パラメータ)は同ベンチマークで68.0%を維持しつつ、一般的なGPU搭載PCで完全オフライン動作が可能です。

併せて発表された「Mistral Vibe CLI」は、ターミナルから直接AIを利用できるツールです。Gitのステータスやファイル構造を文脈として理解し、自然言語の指示でコード修正やリファクタリングを自律的に実行します。エディタのプラグインではなく、開発者の作業フローそのものに統合される点が特徴です。

ライセンス戦略も明確に区分されました。Devstral SmallとCLIは制限の緩いApache 2.0を採用し、幅広い商用利用を促進します。対してDevstral 2は、月商2000万ドル(約30億円)超の企業に商用契約を求める独自ライセンスとし、スタートアップの取り込みと大企業からの収益化を両立する構えです。

金融や防衛など機密情報を扱う組織にとって、外部通信なしで動作する高性能モデルは魅力的です。Mistralは巨大な汎用モデルではなく、用途に特化した「分散型インテリジェンス」を推進しており、今回の発表は開発者エコシステムにおける同社の地位をより強固なものにするでしょう。

DeepSeekは技術、ByteDanceは実装。中国AIの二極化

性能と効率を磨くDeepSeek

最新モデルV3.2は米大手と同等の性能
制約下で高効率な学習を実現

生活OSを狙うByteDance

AIをスマホOSに統合しエージェント
アプリ横断操作でSiriの座を狙う

中国AI業界の共通項

米国計算資源競争とは異なる進化
技術開発か生活実装か二極化が進行

中国AI界を牽引するDeepSeekとByteDanceが、全く異なる戦略で覇権を争っています。DeepSeekが高性能なオープンモデルで技術の「高み」を目指す一方、ByteDanceはAIをスマートフォンOSに統合し、日常生活への「広がり」を追求し始めました。米国の計算資源競争とは一線を画す、リソース制約のある市場における独自の生存戦略が浮き彫りになっています。

技術特化型のDeepSeekは、新たに「DeepSeek V3.2」を公開しました。これはOpenAIGoogleの最新モデルに匹敵し、特定の数学タスクでは凌駕するとも評されます。特筆すべきは、米国によるチップ輸出規制という逆風を、徹底した「モデル効率」の追求で克服している点です。潤沢な計算資源に頼らずとも、低コストで高性能を実現する姿勢は、世界の開発者から注目を集めています。

対照的にByteDanceは、AIチャットボット「Doubao」の社会実装を急加速させています。同社はスマホメーカーと提携し、OSレベルでのAI統合に着手しました。これにより、AIがユーザーに代わってアプリを操作し、ECサイトでの価格比較や画像の自動補正を行う「エージェント機能」を実現しようとしています。AppleSiriが目指すポジションを、Androidエコシステムの中で先取りする動きです。

この二極化は、中国AI市場全体の成熟を示唆しています。ZhipuなどがDeepSeek同様にモデル性能を競う一方で、BaiduやTencentはByteDanceのようにアプリ実装へ軸足を移しています。共通しているのは、米巨大テックのような「計算資源の力技」を避け、限られたリソースで実利を最大化する現実的なアプローチです。技術の頂点か、生活の基盤か。この戦略分岐は、今後のAIビジネスの在り方を占う試金石となります。

「詩」でAI安全策が無効化:伊チームが脆弱性を実証

詩的表現が防御を突破

詩や謎かけ形式で有害指示が通過
安全フィルターの回避率は平均62%
ヘイトスピーチや兵器情報の出力に成功

モデル規模と脆弱性

大規模モデルほど攻撃に弱い傾向を確認
Googleの一部モデルでは100%通過
小型モデルは比較的高い防御力を維持

予測困難な構造が鍵

文体の変化だけで検知をすり抜け
次語予測の仕組みを逆手に取った手法

イタリアのIcaro Labは2025年12月、AIチャットボットに対し「詩」や「謎かけ」の形式で指示を出すことで、安全フィルターを回避できるという研究結果を発表しました。通常は遮断される有害情報の生成が可能であることが実証されています。

研究チームは手作りの詩的プロンプトを用い、GoogleOpenAIなど主要企業の25モデルを対象に実験を行いました。その結果、平均62%の有害リクエストが安全策をすり抜け、ヘイトスピーチや危険物の製造手順などが出力されました。

興味深いことに、モデルの規模が大きいほど脆弱性が高まる傾向が見られました。Googleの「Gemini 2.5 pro」では100%の成功率を記録した一方、OpenAIの小型モデル「GPT-5 nano」では攻撃が完全に防がれるなど、性能と安全性の間に複雑な関係があります。

この手法は「敵対的な詩(Adversarial Poetry)」と呼ばれます。LLMは次の単語を予測して動作しますが、詩や謎かけ特有の予測困難な構造が、有害な意図を隠蔽し、検閲アルゴリズムの検知を逃れる要因になっていると分析されています。

企業別では、DeepseekやMistralなどのモデルが比較的脆弱であり、AnthropicOpenAIのモデルは高い防御力を示しました。研究者は各社に警告済みですが、文体の工夫だけで突破される現状は、AIセキュリティに新たな課題を突きつけています。

NVIDIA新基盤、最先端AIの推論速度と収益性を10倍へ

最先端AIの標準「MoE」

脳のように専門領域を分担し効率化
トップモデルの60%以上が採用

拡張を阻む「壁」を突破

従来のGPU連携では通信遅延が課題
72基のGPUを単一巨大化し解決

10倍の性能が拓く未来

電力対性能とトークン収益が10倍に
エージェント型AIの基盤としても最適

NVIDIAは3日、同社の最新システム「Blackwell NVL72」が、現在主流のAIアーキテクチャ「MoE(Mixture of Experts)」の推論性能を前世代比で10倍に高めると発表しました。DeepSeekやMistralなどの最先端モデルにおいて、劇的な処理速度と電力効率の向上を実現し、AI運用の経済性を根本から変革します。

なぜ今、MoEが重要なのでしょうか。人間の脳の仕組みを模したこの技術は、タスクに応じて特定の「専門家(エキスパート)」パラメータのみを稼働させます。計算リソースを抑えつつ高度な知能を実現できるため、オープンソースのトップモデルの多くが採用していますが、その複雑さゆえに、従来のハードウェアでは大規模な展開が困難でした。

この課題に対し、NVIDIAは「Extreme Codesign」で応えました。NVL72システムは、最大72基のGPUを高速なNVLinkで結合し、あたかも「一つの巨大なGPU」として動作させます。これにより、メモリ帯域と通信遅延のボトルネックを解消し、大規模なMoEモデルを効率的に分散処理することが可能になりました。

その効果は絶大です。Kimi K2 ThinkingやMistral Large 3といったモデルでは、前世代のH200と比較して10倍のパフォーマンスを記録しました。これは単なる速度向上にとどまらず、電力あたりの生成能力、ひいてはトークン収益の10倍増を意味し、データセンターの収益構造を劇的に改善します。

さらに、このアーキテクチャは次世代の「エージェント型AI」にも最適です。複数の特化型AIが協調して動く未来のシステムは、本質的にMoEと同じ構造を持つからです。経営者エンジニアにとって、この新基盤への移行は、AIの生産性と市場競争力を高めるための必須条件となるでしょう。

Gemini 3 Proが信頼度69%で首位 2.6万人盲検調査

信頼度と性能で他社を圧倒

信頼スコアが前世代の16%から69%へ急上昇
2.6万人のブラインドテストで最高評価
4評価軸のうち3部門でトップを獲得

全属性で一貫した高評価

年齢や政治信条など22の属性で安定した性能
対話スタイルではDeepSeek V3が首位

実用重視の評価へシフト

学術スコアより実利用での信頼を重視
ブランド名を隠した純粋な出力品質で評価

グーグルの最新モデル「Gemini 3 Pro」が、第三者機関による大規模調査で圧倒的な信頼を獲得しました。英オックスフォード大発のAI評価企業Prolificが実施した2万6000人のブラインドテストにおいて、同モデルは信頼性指標で過去最高のスコアを記録し、競合を大きく引き離しています。

特筆すべきは前モデルからの飛躍的な進化です。Gemini 2.5 Proの信頼スコアが16%だったのに対し、最新版は69%へと急上昇しました。性能・推論、対話・適応性、信頼・安全性の3部門で首位を獲得し、ユーザーが選ぶ確率は前モデル比で5倍に達しています。

調査はベンダー名を伏せた状態で行われ、ブランドの影響を完全に排除しています。年齢、性別、政治的指向など22の異なる属性グループすべてで一貫して高い評価を得ており、特定の層だけでなく、幅広いユーザーに対して安定した性能を発揮することが証明されました。

一方で、コミュニケーションスタイルに関しては中国の「DeepSeek V3」が43%の支持を集めて首位となりました。特定の会話形式や表現においては他社モデルに軍配が上がるケースもあり、用途に応じたモデル選定の重要性が浮き彫りになっています。

企業は今後、ベンダー発表の静的なベンチマークだけでなく、実際の利用シーンに即した評価を重視すべきです。自社の顧客層やユースケースに合わせ、科学的なアプローチでモデルを選定することが、AI活用における競争力の源泉となります。

DeepSeek V3.2、GPT-5匹敵の性能で無料公開

圧倒的な性能とコスト効率

GPT-5Gemini匹敵する推論能力
新技術DSAで推論コストを70%削減
数学五輪で金メダル級のスコアを記録

実用性と市場への衝撃

ツール使用中も思考を持続する機能搭載
商用可能なMITライセンスで完全公開
オープンソース戦略で業界構造を破壊

中国DeepSeekは2025年12月1日、米国GPT-5Gemini 3.0に匹敵する新モデル「DeepSeek-V3.2」を公開しました。MITライセンスでの無料公開であり、圧倒的な性能と低コストでAI業界の勢力図を塗り替えようとしています。

本モデルの核心は、「DeepSeek Sparse Attention」と呼ばれる新技術です。必要な情報のみを抽出処理することで、長文脈の処理においても推論コストを約70%削減し、100万トークンあたり0.70ドルという驚異的な安さを実現しました。

性能面でも世界最高水準に到達しました。特に推論特化型の「Speciale」は、国際数学オリンピックやコーディング課題において金メダル級のスコアを記録し、一部のベンチマークではGPT-5Geminiを凌駕する結果を残しています。

実務面での革新は「ツール使用中の思考維持」です。検索やコード実行を行う際も思考プロセスを途切れさせないため、複雑な課題解決が可能です。これにより、エンジニア高度なAIエージェントをより安価に構築できるようになります。

今回のリリースは、米国の輸出規制下でも中国が最先端AIを開発できることを証明しました。高性能モデルの無償公開は、高額なAPI利用料に依存する既存のビジネスモデルを根底から揺るがす、極めて戦略的な一手といえます。

複雑実務に挑むAI学習基盤「Agent-R1」がRAGを凌駕

数学・コードから「現実世界」へ

従来の強化学習正解のある問題に特化
現実の業務は曖昧で動的な対応が必要
新手法は対話履歴と環境を全学習

中間評価で「過程」を磨く

最終結果だけでなく中間プロセスも評価
スパース報酬問題を解消し学習効率化
ツール実行と状況解釈を分離管理

既存手法を凌駕する実力

多段階推論従来のRAGを圧倒
DeepSeek系アルゴリズムで最高性能
企業利用の自動化レベルを向上

中国科学技術大学の研究チームが、複雑な実務タスクに対応可能なLLMエージェント強化学習フレームワーク「Agent-R1」を開発しました。従来の数学コーディングといった明確な領域を超え、曖昧さを含む現実世界の課題解決能力を大幅に向上させます。

これまでの強化学習は、正解が明確なタスクで威力を発揮してきましたが、変化し続けるビジネス環境や予測不能なフィードバックへの対応は苦手でした。エージェントが自律的にツールを使いこなし、複雑な工程を完遂するには、学習モデルの根本的な再定義が必要だったのです。

研究チームは「マルコフ決定過程」を拡張し、過去の対話履歴や環境反応を含めた学習を可能にしました。特筆すべきは、最終結果だけでなく中間の工程を評価する「プロセス報酬」の導入です。これにより、エージェントは正解に至るまでの「過程の良し悪し」を学習し、効率的にスキルを習得します。

Agent-R1は、行動を実行する「Tool」と、その結果を解釈する「ToolEnv」という2つのモジュールで構成されます。単にAPIを叩くだけでなく、その結果がタスク全体の進捗にどう意味を持つかを理解させることで、マルチターンの複雑な対話を制御します。

検証の結果、この手法で訓練されたエージェントは、従来のRAG(検索拡張生成)や基本的なツール利用モデルを大きく上回る性能を示しました。特にDeepSeek-R1などで採用されるアルゴリズム「GRPO」との相性が良く、企業の生産性を高める次世代エージェント開発の基盤として期待されています。

2025年AI総括:GPT-5実用化と中国・小型モデルの台頭

OpenAIの進化と実用化加速

GPT-5と5.1が始動、ZenDeskで解決率9割事例も
Sora 2やブラウザAtlas、OSSモデルも全方位展開
コーディング特化モデルで長時間タスクが可能に

中国勢と多様なモデルの台頭

DeepSeekQwen3など中国OSSが世界を席巻
Google Gemma 3など超小型モデルが実用段階へ
MetaがMidjourneyと提携画像生成をSNS統合
Gemini 3やClaude Opus 4.5で競争激化

2025年11月、米VentureBeatは今年のAI業界を振り返る総括記事を公開しました。2025年は、特定の最強モデル一強ではなく、オープンソースや中国勢、エッジ向け小型モデルを含めた「エコシステムの多様化」が決定的となった年です。経営者エンジニアにとって、用途に応じて最適なAIを選択できる環境が整ったことが、今年最大の収穫と言えるでしょう。

OpenAIは待望のGPT-5およびGPT-5.1をリリースし、市場を牽引し続けました。初期の反応は賛否両論ありましたが、改良を経てZenDeskなどの企業導入が進み、顧客対応の自動解決率が80〜90%に達する事例も報告されています。さらに、動画生成AI「Sora 2」やブラウザ統合型「Atlas」、そして意外にもオープンウェイトモデルの公開など、全方位での攻勢を強めています。

特筆すべきは中国発のオープンソースモデルの躍進です。DeepSeek-R1やAlibabaのQwen3シリーズなどが、推論能力やコーディング性能で米国のフロンティアモデルに肉薄しています。MITなどの調査によれば、中国製モデルのダウンロード数は米国をわずかに上回る勢いを見せており、コストパフォーマンスを重視する企業にとって無視できない選択肢となりました。

「巨大化」へのカウンターとして、小型・ローカルモデルの実用性も飛躍的に向上しました。GoogleのGemma 3やLiquid AIのLFM2は、パラメータ数を抑えつつ特定タスクに特化し、エッジデバイスやプライバシー重視の環境での利用を可能にしました。すべての処理を巨大クラウドAIに依存しない、分散型のAI活用が現実味を帯びています。

画像生成や競合他社の動きも活発です。MetaはMidjourneyの技術ライセンスを取得し、自社SNSへの統合を進めるという驚きの戦略に出ました。一方、GoogleGemini 3に加え、ビジネス図解に強い画像生成モデル「Nano Banana Pro」を投入しています。AnthropicClaude Opus 4.5やBlack Forest LabsのFlux.2など、各領域でハイレベルな競争が続いています。

米AI覇権維持へ「オープンソース戦略」への回帰が急務

中国オープンモデルの台頭

DeepSeek等の中国製モデルが急成長
開発者の支持を集めイノベーション加速
米企業はクローズド化し遅れる懸念

米国が取るべき戦略

ATOM Project等が警鐘鳴らす
オープンモデルへの投資が不可欠
政府支援によるデータ共有基盤の整備

米国がAI開発の岐路に立たされています。かつてMetaなどが主導したオープンソースAIの分野で、現在はDeepSeekなどの中国企業が急速に台頭し、米国の優位性が揺らいでいるためです。AI覇権を維持するため、米国は再びオープン戦略へ舵を切る必要があるとの指摘が強まっています。

背景には米巨大テック企業の戦略転換があります。各社が「AGI」開発競争に注力し、技術を囲い込むクローズド化を進めているのです。対照的に中国企業は高性能モデルを公開し、世界中の開発者を取り込んで技術革新を加速させています。

専門家はこの状況に強い懸念を示しています。ATOM Projectなどは、外国製モデルへの依存が将来的なリスクになると警告します。オープンモデルは企業の独自運用や機密保護に不可欠であり、米国はこの分野でも主導権を握り続ける必要があります。

解決策として官民連携による投資が求められています。最先端モデルの維持費は年間約1億ドルとされ、業界規模からすれば少額です。政府によるデータ共有基盤の整備や透明性の高い開発支援が、健全な競争環境と米国の優位性を取り戻す鍵だと提言されています。

米国AIの優位性、オープンソース化が鍵 Databricks創業者警鐘

米国AIが抱える危機

中国に研究で後れを取る現状
大手ラボによる技術の独占
学術界からの深刻な頭脳流出
科学者間の対話が枯渇

オープンソース化が鍵

中国オープン戦略が脅威に
生成AIを生んだTransformer公開論文
自由なアイデア交換で革新を促進
民主主義とビジネスの存亡に関わる課題

データ分析基盤大手Databricksの共同創業者アンディ・コンウィンスキー氏が、AI分野で中国に対抗するためには米国はオープンソース戦略に転換すべきだと警鐘を鳴らしました。同氏はCerebral Valley AI Summitにて、現在の技術独占と学術界からの頭脳流出が米国の優位性を損ない、民主主義にとって「存亡に関わる脅威」になっていると強く訴えました。

コンウィンスキー氏が指摘する問題の核心は、大手AIラボの姿勢にあります。OpenAIMetaAnthropicなどは画期的な技術を開発していますが、その多くはプロプライエタリ(独占的)であり、広く共有されません。さらに、高額な報酬で大学のトップ研究者を引き抜くことで、学術界での自由な知見の交換が「枯渇しつつある」と危機感を示しました。

対照的に中国では、政府がAIイノベーションのオープンソース化を奨励していると氏は分析します。DeepSeekやAlibaba傘下のQwenといった企業の研究成果が公開されることで、他の研究者や開発者がその技術を土台に新たなイノベーションを生み出す好循環が生まれる可能性があり、これが米国の脅威となり得るとの見方です。

「今日の生成AIは、公開論文で発表されたTransformerアーキテクチャから生まれた」とコンウィンスキー氏は述べ、オープンな研究の重要性を強調します。次のTransformer級のブレークスルーをどちらの国が先に生み出すかが、今後のAI覇権を決定づける重要な要素となるでしょう。

現状を「トウモロコシの種籾を食べているようなものだ」と表現し、イノベーションの源泉が枯渇すれば、5年後には大手AIラボ自身も競争力を失うと警告。米国がAI分野でトップを維持するためには、オープンなエコシステムの再構築が急務であると結論づけました。

Weibo、低コスト小型AIで巨大モデル超え性能

低コストで巨大モデル超え

Weibo公開の15億パラメータLLM
後訓練コストはわずか7800ドル
数学・コードで巨大モデルを凌駕
商用利用可能なMITライセンス

新訓練手法と企業への示唆

新手法「SSP」で効率的な学習
多様な解を探求し最適解を増幅
エッジデバイスにも搭載可能
推論コストの大幅な削減を実現

中国のSNS大手Weiboが、オープンソースの小規模言語モデル(LLM)「VibeThinker-1.5B」を発表しました。このモデルはわずか15億パラメータと小型ながら、数学コーディング推論タスクで数百倍規模のモデルを凌駕する性能を達成。後訓練にかかった費用はわずか7800ドル(約120万円)で、AI開発における「規模の経済」という常識を覆す可能性を秘めています。

VibeThinker-1.5Bの性能は、多くのベンチマークで証明されています。特に数学コーディングの分野では、6710億パラメータのDeepSeek R1や、Anthropic社のClaude Opus 4といった巨大モデルと互角以上のスコアを記録しました。これは、モデルの性能がパラメータ数だけで決まるわけではないことを明確に示しています。

この驚異的な性能の背景には、「SSP(Spectrum-to-Signal Principle)」と呼ばれる独自の訓練手法があります。この手法は、学習を2つの段階に分けます。まず、教師ありファインチューニング(SFT)で多様な正解候補を生成。次に、強化学習(RL)を用いてその中から最も確からしい解を特定し、増幅させます。

SSPは、大規模なパラメータに頼らずとも、モデルが推論の「探索空間」を効率的に探ることを可能にします。最初に幅広い可能性(スペクトル)を探り、そこから最も強い信号(シグナル)を見つけ出すアプローチにより、小規模なモデルでも高い論理的思考力を獲得できるのです。これはAI開発のコスト構造を大きく変える可能性があります。

企業にとって、このモデルは非常に魅力的です。小型であるため、スマートフォンや車載システムなどのエッジデバイスにも搭載可能。推論コストは大規模モデルの20分の1から70分の1にまで削減できると試算されています。これにより、これまでコスト面で導入が難しかった高度なAI機能の実用化が加速するでしょう。

VibeThinker-1.5Bの登場は、AI開発のトレンドがパラメータ数の競争から、より効率的で洗練された訓練手法へと移行しつつあることを示唆しています。コスト、速度、そして制御のしやすさを求める企業にとって、このモデルは実用的なAI導入に向けた強力な選択肢となることは間違いありません。

中国発MiniMax-M2、オープンソースLLMの新王者

主要指標でOSSの首位

第三者機関の総合指標で1位
独自LLMに迫るエージェント性能
コーディングベンチでも高スコア

企業導入を促す高効率設計

商用利用可のMITライセンス
専門家混合(MoE)で低コスト
少ないGPU運用可能
思考プロセスが追跡可能

中国のAIスタートアップMiniMaxが27日、最新の大規模言語モデル(LLM)「MiniMax-M2」を公開しました。第三者機関の評価でオープンソースLLMの首位に立ち、特に自律的に外部ツールを操作する「エージェント性能」で独自モデルに匹敵する能力を示します。商用利用可能なライセンスと高い電力効率を両立し、企業のAI活用を加速させるモデルとして注目されます。

第三者評価機関Artificial Analysisの総合指標で、MiniMax-M2オープンソースLLMとして世界1位を獲得しました。特に、自律的な計画・実行能力を測るエージェント関連のベンチマークでは、GPT-5Claude Sonnet 4.5といった最先端の独自モデルと肩を並べるスコアを記録。コーディングやタスク実行能力でも高い性能が確認されています。

M2の最大の特長は、企業での導入しやすさです。専門家の知識を組み合わせる「MoE」アーキテクチャを採用し、総パラメータ2300億に対し、有効パラメータを100億に抑制。これにより、わずか4基のNVIDIA H100 GPUでの運用を可能にし、インフラコストを大幅に削減します。さらに、商用利用を認めるMITライセンスは、企業が独自に改良・展開する際の障壁を取り払います。

高いエージェント性能を支えるのが、独自の「インターリーブ思考」形式です。モデルの思考プロセスがタグで明示されるため、論理の追跡と検証が容易になります。これは、複雑なワークフローを自動化する上で極めて重要な機能です。開発者は構造化された形式で外部ツールやAPIを連携させ、M2を中核とした高度な自律エージェントシステムを構築できます。

M2の登場は、オープンソースAI開発における中国勢の台頭を象徴しています。DeepSeekやアリババのQwenに続き、MiniMaxもまた、単なるモデルサイズではなく、実用的なエージェント能力やコスト効率を重視する潮流を加速させています。監査や自社でのチューニングが可能なオープンモデルの選択肢が広がることは、企業のAI戦略に大きな影響を与えるでしょう。

アント、1兆パラメータAI公開 強化学習の壁を突破

1兆パラメータモデルRing-1T

中国アントグループが開発
1兆パラメータのオープンソース推論モデル
数学・論理・コード生成に特化
ベンチマークGPT-5に次ぐ性能

独自技術で学習効率化

強化学習ボトルネックを解決
学習を安定化させる新手法「IcePop」
GPU効率を高める「C3PO++」を開発
激化する米中AI覇権争いの象徴

中国のアリババ系列企業アントグループが、1兆個のパラメータを持つオープンソースの推論AIモデル「Ring-1T」の技術詳細を公開しました。このモデルは、独自開発した最適化手法により、大規模モデルの学習における強化学習のボトルネックを解決した点が特徴です。OpenAIの「GPT-5」やGoogleの「Gemini」など米国勢に対抗し、激化する米中間のAI覇権争いで存在感を示す狙いがあります。

「Ring-1T」は、数学、論理問題、コード生成、科学的問題解決に特化して設計されています。各種ベンチマークテストでは、多くの項目でOpenAIGPT-5に次ぐ高いスコアを記録しました。特に、同社がテストしたオープンウェイトモデルの中では最高の性能を示し、中国企業の技術力の高さを証明しています。

この成果の背景には、超大規模モデルの学習を効率化する三つの独自技術があります。研究チームは、学習プロセスを安定させる「IcePop」、GPUの遊休時間をなくしリソースを最大限活用する「C3PO++」、非同期処理を可能にするアーキテクチャ「ASystem」を開発。これらが、1兆パラメータ規模のモデル学習を現実のものとしました。

特に注目すべきは、強化学習における課題へのアプローチです。従来、大規模モデルの強化学習は計算コストと不安定性が大きな障壁でした。「IcePop」は、学習を妨げるノイズの多い情報を抑制し、安定した性能向上を実現します。この技術革新は、今後のAIエージェント開発など応用分野の発展にも大きく貢献する可能性があります。

今回の発表は、DeepSeekやアリババ本体の「Qwen」シリーズに続く、中国発の高性能モデルの登場を意味します。米国の巨大テック企業を猛追する中国の勢いはとどまるところを知りません。「Ring-1T」のようなオープンソースモデルの公開は、世界中の開発競争をさらに加速させることになりそうです。

DeepSeek、テキストを画像化し10倍圧縮する新AI

テキスト処理の常識を覆す

テキストを画像として表現
従来のトークンより最大10倍効率化
LLMの常識を覆すパラダイム転換

巨大コンテキストと高効率

1000万トークン級の文脈へ
単一GPU日産20万ページ処理
トークナイザー問題を根本的に解決

オープンソースで開発加速

モデルやコードを完全公開
圧縮データ上の推論能力が今後の課題

中国のAI研究企業DeepSeekは、テキスト情報を画像として処理することで最大10倍に圧縮する新しいオープンソースAIモデル「DeepSeek-OCR」を発表しました。この技術は、大規模言語モデル(LLM)が一度に扱える情報量(コンテキストウィンドウ)を劇的に拡大する可能性を秘めており、従来のテキスト処理の常識を覆す画期的なアプローチとして注目されています。

このモデルの核心は、テキストを文字の集まり(トークン)としてではなく、一枚の「絵」として捉え、視覚情報として圧縮する点にあります。従来、テキスト情報の方が視覚情報より効率的に扱えると考えられてきましたが、DeepSeek-OCRはこの常識を覆しました。OpenAIの共同創業者であるAndrej Karpathy氏も「LLMへの入力は全て画像であるべきかもしれない」と述べ、この発想の転換を高く評価しています。

その性能は驚異的です。実験では、700〜800のテキストトークンを含む文書をわずか100の視覚トークンで表現し、97%以上の精度で元のテキストを復元できました。これは7.5倍の圧縮率に相当します。実用面では、単一のNVIDIA A100 GPUで1日に20万ページ以上を処理できる計算となり、AIの学習データ構築などを大幅に加速させることが可能です。

この技術革新がもたらす最大のインパクトは、LLMのコンテキストウィンドウの飛躍的な拡大です。現在の最先端モデルが数十万トークンであるのに対し、このアプローチは1000万トークン級の超巨大な文脈の実現に道を開きます。企業の全社内文書を一度に読み込ませて対話するなど、これまで不可能だった応用が現実のものとなるかもしれません。

テキストの画像化は、長年AI開発者を悩ませてきた「トークナイザー」の問題を根本的に解決する可能性も秘めています。文字コードの複雑さや、見た目が同じでも内部的に異なる文字として扱われるといった問題を回避できます。さらに、太字や色、レイアウトといった書式情報も自然にモデルへ入力できるため、よりリッチな文脈理解が期待されます。

DeepSeekはモデルの重みやコードを全てオープンソースとして公開しており、世界中の研究者がこの新技術を検証・発展させることが可能です。一方で、圧縮された視覚情報の上で、LLMがどの程度高度な「推論」を行えるかは未知数であり、今後の重要な研究課題となります。この挑戦的なアプローチが、次世代AIの標準となるか、業界全体の注目が集まります。

多機能とSNS連携で覇権、ByteDanceのAI『Doubao』

中国で最も人気なAIアプリ

月間利用者1.57億人中国首位
世界でも4番目に人気の生成AI
親しみやすいアバターとUI/UX

成功を支える『全部入り』戦略

チャットから動画生成まで多機能
AIに不慣れな層も取り込む設計
TikTok(Douyin)とのシームレスな連携

バイラル設計とエコシステム

SNSでの共有を促すバイラル設計
競合からユーザーの4割が流入
自動車など他デバイスへの展開

TikTokを運営する中国ByteDance社が開発したAIアシスタント「Doubao(豆包)」が、中国市場を席巻しています。2025年8月には月間アクティブユーザー数が1億5700万人に達し、競合のDeepSeekを抜いて国内首位となりました。その成功の裏には、チャットから画像動画生成までを網羅する多機能性と、ショート動画アプリ「Douyin(抖音)」と連携した巧みなバイラル戦略があります。

Doubaoの躍進は、データにも裏付けられています。中国のデータインテリジェンス企業QuestMobileによると、月間アクティブユーザー数は1億5700万人。競合のDeepSeekは1億4300万人で2位に後退しました。また、ベンチャーキャピタルa16zの調査では、ChatGPTGeminiに次ぐ世界で4番目に人気の生成AIアプリにランクインしています。

Doubaoの最大の特徴は「全部入り」とも言える包括的な機能です。テキスト対話だけでなく、画像生成、短い動画作成、データ分析、AIエージェントのカスタマイズまで、一つのアプリで完結します。これはまるで、ChatGPT、Midjourney、Sora、Character.aiといった複数の最先端ツールを一つに集約したような体験をユーザーに提供するものです。

なぜ、この「全部入り」戦略が受け入れられたのでしょうか。それは、DoubaoがAIに詳しくない一般ユーザーを明確にターゲットにしているからです。親しみやすいアバターやカラフルなUIに加え、テキスト入力より音声動画での対話を好む層を取り込み、AI利用のハードルを劇的に下げることに成功しました。

成功のもう一つの柱が、ByteDanceの得意とするSNS連携とバイラル設計です。ユーザーはDoubaoで生成したコンテンツを、Douyin(中国TikTok)ですぐに共有できます。逆にDouyinの動画要約をDoubaoにさせることも可能です。この利便性と楽しさが爆発的な拡散を生み、ユーザーエンゲージメントを高めています。

競合のDeepSeekがモデルの性能や論理的タスクに注力する一方、Doubaoは消費者向けアプリとしての完成度で差をつけました。QuestMobileのデータでは、DeepSeekを離れたユーザーの約4割がDoubaoに移行したとされています。これは、ByteDanceが長年培ってきた「アプリ工場」としての開発力が発揮された結果と言えるでしょう。

ByteDanceはスマートフォンの枠を超え、Doubaoをエコシステムの中核に据えようとしています。すでにスマートグラスや自動車メーカーとの提携を進めており、車載アシスタントやAIコンパニオンとしての搭載が始まっています。Doubaoは、私たちの生活のあらゆる場面に浸透するプラットフォームを目指しているのです。

ソブリンAI、米中技術覇権の新たな主戦場に

米国のソブリンAI戦略

OpenAIが各国政府と提携
国家によるAI統制を支援
非民主主義国との連携に懸念も

中国のオープンソース攻勢

Alibabaのモデルは3億DL超
来年には米国を凌駕する可能性

真のAI主権をめぐる論点

主権にはオープンソースが必須との声
クローズドとオープンの両立も可能

OpenAIをはじめとするテクノロジー企業が、「ソブリンAI」の構築支援を各国で進めています。ソブリンAIとは、各国が自国の管理下でAIインフラを開発・運用する能力を指し、米中間の技術覇権争いの新たな主戦場となりつつあります。米国が同盟国との連携を深める一方、中国オープンソースモデルで世界的な影響力を急速に拡大しています。

OpenAIはアラブ首長国連邦(UAE)などの政府と提携し、大規模なデータセンター建設を含むソブリンAIシステム構築を支援しています。この動きは米国政府とも連携しており、同盟国が中国の技術に依存するのを防ぐという戦略的な狙いがあります。米国の技術を世界に普及させることで、地政学的な優位性を確保しようとしています。

しかし、UAEのような非民主主義国との提携には懸念の声も上がっています。かつて米国は、経済的な関与が中国の民主化を促すと期待しましたが、結果的に権威主義体制を強めることになりました。AI技術の提供が同様の結果を招かないか、過去の教訓が問い直されています。OpenAIは政府からの要請があっても情報検閲は行わないと明言しています。

対する中国は、オープンソース戦略で猛追しています。AlibabaやTencent、DeepSeekといった企業が公開した高性能な基盤モデルは、世界中で広く採用されています。特にAlibabaの「Qwen」ファミリーは3億回以上ダウンロードされ、日本を含む各国のスタートアップが自国語対応モデルの開発基盤として活用しています。

オープンソースAIモデルをホストするHugging FaceのCEOは、「真の主権はオープンソースなしにはあり得ない」と指摘します。モデルの内部を完全に検証・制御できるためです。中国企業はこの戦略により驚異的な速さで技術力を向上させ、5年前の遅れを取り戻し、今や米国と互角のレベルに達したと分析されています。

AIの国家主権をめぐる競争は、クローズドモデルを推進する米国勢と、オープンソースで勢力を拡大する中国勢という構図を呈しています。OpenAIは両アプローチの共存が可能との見方を示していますが、どちらが次世代のグローバルスタンダードを握るのか。この動向は、各国の事業戦略を左右する重要な要素となるでしょう。

米Reflection AI、3000億円調達 中国勢に対抗

驚異的な資金調達

DeepMind研究者が設立
20億ドル(約3000億円)を調達
企業価値は80億ドル、7カ月で15倍
Nvidiaなど有力投資家が参加

オープンAIで覇権を狙う

中国AI企業DeepSeekに対抗
米国発のフロンティアAI研究所へ
モデルの重みは公開、データは非公開
大企業や政府向けの収益モデル

Google DeepMindの研究者が設立した米国のAIスタートアップ、Reflection AIが20億ドル(約3000億円)の巨額資金調達を発表しました。企業価値はわずか7カ月で15倍の80億ドルに急騰。同社は、急成長する中国のAI企業DeepSeekなどに対抗し、米国主導の「オープンなフロンティアAI研究所」となることを目指します。

Reflection AIは2024年3月、DeepMindGemini開発を主導したミーシャ・ラスキン氏らが設立。AlphaGo共同開発者も参画し、トップ人材約60名を確保しました。巨大テック企業の外でもフロンティアモデルを構築できると証明することが狙いです。

ラスキンCEOは、中国DeepSeekなどの台頭に強い危機感を示します。「何もしなければ、知能のグローバルスタンダードが他国製になる」と述べ、米国主導の必要性を強調。法的な懸念から欧米企業は中国製モデルを使いにくく、代替選択肢が求められています。

同社の「オープン」戦略は、Metaなどと同様に限定的です。モデルの動作を決める中核パラメータ「重み」は公開する一方、学習データや手法は非公開とします。誰もがモデルを利用・改変できる「重み」の公開が最も重要だという考えです。

収益化の柱は、大企業や政府です。自社インフラでAIを運用し、コスト管理やカスタマイズをしたい大企業はオープンモデルを求めます。また、各国がAIモデルを開発・管理する「ソブリンAI」の需要を取り込むことも重要な戦略です。

調達資金は、モデル学習に必要な計算資源の確保に充てられます。来年初頭には、数兆トークン規模のデータで学習した最初のフロンティア言語モデルをリリースする計画です。まずテキストモデルから始め、将来的にはマルチモーダル機能も搭載します。

AI計算コスト削減の鍵、スパースアテンション

従来AIの計算課題

AIの文脈理解を担う「アテンション」
入力長の二乗で計算コストが増加
長文対話処理のボトルネックに

新技術への期待

DeepSeek社が新技術をテスト
関連性の高い情報に絞り計算
処理コストの大幅な削減に期待
OpenAIも類似技術を採用か

中国のAI企業DeepSeek社が、AIモデルの処理コストを大幅に削減する可能性のある新技術「スパースアテンション」をテストしています。この技術は、AIが文脈を理解する際の計算量を劇的に減らし、これまでボトルネックとなっていた長文対話の処理性能を向上させる可能性があります。AIの運用コスト削減と応用範囲拡大への貢献が期待されます。

AI、特に大規模言語モデルは「アテンション」という仕組みで単語間の関連性を計算し、文脈を理解します。しかし、2017年に登場した画期的なTransformerアーキテクチャでは、入力された全ての単語の組み合わせを総当たりで比較するため、計算コストが入力長の二乗で増加するという根本的な課題を抱えていました。

この「二乗の呪い」は深刻です。例えば、1,000語の文章では100万回、1万語では1億回もの比較計算が必要になります。これにより、ChatGPTのような対話型AIでは、会話が長くなるほど応答速度が低下するなどの性能ペナルティが発生していました。新しい応答のたびに、全履歴を再計算するためです。

DeepSeek社がテストする「スパースアテンション」は、この問題を解決するアプローチです。全ての単語を比較するのではなく、文脈上関連性の高い単語の組み合わせに絞って計算を行います。これにより、計算量を大幅に削減し、コストと性能のボトルネックを解消することを目指します。

OpenAIGPT-5など、最先端のモデルでも同様の技術が採用されていると推測されています。スパースアテンションの普及は、AIの運用コストを引き下げ、より長く複雑なタスクを扱えるようにする鍵となります。今後のAI開発の費用対効果を大きく左右する技術として注目されます。

DeepSeek、APIコスト半減の新AIモデル発表

APIコストを半減する新技術

長い文脈での推論コスト削減
APIコストが最大で半減
新技術「スパースアテンション」
実験モデル「V3.2-exp」を公開

効率化を実現する2段階選択

まず重要部分を抜粋・優先順位付け
次に抜粋内からトークンを選択
サーバー負荷を大幅に軽減
Hugging Faceで利用可能

中国のAI企業DeepSeekは29日、新しい実験的AIモデル「V3.2-exp」を発表しました。このモデルは「スパースアテンション」と呼ばれる新技術を搭載しており、長い文章や大量のデータを処理する際の推論コスト(APIコスト)を最大で半減させる可能性を秘めています。AIの運用コスト削減は業界全体の課題であり、今回の発表は大きな注目を集めています。

新技術の核心は、処理情報を効率的に絞り込む2段階の仕組みです。まずシステムが入力文から重要部分を抜粋し、次にその中から処理に必要な最小限のトークンを選択します。この選択と集中のアプローチにより、関連性の低い情報処理を省略し、サーバー負荷を大幅に軽減するのです。

AIモデルの運用コスト、特に「推論コスト」の削減は、AIサービスを普及させる上で極めて重要です。今回の試みは、AIの基本構造であるTransformerアーキテクチャの効率化を目指すもの。特に大量の文書読解や複雑な対話など、長い文脈を扱う応用でのコストメリットは計り知れません。

この「V3.2-exp」モデルはオープンウェイトとして、開発者プラットフォームのHugging Faceで既に公開されています。誰でも自由に利用し、その性能を検証できるため、DeepSeekが主張するコスト削減効果が実証される日も近いでしょう。今後、第三者による客観的な評価やさらなる改良が期待されます。

DeepSeek中国に拠点を置く企業で、年初には独自の学習手法を用いたモデルで業界を驚かせました。今回の発表は、米中間の技術競争という側面だけでなく、AI業界全体のコスト効率化という共通課題に対する一つの解を示した点で意義深いと言えます。この技術が米国の主要プロバイダーにも影響を与える可能性があります。

AIモデル小型化の鍵「知識蒸留」、高性能を維持しコスト削減

AI業界で、モデルの小型化とコスト削減を実現する「知識蒸留」技術が重要性を増しています。これは、大規模で高コストな「教師モデル」が持つ知識を、より小型で効率的な「生徒モデル」に継承させる手法です。なぜこの技術が、AI開発の効率化を目指す企業にとって不可欠なのでしょうか。その仕組みと可能性を探ります。 このアイデアは、AI研究の権威であるジェフリー・ヒントン氏らが2015年に発表した論文に遡ります。その核心は、教師モデルが持つ「ソフトターゲット」と呼ばれる確率的な情報を活用することにあります。単なる正解・不正解だけでなく、どの選択肢をどの程度の確率で予測したかという情報まで生徒モデルに教え込むのです。 ヒントン氏はこの詳細な情報を「ダークナレッジ(暗黒知)」と呼びました。例えば画像認識で「犬」の画像を「猫」と間違える確率は、「車」と間違える確率より高いはずです。この「間違い方の近さ」を学ぶことで、生徒モデルは世界の構造をより深く、そして効率的に理解できるようになります。 知識蒸留は、AIモデルが巨大化し運用コストが高騰する中で急速に普及しました。例えば、Googleが開発した言語モデル「BERT」に対し、その知識を蒸留した小型版「DistilBERT」が登場。現在ではGoogleOpenAIなどもサービスとして提供するほど、AI開発における一般的な手法となっています。 最近では、より複雑な推論を行う「思考の連鎖」モデルの学習にも応用されています。カリフォルニア大学バークレー校の研究室は、知識蒸留を用いてわずか450ドル未満のコストで高性能なモデルを開発。この技術がAI開発の基本的なツールであることを改めて示しました。 知識蒸留は、AI導入の障壁となる高コスト問題を解決する鍵となります。自社で巨大モデルをゼロから開発せずとも、既存モデルから知識を継承し、特定の用途に特化した軽量なモデルを安価に構築できるため、多くの企業にとって現実的な選択肢となるでしょう。