Gemma(基盤モデル)に関するニュース一覧

Google、最強オープンモデルGemma 4をApache 2.0で公開

モデル構成と性能

4種類のモデルを同時公開
31Bがオープン世界3位の性能
26B MoEは4Bの計算量で動作
E2B・E4Bはスマホ端末対応

技術的な特徴

テキスト・画像音声ネイティブ対応
関数呼び出しをモデルに組込み
最大256Kトークンの長文脈
140以上の言語事前学習

ライセンスと展開

Apache 2.0で商用利用自由
Ollamallama.cppで即日利用可能
NVIDIA GPUで最適化済み

Google DeepMindは2026年4月1日、オープンモデル「Gemma 4」を4サイズ同時に公開しました。最上位の31BモデルはArena AIリーダーボードでオープンモデル世界3位を獲得し、ライセンスは従来の独自条項からApache 2.0へ変更されました。

31B Denseは高品質な推論特化、26B MoEは128個の小規模エキスパートのうち8個だけを活性化し、31B級の性能を4B級の速度で実現します。AIME 2026で31Bが89.2%、MoEが88.3%を記録し、前世代Gemma 3の20.8%から飛躍的に向上しました。

エッジ向けのE2BE4Bは、スマートフォンやRaspberry Pi、Jetson Nanoで完全オフライン動作します。Per-Layer Embeddings技術により、E2Bは総パラメータ51億ながら実効2Bとして軽量に動き、音声認識もモデル内で処理できます。

全モデルが画像動画音声マルチモーダル入力に対応し、関数呼び出しもアーキテクチャレベルで統合されています。可変アスペクト比の画像処理、最大256Kトークンの長文脈、140以上の言語への対応により、エージェント型AIワークフローの構築基盤として設計されています。

Apache 2.0ライセンスへの移行は、企業導入における法的障壁を解消する重要な転換点です。NVIDIAとの協業によりRTX GPUからDGX Sparkまで最適化され、Ollamallama.cpp・Hugging Faceなど主要ツールが初日から対応しています。中国系モデルがオープン化を後退させる中、Google逆方向の戦略を明確にしました。

Google医療AIコンペMedGemma受賞者を発表

主要受賞プロジェクト

EpiCast:西アフリカの疾病監視支援
FieldScreen AI:結核スクリーニング
Tracer医療ミス防止ワークフロー

技術特別賞と展望

BridgeDX:災害時オフライン診断支援
CaseTwin:胸部X線の類似症例照合
BigTB6:音声駆動の結核・貧血検査
850超チームがHAI-DEF活用で参加
途上国の医療格差解消に焦点

Googleは、医療AI開発者向けオープンモデル基盤「Health AI Developer Foundations(HAI-DEF)」プログラムの一環として開催した「MedGemma Impact Challenge」の受賞者を発表しました。Kaggleと共催した本コンペには850以上のチームが参加し、医療課題の解決に挑みました。

グランプリのEpiCastは、西アフリカ経済共同体の疾病監視の空白を埋めるモバイルファーストのソリューションです。ファインチューニングしたMedGemmaモデルにMedSigLIPやHeARを組み合わせ、地域言語による臨床観察をWHOの統合疾病監視・対応シグナルに変換し、感染症アウトブレイクの早期発見を支援します。

FieldScreen AIは、リソースが限られた環境向けの結核スクリーニングワークフローです。MedGemmaによる胸部X線解析とHeARベースの咳音声分類を組み合わせ、完全にオンデバイスで動作します。Tracerは医師のメモから仮説を抽出し、検査結果と照合することで医療ミスの防止を目指します。

技術特別賞では3テーマが表彰されました。BridgeDXは2015年ネパール地震の経験から着想を得たオフライン診断支援デモで、WHOやMSFのガイドラインに基づきます。CaseTwinはエージェント型ワークフローで胸部X線の類似症例を照合し、農村部の病院での紹介プロセスを数時間から数分に短縮します。

本コンペは、HAI-DEFのオープンウェイトモデルが世界中の医療格差解消に大きな可能性を持つことを示しました。Googleは2024年末にHAI-DEFを立ち上げ、2025年1月にはMedGemma 1.5を公開しており、今後も開発者コミュニティとの連携を通じて医療AIの民主化を推進する方針です。

HuggingFace、LeRobot v0.5.0でヒューマノイド対応と6つの新ポリシーを追加

ハードウェア拡張

Unitree G1ヒューマノイド初対応
全身協調制御(WBC)の実現
OpenArmロボットアームの統合
CANバスモーター対応で高性能化

AIポリシーと高速化

Pi0-FAST自己回帰VLAの導入
Real-Time Chunkingで推論の応答性向上
LoRA/PEFTで大規模VLAの効率微調整
画像学習10倍高速化を実現

エコシステム整備

EnvHubでHub上のシミュレーション環境を直接利用
NVIDIA IsaacLabとのGPU並列学習統合
サードパーティポリシープラグイン対応
ICLR 2026採択で学術的評価を獲得

Hugging Faceは2026年3月にオープンソースロボット学習フレームワーク「LeRobot」のv0.5.0をリリースした。同バージョンでは初のヒューマノイドロボット対応や6つの新ポリシー追加、データパイプラインの大幅な高速化など、あらゆる次元でのスケールアップが実現されています。

最大のハードウェア追加はUnitree G1ヒューマノイドの全面サポートです。歩行・ナビゲーション・物体操作・遠隔操作に加え、全身協調制御(WBC)により移動と操作を同時実行できる。これはLeRobotが卓上アームを超えた汎用ロボティクスへ踏み出す重要な一歩となっています。

ポリシー面ではPi0-FASTが注目されます。Gemma 300Mベースの自己回帰型アクションエキスパートを採用し、FASToトークン化によって離散化されたアクション列を生成します。また推論技術のReal-Time Chunking(RTC)は、フローマッチングポリシーの応答性を劇的に改善し、実世界デプロイでのレイテンシ問題を解消します。

データセットパイプラインではストリーミングビデオエンコーディングの導入により、エピソード記録後のエンコード待ち時間がゼロになりました。さらに画像学習が最大10倍、エンコードが3倍高速化されており、データ収集からモデル訓練までのサイクルが大幅に短縮されています。

コードベース面ではPython 3.12+とTransformers v5への移行が完了し、サードパーティポリシープラグインシステムの導入でエコシステムの拡張性が向上しました。EnvHubとNVIDIA IsaacLab-Arenaの統合により、シミュレーション環境の共有・活用も容易になっています。同論文はICLR 2026にも採択されており、学術コミュニティからの評価も高まっています。

Microsoft、150億パラメータの視覚推論モデルPhi-4をオープン公開

モデルの特徴と性能

150億パラメータの軽量マルチモーダルモデル
競合比5分の1のデータ量で訓練
数学・科学推論GUI操作に特化
精度と推論速度のパレート最適を実現

推論の選択的制御

思考・非思考の混合モード搭載
画像認識は直接応答で低遅延実現
数学問題は段階的推論で精度向上
ユーザーがモード手動切替も可能

公開とエコシステム展開

HuggingFaceGitHub重み公開
Phiファミリーがロボティクス領域にも拡大

Microsoft Researchは、150億パラメータのオープンウェイト・マルチモーダル推論モデルPhi-4-reasoning-vision-15B」を公開しました。テキストと画像の両方を処理し、数学・科学の推論、チャート読解、GUI操作など幅広いタスクに対応します。

最大の特徴は訓練効率の高さです。約2000億トークンのマルチモーダルデータで訓練されており、QwenGemma3など競合モデルが1兆トークン以上を使用するのに対し、およそ5分の1のデータ量にとどまります。その秘訣はオープンソースデータの徹底的なフィルタリングと品質改善にあります。

技術的に注目すべきは「混合推論」アプローチです。訓練データの約20%に思考過程を含む推論サンプルを、80%に直接応答のサンプルを使用し、モデルがタスクに応じて推論の要否を自動判断する仕組みを実現しました。画像キャプションでは即座に応答し、数学では段階的に思考します。

ベンチマーク評価では、ChartQAで83.3、MathVistaで75.2、ScreenSpot v2で88.2のスコアを記録しました。大型モデルのQwen3-VL-32Bには及ばないものの、同規模モデルを上回り、推論速度と精度のバランスでパレート最前線に位置しています。

Microsoftは本モデルをMIT許容ライセンスで公開し、ファインチューニングコードや評価ログも提供しています。Phiファミリーはエッジデバイス向けのPhi Silicaロボティクス向けのRho-alphaにも拡大しており、「最も賢いモデルは最大のモデルではなく、いつ考えるべきか知っているモデルだ」という戦略を鮮明にしています。

Googleと台湾がAI公衆衛生モデルを構築

糖尿病リスク評価を革新

処理速度が1万4400倍に向上
2万人評価を90分以内で完了
Gemini搭載健康アシスタント提供開始
利用者1000万人の政府アプリに実装

医療AI基盤の全国展開

がん治療や超音波診断にも応用
病理報告書3万件超を自動処理
Google.orgが100万ドルを助成
地方300施設に糖尿病管理を展開

Googleと台湾の国民健康保険署(NHIA)は、台湾の統一医療データベースとGemini技術を活用し、医師が健康リスクを早期に発見できるAI公衆衛生モデルの構築で協力しています。世界有数の医療制度を持つ台湾でも、医師の時間は限られており、AIによる支援が求められていました。

最初の成果であるAI-on-DMモデルは、糖尿病リスク評価を劇的に効率化しました。従来は1人あたり平均20分かかっていた評価が、Google Cloudの並列処理によりわずか25秒に短縮されました。2万人のスクリーニングは40人の専門家が3週間かかる作業でしたが、90分以内で完了します。

今月中にNHIAは、台湾で1000万人が利用する政府アプリにGemini搭載の健康アシスタントを導入します。臨床ガイドラインに基づく個別化された安全な健康アドバイスを提供し、日常的な健康管理を支援します。居住地に関係なく、すべての市民が同等の質の高い評価を受けられるようになります。

この取り組みは、台湾各地の病院とのAI協力実績の上に築かれています。中国医薬大学附属病院でのがん治療向けMedLM導入、長庚記念病院のAI超音波診断、台北医学大学附属病院の自動化ワークフローなどが先行事例です。NHIAはMedGemmaを用いて3万件超の病理報告書も処理しています。

Google.orgはデジタル人道協会に100万ドルを助成し、300のコミュニティセンターで糖尿病管理サービスとデジタル研修を展開します。24万件の健康チェックインと200人の地域介護者の育成を目指します。NHIAは今後、同じ枠組みを高血圧脂質異常症にも適用する計画で、予防・予測・先制型の医療モデルを世界に示す構えです。

GoogleがTranslateGemmaのオープン翻訳モデルスイートを公開

モデルの特徴

オープンソースの翻訳特化モデル群
Gemmaアーキテクチャをベースに
多言語翻訳の精度が向上
日本語を含む多言語対応
ローカル実行可能なサイズ

Googleは翻訳に特化したオープンソースモデルスイートTranslateGemmaを公開しました。Gemmaアーキテクチャをベースにした複数サイズのモデルが含まれており、高精度な多言語翻訳をローカルで実行できます。

日本語を含む多言語対応が充実しており、商業翻訳サービスや多言語対応アプリケーションの開発において活用できます。Google翻訳APIへの依存なしに翻訳機能を組み込めることで、データプライバシーの懸念を抱える企業にも選択肢が広がります。

Falcon H1R 7Bが7倍大きいモデルを超える推論性能を発揮

Falcon H1Rの技術的突破

TII発のFalcon H1R 7Bが最大7倍大きいモデルを凌駕
ハイブリッドアーキテクチャがパラメータ効率を極大化
70Bクラスのモデルと同等の推論ベンチマーク達成
主にオープンソースとして公開(一部制限あり)
アラビア語特化版Falcon-H1-Arabicも同時公開
小型高性能モデルの新しい基準を打ち立てる

小型推論モデルのパラダイム転換

より大きい=より賢い」神話を覆す
モデル蒸留・アーキテクチャ革新が限界を押し上げる
エッジデバイスでの高度推論が現実に
APIコストと推論速度で圧倒的優位を実現
アラビア語AIの不均衡是正に貢献
小型モデル競争(Phi・GemmaLlama-3)が激化

UAE・アブダビに拠点を置くTechnology Innovation Institute(TII)が発表したFalcon H1R 7Bは、わずか70億パラメータながら50B〜70Bクラスのモデルに匹敵する推論性能を達成した。この成果は「より大きなモデルがより賢い」という業界の常識を根本から覆す可能性を持つ。

性能の源泉はハイブリッドアーキテクチャにある。従来のTransformerとは異なる設計により、パラメータ当たりの情報密度が飛躍的に向上している。具体的な技術的詳細はまだ限定的に公開されているが、Mamba-Transformerの混合型に近い設計と見られている。

同時に発表されたFalcon-H1-Arabicは、アラビア語AIの能力向上に特化したモデルで、中東・北アフリカ地域での言語的AIアクセスの不均衡是正を目指している。英語中心のAI発展に対するバランスとして重要な取り組みだ。

実用上の意味は大きい。推論コストは概ねモデルサイズに比例するため、7Bモデルで70Bの性能が得られれば約10分の1のコストでサービスを運用できる。エッジデバイスへのデプロイも実用的な選択肢となり、オフラインAI処理の可能性が広がる。

小型高性能モデルの競争は、Microsoft Phi・Google GemmaMeta Llama-3・Mistralなど複数の有力モデルが参戦しており、エッジAI時代の主役を巡る争いが激化している。Falcon H1Rの登場はこの競争にさらなる刺激を加えるものだ。

GoogleがAI安全ツールと超小型エッジモデルを公開

AI安全性研究ツール

Gemma Scope 2で全モデルを解析可能
Jailbreakや幻覚の仕組みを可視化
史上最大規模のOSSリリース
110PBデータでSAE・トランスコーダ訓練

エッジ向け小型モデル

FunctionGemmaを端末上で動作
関数呼び出し精度が85%に向上
2026年向けエージェント予測も発表

Google DeepMindGemma 3の全サイズ(2.7億〜270億パラメータ)に対応するオープンソース解釈可能性ツール群「Gemma Scope 2」を公開しました。AI安全性研究コミュニティ向けとしては過去最大規模のリリースです。

Gemma Scope 2はスパースオートエンコーダ(SAE)とトランスコーダを組み合わせ、モデルの内部動作を可視化します。Jailbreakや幻覚のメカニズム、思考連鎖の誠実性などの研究に活用できます。同ツールの開発には約110PBのデータと1兆パラメータ超の学習が必要でした。

Google DeepMindはさらに270Mパラメータの超小型エッジモデル「FunctionGemma」もリリースしました。自然言語のユーザーコマンドを構造化コードに変換することに特化し、クラウド接続なしで動作します。

内部評価では標準的な小型モデルが58%の精度しか出なかった関数呼び出しタスクで、FunctionGemmaは85%を達成しています。スマートフォン・ブラウザ・IoT機器での動作を想定し、HuggingFaceとKaggleで公開中です。

Google Cloudは「2026 AIエージェントトレンドレポート」も公開し、生産性向上・業務プロセス自動化・顧客体験・セキュリティ・AI人材育成の5領域でエージェントが変革をもたらすと予測しています。

GemmaとHF v5が新展開を加速

Gemmaの新バリアント

FunctionGemmaエッジ公開
T5Gemma 2が長文脈対応
累計DL3億件超を達成

研究・ツールの進展

MITが学習不適を覆す実験
HF v5で設計刷新
Kaggleで5日集中講座
C2Scaleで癌研究応用

GoogleGemmaモデルの新バリアント「FunctionGemma」を公開しました。エッジデバイス上でのカスタム関数呼び出しに特化した軽量設計で、オフライン環境での活用が広がります。

「T5Gemma 2」はGemma 3基盤のエンコーダー・デコーダーモデルで、マルチモーダル処理と長文脈への対応を初めて実現しており、文書分類や翻訳タスクでの活用が期待されています。

MITのCSAIL研究チームは、これまで学習不適とされてきたニューラルネットワークも短期間のガイダンスで効果的に学習できることを実験的に実証し、従来の通説を覆しました。

Hugging FaceTransformers v5でトークナイザーの設計を大幅に刷新し、学習済み語彙との分離によってコードのモジュール性を高め、カスタマイズと保守の容易さを向上させました。

KaggleとGoogleが共催した5日間のAIエージェント集中講座には世界中から多数の参加者が集まり、実践的なAI教育への高い需要と世界的なAI学習熱の高まりを改めて示しました。

Gemmaファミリーの累計ダウンロード数は3億件を突破しており、一般的なNLPタスクを超えて癌研究(C2Scale)など高度に専門化された科学的応用も着実に増加しています。

Ai2、強化学習を延長したOLMo 3.1を公開

OLMo 3.1の概要と強化学習の延長

Ai2がOLMo 3.1をリリース、OLMo 3の後継として公開
OLMo 3.1 Think 32BとInstruct 32Bの2モデルを更新
Think 32Bは追加21日・224GPU規模でRLトレーニングを延長
AIMEで5点超、ZebraLogicで4点超など主要ベンチマークが大幅改善
Instruct 32Bは7Bモデルのレシピを32Bに適用して開発
現在はAi2 PlaygroundとHugging Faceで利用可能、API提供も予定

ベンチマーク性能とオープンソースへの取り組み

OLMo 3.1 ThinkはAIME 2025でQwen 3 32Bを上回る性能を記録
OLMo 3.1 InstructはGemma 3を上回る数学ベンチマーク結果を達成
32Bスケールのオープン命令調整モデルとして最高水準と主張
RL-Zero 7Bの数学コーディングモデルも長期安定学習で更新
データ・コード・学習決定の完全な透明性を維持する方針を継続
OLMoTraceによる学習データ追跡ツールも引き続き提供

アレン人工知能研究所(Ai2)は、オープンソース言語モデルファミリー「OLMo 3」のアップデート版となる「OLMo 3.1」を公開しました。前バージョンのリリース後も強化学習(RL)トレーニングを継続し、さらなる性能向上を実現しています。

OLMo 3.1 Think 32Bは、OLMo 3 Think 32BのRLトレーニングを追加21日間、224個のGPUを用いて延長することで開発されました。数学推論・命令追従の各ベンチマークで大幅な改善が確認されています。

具体的な改善幅としては、AIMEで5点超、ZebraLogicで4点超、IFEvalで4点超、IFBenchで20点超の向上が報告されています。コーディングや複雑な多段階タスクの性能も向上しています。

OLMo 3.1 Instruct 32Bは、より小規模な7Bモデル向けの手法を大規模化することで構築されました。チャット、ツール利用、マルチターン対話に最適化された設計になっています。

ベンチマーク比較では、OLMo 3.1 ThinkがAIME 2025においてQwen 3 32Bを上回り、Gemma 27Bに近い性能を示しました。OLMo 3.1 InstructはGemma 3を数学ベンチマークで超えたとされています。

Ai2はデータ・コード・学習プロセスの完全な透明性を重視しており、企業や研究機関がモデルのデータ構成を把握・変更できる点を強調しています。OLMoTraceツールによるLLM出力と学習データの追跡機能も提供が続いています。

モデルはAi2 PlaygroundおよびHugging Faceで即時利用可能であり、API経由のアクセスも近日中に提供予定とされています。また、数学コーディング向けのRL-Zero 7Bモデルも今回の更新で改善されています。

Google、オンデバイスAI開発コンペの受賞者を発表

障害者支援とオフライン活用

視覚障害者向けウェアラブルAIが優勝
胸部カメラ映像をリアルタイム解析
認知障害者支援の完全オフライン動作
個人の発話特徴をローカル学習

警備・教育へのエッジ実装

警備カメラ映像の文脈的脅威判定
通信遮断地域での教育ハブ構築
ロボットJetson上での実装

Googleは12月10日、オンデバイスAIモデル「Gemma 3n」を活用した開発コンペ「Impact Challenge」の受賞者を発表しました。600以上の応募から選出されたプロジェクトは、クラウドに依存しないエッジAIが、低遅延かつ高プライバシーで社会課題を解決する可能性を実証しています。

最優秀賞の「Gemma Vision」は、視覚障害者が胸部に装着したカメラ映像をAIが解析し、周囲の状況を伝えるウェアラブルアシスタントです。白杖を持つ手が塞がらないよう音声や小型コントローラーで操作でき、すべての処理をデバイス上で完結させることで、実用的な応答速度を実現しています。

2位の「Vite Vere Offline」は、認知障害者のために画像音声指示に変換する完全オフラインアプリです。3位の「3VA」は、脳性麻痺を持つデザイナー向けにピクトグラムを豊かな文章へ変換するシステムで、ローカル環境での追加学習により、個人の意図を正確に反映させることに成功しました。

そのほか、警備カメラの映像から脅威のみを文脈的に識別するシステムや、インターネット接続がない地域向けの教育用マイクロサーバーなど、多彩なプロジェクトが入賞しました。これらの事例は、AIが画面の中だけでなく、物理的な制約のある現場でいかに具体的価値を生み出せるかを示唆しています。

Google、Pixel WatchのAI操作と応答機能を強化

AIによる片手操作の拡充

ダブルピンチ等の新ジェスチャー
画面に触れず通知や音楽を操作
操作可能なタイミングを画面に表示

オンデバイスAIで応答生成

Gemmaベースのモデル搭載
スマホ未接続でも返信を作成可能
処理速度が2倍に高速化
メモリ効率は3倍近く改善

Googleは12月9日、Pixel Watch向けにAIジェスチャーとスマートリプライのアップデートを発表しました。Pixel Watch 4では片手操作が強化され、Pixel Watch 3以降ではオンデバイスAIによる返信生成が可能になります。

新たなジェスチャーとして「ダブルピンチ」と「手首の回転」が追加されました。画面に触れることなく、アラームのスヌーズや音楽の一時停止、電話への応答などが可能です。両手が塞がっている場面でのUXが大幅に向上します。

スマートリプライ機能には、Googleの軽量LLMであるGemmaベースのモデルが採用されました。これにより、スマートフォンと接続されていない状態でも、時計単体で文脈に沿った返信候補を生成できるようになります。

この新モデルは前世代と比較して2倍の高速化を実現し、メモリ効率も約3倍に改善されています。エッジAIの活用により、通信環境に依存しない安定したパフォーマンスと、ウェアラブル端末に求められる省電力性を両立しました。

今回の更新は、日常生活における「ながら操作」の利便性を高めるものです。ウェアラブルデバイスにおいて、クラウドに頼らないエッジAI処理の実用性が高まっており、今後のアプリ開発やサービス設計にも影響を与えるでしょう。

Liquid AI、エッジAI開発の「設計図」を全公開

企業向け小規模モデルの革新

51ページの技術レポートを公開
独自のLFM2アーキテクチャ詳解
CPU環境での推論効率を最大化
競合を凌ぐ処理速度と品質

実践的なハイブリッド戦略

自社データでのオンプレミス運用
画像音声対応のマルチモーダル
クラウド不要のローカル処理実現
エッジとクラウド協調動作

MIT発のスタートアップLiquid AIは2025年12月1日、最新AIモデル「LFM2」の技術レポートを公開しました。これは単なるモデル提供にとどまらず、企業が独自のハードウェア制約に合わせて高性能な小規模モデルを構築するための「設計図」を提供するものです。巨大なGPUクラスターを前提としないこのアプローチは、コストやプライバシーを重視する企業のAI戦略に、オンデバイスでの実用化という新たな選択肢をもたらします。

LFM2の最大の特徴は、一般的なCPUやモバイルSoC上での動作に最適化されている点です。独自開発されたハイブリッドアーキテクチャにより、同規模の競合モデルであるLlama 3.2やGemma 3と比較して、推論速度と品質の両面で高いパフォーマンスを発揮します。これにより、スマートフォンやノートPC、産業機器など、通信環境や電力に制約のあるエッジ環境でも、遅延の少ない高度なAI処理が可能になります。

今回公開された51ページのレポートでは、アーキテクチャ探索プロセスやトレーニングデータの混合比率、知識蒸留の手法など、モデル開発の詳細なレシピが明かされました。企業はこの情報を参照することで、ブラックボックス化した外部APIに依存することなく、自社のデータセンターデバイス上で完結するAIシステムを構築・運用できるようになります。これは、セキュリティ要件の厳しい産業分野において大きなアドバンテージです。

さらにLFM2は、テキストだけでなく画像音声にも対応するマルチモーダル機能を、トークン効率を極限まで高めた形で実装しています。現場でのドキュメント理解や音声操作といったタスクを、データを外部に送信することなくローカルで完結させることが現実的になります。Liquid AIの提示するこのモデルは、エッジとクラウドが適材適所で連携する「ハイブリッドAI」時代の標準的な構成要素となるでしょう。

2025年AI総括:GPT-5実用化と中国・小型モデルの台頭

OpenAIの進化と実用化加速

GPT-5と5.1が始動、ZenDeskで解決率9割事例も
Sora 2やブラウザAtlas、OSSモデルも全方位展開
コーディング特化モデルで長時間タスクが可能に

中国勢と多様なモデルの台頭

DeepSeekQwen3など中国OSSが世界を席巻
Google Gemma 3など超小型モデルが実用段階へ
Gemini 3やClaude Opus 4.5で競争激化

2025年11月、米VentureBeatは今年のAI業界を振り返る総括記事を公開しました。2025年は、特定の最強モデル一強ではなく、オープンソースや中国勢、エッジ向け小型モデルを含めた「エコシステムの多様化」が決定的となった年です。経営者エンジニアにとって、用途に応じて最適なAIを選択できる環境が整ったことが、今年最大の収穫と言えるでしょう。

OpenAIは待望のGPT-5およびGPT-5.1をリリースし、市場を牽引し続けました。初期の反応は賛否両論ありましたが、改良を経てZenDeskなどの企業導入が進み、顧客対応の自動解決率が80〜90%に達する事例も報告されています。さらに、動画生成AI「Sora 2」やブラウザ統合型「Atlas」、そして意外にもオープンウェイトモデルの公開など、全方位での攻勢を強めています。

特筆すべきは中国発のオープンソースモデルの躍進です。DeepSeek-R1やAlibabaのQwen3シリーズなどが、推論能力やコーディング性能で米国のフロンティアモデルに肉薄しています。MITなどの調査によれば、中国製モデルのダウンロード数は米国をわずかに上回る勢いを見せており、コストパフォーマンスを重視する企業にとって無視できない選択肢となりました。

「巨大化」へのカウンターとして、小型・ローカルモデルの実用性も飛躍的に向上しました。GoogleGemma 3やLiquid AIのLFM2は、パラメータ数を抑えつつ特定タスクに特化し、エッジデバイスやプライバシー重視の環境での利用を可能にしました。すべての処理を巨大クラウドAIに依存しない、分散型のAI活用が現実味を帯びています。

画像生成や競合他社の動きも活発です。MetaMidjourneyの技術ライセンスを取得し、自社SNSへの統合を進めるという驚きの戦略に出ました。一方、GoogleGemini 3に加え、ビジネス図解に強い画像生成モデル「Nano Banana Pro」を投入しています。AnthropicClaude Opus 4.5やBlack Forest LabsのFlux.2など、各領域でハイレベルな競争が続いています。

Google、テルアビブ大とAI連携強化 100万ドル助成

基礎研究の深化と新領域

2026年から3年間で100万ドルを助成
量子計算や多言語AI等の基礎研究
気候変動や生成AI評価の共同開発

次世代人材の育成とツール提供

研究用にGCPクレジットを提供
非IT分野へデータサイエンス教育拡大
学生Google AI Proを無料提供

Googleは27日、テルアビブ大学(TAU)とのAI研究提携を深め、2026年から2028年までの新たな3カ年計画を発表しました。Google.orgから100万ドルを拠出し、最先端の基礎研究と現地のAIエコシステム育成を加速させます。

提携では、機械学習モデルの効率化、量子アルゴリズムの探求、多言語・多文化に対応する生成AIの評価手法などが重点領域です。プライバシー保護技術の向上も含め、AIが抱える根本的な課題の解決を目指して研究を推進します。

Googleの研究チームとTAUは、気候変動や生成AIの評価に関する共同プロジェクトも立ち上げます。研究者にはGoogle Cloudのクレジットや最新のオープンモデル「Gemma」が提供され、大規模な計算資源を直接活用可能です。

次世代育成も柱の一つです。法学や人文学といった非計算科学分野の学生向けにAI教育コースを統合するほか、イスラエルの大学生に対しGoogle AI Proプランを1年間無償提供するなど、幅広い層への高度なスキル普及を図ります。

GoogleのAI、家庭・職場・がん治療で進化加速

ビジネスと生活の変革

職場向けAI Gemini Enterprise 始動
家庭向けAI Gemini for Home 登場
アイデア記述だけでアプリ開発が可能に
AIによる高度なセキュリティ保護

未来を拓く先端研究

AIが がん治療の新手法を発見
量子優位性を実証する新アルゴリズム
核融合エネルギー開発をAIで加速

Googleは2025年10月、AI分野における一連の重要な進展を発表しました。これには、職場での生産性を革新する「Gemini Enterprise」や、家庭での利便性を高める「Gemini for Home」の導入が含まれます。さらに、がん治療法の発見や量子コンピュータのブレークスルーなど、最先端の研究成果も公開。AI技術を実社会の課題解決や生活向上に役立てる同社の強い意志が示されました。

ビジネス領域では、職場向けAIの新たな中核として「Gemini Enterprise」が発表されました。これは単なるチャットボットを超え、企業のデータを活用してAIエージェントを構築・展開できるプラットフォームです。また開発者向けには、アイデアを自然言語で記述するだけでAIアプリを構築できる「vibe coding」機能がAI Studioに搭載され、開発のハードルを劇的に下げることが期待されます。

私たちの日常生活にも大きな変化が訪れそうです。スマートホーム体験を一新する「Gemini for Home」は、従来のGoogleアシスタントに代わり、より対話的で文脈を理解するAIとして登場しました。また、サイバーセキュリティ月間に合わせ、詐欺や脅威からユーザーを守る新しいAIセキュリティ機能も多数導入され、デジタル世界の安全性が一層強化されます。

最先端の研究分野では、歴史的な成果が報告されました。GoogleGemmaモデルを基にしたAIは、がん細胞を免疫システムが攻撃しやすくする新たな治療経路の発見に貢献。さらに量子AIチームは、スーパーコンピュータを凌駕する計算速度を持つ検証可能な量子アルゴリズム「Quantum Echoes」を実証し、未来の科学技術に道を開きました。

これら一連の発表は、GoogleがAIを研究室から現実世界へと展開するフェーズを加速させていることを示しています。ビジネスの効率化から、難病の治療、未来のエネルギー開発まで、その応用範囲は広がり続けています。経営者エンジニアにとって、これらのAIツールをいかに活用するかが、今後の競争力を左右する重要な鍵となるでしょう。

GoogleのAI、がん治療の新たな道を拓く

新AIモデル「C2S-Scale」

GoogleGemmaベースで開発
270億パラメータの大規模モデル
個々の細胞の言語を解読

がん治療への新アプローチ

免疫から隠れる「コールド」腫瘍が標的
4000超の薬剤を仮想スクリーニング
新薬候補silmitasertibを特定

AIの予測を実験で証明

AIの仮説を実験室で検証
免疫反応を約50%増強する効果を確認

Googleとイェール大学の研究チームは、オープンソースAIモデル「Gemma」を基に開発した新モデル「C2S-Scale 27B」を用い、がん治療の新たな経路を発見しました。このAIは、これまで免疫システムから見えなかった「コールド」腫瘍を、免疫が攻撃しやすい「ホット」な状態に変える可能性のある薬剤候補を特定。実験でもその効果が確認され、がん免疫療法の開発を加速させるブレークスルーとして期待されています。

今回開発された「C2S-Scale 27B」は、270億という膨大なパラメータを持つ基盤モデルです。個々の細胞が発する複雑な「言語」を解読するために設計されました。特筆すべきは、モデルの大規模化によって獲得された「創発的能力」です。これにより、小規模モデルでは不可能だった、特定の条件下でのみ薬が効果を発揮する、という複雑な因果関係の推論が可能になりました。

がん免疫療法の大きな課題は、多くの腫瘍が免疫細胞から身を隠す「コールド」な状態にあることです。研究チームはAIに対し、「低レベルの免疫信号(インターフェロン)が存在する環境下でのみ、免疫反応を増幅する薬剤」という非常に高度な条件を付けて探索させました。これは、腫瘍を特異的に「ホット」な状態に変えるための重要な戦略です。

AIは4,000種類以上の既存薬データを仮想スクリーニングし、キナーゼCK2阻害剤「silmitasertib」が上記の条件を満たすと予測しました。驚くべきことに、この薬剤が免疫反応を高めるという事実はこれまで文献で報告されておらず、AIが単なる既知の事実の再現ではなく、全く新しい科学的仮説を生成したことを意味します。

このAIの予測を検証するため、研究チームは実験室でヒトの細胞を用いてテストを実施しました。その結果、silmitasertibと低用量のインターフェロンを組み合わせることで、免疫システムが腫瘍を認識する目印となる「抗原提示」が約50%も増加することが確認されました。AIの予測は見事に証明されたのです。

今回の成果は、AIが創薬研究において、有望な仮説を高速に生成し、実験の方向性を示す強力なツールとなり得ることを示しました。GoogleはC2S-Scale 27Bモデルを研究コミュニティに公開しており、今後、この技術を応用した新しい併用療法の開発が世界中で加速することが期待されます。

高性能LLMをローカルPCで、NVIDIAが活用ガイド公開

RTXでLLMを高速化

プライバシーと管理性をローカル環境で確保
サブスクリプション費用が不要
RTX GPU推論を高速化
高品質なオープンモデルを活用

主要な最適化ツール

簡単操作のOllamaで手軽に開始
多機能なLM Studioでモデルを試用
AnythingLLMで独自AIを構築
これらツールのパフォーマンス向上を実現

NVIDIAは、同社のRTX搭載PC上で大規模言語モデル(LLM)をローカル環境で実行するためのガイドを公開しました。プライバシー保護やサブスクリプション費用の削減を求める声が高まる中、OllamaやLM Studioといったオープンソースツールを最適化し、高性能なAI体験を手軽に実現する方法を提示しています。これにより、開発者や研究者だけでなく、一般ユーザーによるLLM活用も本格化しそうです。

これまでクラウド経由が主流だったLLMですが、なぜ今、ローカル環境での実行が注目されるのでしょうか。最大の理由は、プライバシーとデータ管理の向上です。機密情報を外部に出すことなく、手元のPCで安全に処理できます。また、月々の利用料も不要で、高品質なオープンモデルが登場したことも、この流れを後押ししています。

手軽に始めるための一つの選択肢が、オープンソースツール「Ollama」です。NVIDIAOllamaと協力し、RTX GPU上でのパフォーマンスを大幅に向上させました。特にOpenAIgpt-oss-20BモデルやGoogleGemma 3モデルで最適化が進んでおり、メモリ使用効率の改善やマルチGPU対応も強化されています。

より専門的な利用には、人気のllama.cppを基盤とする「LM Studio」が適しています。こちらもNVIDIAとの連携で最適化が進み、最新のNVIDIA Nemotron Nano v2モデルをサポート。さらに、推論を最大20%高速化するFlash Attentionが標準で有効になるなど、RTX GPUの性能を最大限に引き出します。

ローカルLLMの真価は、独自のAIアシスタント構築で発揮されます。例えば「AnythingLLM」を使えば、講義資料や教科書を読み込ませ、学生一人ひとりに合わせた学習支援ツールを作成できます。ファイル数や利用期間の制限なく対話できるため、長期間にわたる文脈を理解した、よりパーソナルなAIが実現可能です。

NVIDIAの取り組みは汎用ツールに留まりません。ゲームPCの最適化を支援するAIアシスタント「Project G-Assist」も更新され、音声やテキストでラップトップの設定を直接変更できるようになりました。AI技術をより身近なPC操作に統合する試みと言えるでしょう。このように、RTX PCを基盤としたローカルAIのエコシステムが着実に拡大しています。

プライバシーを確保しつつ、高速かつ低コストでAIを動かす環境が整いつつあります。NVIDIAの推進するローカルLLM活用は、経営者エンジニアにとって、自社のデータ資産を活かした新たな価値創出の好機となるでしょう。

医療AI、女性や少数派の症状を軽視するバイアスが判明

医師が利用するAIツールが、女性やエスニックマイノリティの健康状態を悪化させるリスクが指摘されています。米英の複数の研究で、多くの大規模言語モデル(LLM)がこれらの患者の症状を軽視する傾向が示されたのです。これは、社会に存在する治療格差のパターンをAIが再生産・強化する可能性を示唆します。 マサチューセッツ工科大学(MIT)の研究によると、OpenAIGPT-4MetaLlama 3などは、女性患者に対して明らかに低いレベルの治療を推奨しました。症状によっては、専門医の受診ではなく自宅での自己治療を提案するなど、診断の深刻さを過小評価する傾向が見られたといいます。 同大学の別の研究では、人種によるバイアスも明らかになりました。GPT-4などのモデルは、精神的な不調を訴える黒人やアジア系の人々に対し、他の人種に比べて「共感」の度合いが低い回答を生成。これにより、患者が受けるサポートの質が人種によって左右される危険性が懸念されます。 同様の傾向は、ロンドン・スクール・オブ・エコノミクスの研究でも確認されました。ソーシャルワーカーの支援に使われるGoogleGemmaモデルは、男性と比較して女性の身体的・精神的な問題を軽視する形でケースノートを要約・生成する傾向があったと報告されています。 現在、MicrosoftGoogleなどの巨大テック企業は、医師の負担軽減と治療の迅速化を目指し、医療AI製品の開発を急いでいます。しかし、これらのツールに潜むバイアスは、特定の患者層に不利益をもたらしかねません。AIの恩恵を公平に享受するため、開発と導入にはより慎重な検証と対策が不可欠です。

Googleが初のDP-LLM「VaultGemma」発表。プライバシー保護と性能の両立へ

<span class='highlight'>VaultGemma</span>公開の背景

機密データや著作権リスクの回避
LLMが訓練内容を記憶する現象
高品質な訓練データの枯渇

差分プライバシー(DP)とは

訓練フェーズでの意図的なノイズ付加
ユーザーデータのプライバシー保護を確約
データ記憶の確実な防止

DPスケーリング法則

精度と計算リソースのトレードオフ
ノイズ対バッチ比率が性能を左右
開発者が最適なノイズ量を設計可能

Google Researchは、AIが訓練データを記憶し、機密情報を漏洩させるリスクに対応するため、初のプライバシー保護型大規模言語モデル(LLM)「VaultGemma」を発表しました。同時に、差分プライバシー(DP)をLLMに適用する際の性能と計算資源のトレードオフを規定する「DPスケーリング法則」を確立しました。この技術開発は、機密性の高いユーザーデータや著作権データに依存せざるを得ない今後のAI開発において、プライバシー保護とモデル性能の両立を図る上で極めて重要です。

LLMは非決定論的な出力をしますが、訓練データに含まれる個人情報や著作権データをそのまま出力してしまう、いわゆる「データ記憶」のリスクが常に伴います。VaultGemmaは、この記憶を防ぐために差分プライバシー(DP)を適用したモデルです。DPでは、モデルの訓練フェーズにおいて意図的に調整されたノイズを加えることで、特定の訓練データの影響を最小限に抑え、ユーザープライバシーの侵害を確実に防止します。

これまで、DPの導入はモデルの精度低下や計算要件の増大といった欠点を伴うため、その適用には慎重な判断が必要でした。しかし、Googleの研究チームは、モデルの性能が主に「ノイズ対バッチ比率」に影響されるという仮説に基づき、大規模な実験を実施しました。その結果、計算予算、プライバシー予算、データ予算の3要素の均衡点を見出すDPスケーリング法則を確立したのです。

このスケーリング法則の核心は、ノイズの増加がLLMの出力品質を低下させることを定量化した点にあります。開発者は、プライバシーを強化するためにノイズを増やした場合でも、計算リソース(FLOPs)やデータ量(トークン)を増やすことで性能低下を相殺できることが分かりました。この法則は、開発者が最適な「ノイズ対バッチ比率」を事前に設計し、プライバシーと性能の理想的なバランスを追求する道を開きます。