AIが通信・教育・生命科学の現場を変える

LangGraphで実現した通信大手の顧客対応エージェント

Fastweb+VodafoneがLangChain/LangGraphでAIエージェントを本番稼働
顧客向けSuper TOBiは約950万人に対応、正答率90%・解決率82%を達成
コールセンター向けSuper AgentはOne-Call解決率86%超に貢献
Neo4jナレッジグラフとRAGを組み合わせた手順主導のトラブル解決
LangSmithによる日次自動評価でモデル改善サイクルを継続運用
Supervisorパターンが意図ルーティングを決定論的に制御

AI支援で生命科学の実験効率を79倍に向上

OpenAIGPT-5がHiFi DNA分子クローニング手順を自律最適化
RecA/gp32という新規酵素ペアを提案しRAPF-HiFi手法を発案
酵素アセンブリと形質転換の両最適化を合わせ79倍の効率改善を確認
ロボットシステムによる自律実験でヒト実験比89%の性能を実証
Replit Learnがコーディング不要の無料AI開発教育プラットフォームを開始
バイブコーディング」の概念でAIとの反復的な試作学習を提供

イタリアの通信大手Fastweb+VodafoneはLangChainとLangGraphを基盤として、顧客向けチャットボット「Super TOBi」とコールセンター支援ツール「Super Agent」の2つのAIエージェントを本番環境に展開しました。約950万人の顧客に対応するSuper TOBiは正答率90%、解決率82%を達成しています。

Super Agentは、Neo4jに格納されたナレッジグラフとベクトルストアを組み合わせたハイブリッドRAGによって、コンサルタントへリアルタイムで最適な次のアクションを提示します。One-Call解決率は86%を超え、オペレーターの対応品質と一貫性が大幅に向上しました。

LangSmithを初日から導入した同社は、日次で自動評価パイプラインを稼働させ、チャットボット応答を分類・採点して継続的な改善フィードバックを生成しています。この仕組みにより、ビジネス担当者と技術チームが連携しながら目標品質水準を維持しています。

OpenAIGPT-5を用いて湿式実験室における分子生物学のクローニング手順を自律最適化する実験を実施しました。固定プロンプトで人的介入なしに複数ラウンドの反復実験を行い、最終的に79倍の効率改善を達成したと報告しています。

特筆すべき発見はGPT-5が提案した新しい酵素メカニズムです。大腸菌由来の組換え酵素RecAとファージT4のgp32タンパク質を組み合わせたRAPF-HiFi手法は、DNA末端の安定化とホモロジー検索を促進し、既存のHiFi Gibsonクローニングより2.6倍の改善をもたらしました。

形質転換工程ではT7プロトコルがコンピテントセルの濃縮処理により36倍の改善を達成し、酵素と形質転換の両手法を組み合わせることで累計79倍という成果に至りました。これらの結果はAIが実際の実験室研究を意味ある形で支援できることを示しています。

一方でReplitコーディング経験不要の無料教育プラットフォーム「Replit Learn」を公開しました。アプリの仕組み、LLMの基礎、バイブコーディングという3つのレッスンから構成されるAI Foundationsコースを提供し、誰でもAIを使ったアプリ開発を学べる環境を整えています。

これら3つの事例はいずれも、AIがドメイン固有の複雑な課題に対して実務レベルで機能し始めていることを示しています。通信の顧客対応、生命科学の実験最適化、そしてノーコードのソフトウェア教育という異なる領域で、エージェント型AIの実用化が着実に進んでいます。

Google、Interactions APIで年末に大型開発者向け刷新

ステートフルAPIがエージェント開発を変える

**Interactions API**がパブリックベータ公開、エージェント時代の新基盤
サーバー側でコンテキスト履歴を保持する**ステートフル設計**を採用
`previous_interaction_id`でトークン再送コストを大幅削減
**バックグラウンド実行**(`background=true`)でHTTPタイムアウト問題を解消
**Deep Researchエージェント**をAPIから直接呼び出し可能に
**MCPネイティブ対応**で外部ツール連携のグルーコード不要
有料プランは55日間の履歴保持でコスト最適化に寄与
引用URLのリダイレクト問題など初期ベータ特有の課題も指摘

NotebookLMGoogle検索の機能拡充

NotebookLM**スライドデッキ**機能が全ユーザーへ展開、モバイルアプリにも対応
Gemini画像モデル**Nano Banana Pro**によるビジュアルストーリーテリングが核
Deep Researchスライドに変換・ブランドスタイル適用など**8つの活用法**を公開
Google検索の**Preferred Sources**機能が英語圏全世界へグローバル展開
お気に入りソース登録により対象サイトへのクリック率が**約2倍**に向上

GoogleはAIエージェント開発向けの新API「Interactions API」をパブリックベータとして公開しました。従来の`generateContent`エンドポイントはリクエストのたびに全会話履歴を送信するステートレス設計でしたが、新APIではサーバー側で履歴を保持し、開発者は`previous_interaction_id`を渡すだけで連続した対話を実現できます。

Interactions APIの最大の特徴は、バックグラウンド実行に対応している点です。`background=true`パラメータを指定することで、長時間のリサーチタスクや複数ツールを呼び出すエージェントワークフローを非同期で実行でき、従来のHTTPタイムアウト問題を根本的に解消します。これはOpenAIがResponses APIで示したアプローチと同方向ですが、Googleは履歴の完全な透明性と検査可能性を優先した設計を選択しています。

同APIにはGeminiDeep Researchエージェントが組み込まれており、`/interactions`エンドポイントから直接呼び出せます。また、Model Context Protocol(MCP)をネイティブサポートすることで、外部ツールとの連携が大幅に簡素化されました。サーバー側キャッシュによる暗黙的なトークン節約も期待できます。

一方、NotebookLMではスライドデッキ生成機能がモバイルを含む全ユーザーへ解放されました。Gemini画像モデルNano Banana Proを基盤に、Deep Researchの結果をそのままビジュアルコンテンツへ変換したり、ブランドガイドラインを参照したデザイン統一が可能になります。AIウルトラ加入者はスライド生成枚数の上限が2倍に拡張されます。

Google検索のPreferred Sources(優先ソース)機能は英語圏のユーザー全員へグローバル展開されました。ユーザーが好みのニュースサイトやブログを「優先ソース」として登録すると、トップストーリーにその媒体の記事が優先表示されます。これまでの早期フィードバックでは約9万件のユニーク媒体が登録され、選択したサイトへのクリック率が平均2倍になったとGoogleは報告しています。

オープンソースAIが独自モデルに挑む三つの新展開

動画理解・視覚AIの前進

Ai2がオープンソース動画モデル「Molmo 2」を公開
8B・4B・7Bの3バリアントを提供
動画グラウンディングとトラッキングでGemini 3 Proを上回る性能
マルチ画像動画クリップの入力に対応
ピクセルレベルの物体追跡が可能
小規模モデルで企業導入のコストを大幅に削減

エージェントメモリとAIコード開発の革新

HindsightがRAGの限界を超える4層メモリアーキテクチャを実現
LongMemEvalで91.4%の精度を達成し既存システムを凌駕
世界・経験・意見・観察の4ネットワークで知識を構造化
ZencoderがマルチモデルAIオーケストレーション「Zenflow」を無料公開
ClaudeOpenAIモデルが互いのコードをクロスレビュー
構造化ワークフローバイブコーディングを卒業しコード品質20%向上

Ai2(アレン人工知能研究所)は2025年12月16日、オープンソースの動画理解モデル「Molmo 2」を公開しました。8B・4B・7Bの3種類を揃え、動画グラウンディングや複数画像推論においてGoogleGemini 3 Proを上回るベンチマーク結果を示しています。

Molmo 2の最大の特徴は「グラウンディング」能力の強化です。ピクセルレベルでの物体追跡や時間的な理解を可能にし、これまで大型独自モデルが独占してきた動画分析領域に本格参入しています。企業が動画理解をオープンモデルで賄える現実的な選択肢となりました。

一方、Vectorize.ioはVirginia Tech・ワシントン・ポストと共同でオープンソースのエージェントメモリシステム「Hindsight」を発表しました。従来のRAGが抱えていた「情報の均一処理」という根本問題に対し、4種類のネットワークで知識を分離する新アーキテクチャを採用しています。

HindsightはLongMemEvalベンチマークで91.4%という最高精度を達成しました。マルチセッション問題の正答率が21.1%から79.7%に、時間的推論が31.6%から79.7%へと大幅に向上しており、エージェントが長期的な文脈を保持する能力が飛躍的に改善されています。

このシステムは単一のDockerコンテナとして動作し、既存のLLM API呼び出しをラップするだけで導入できます。すでにRAGインフラを構築したものの期待通りの性能が得られていない企業にとって、実用的なアップグレードパスとなります。

ZencoderはAIコーディング向けのマルチエージェントオーケストレーションツール「Zenflow」を無料のデスクトップアプリとして公開しました。計画・実装・テスト・レビューを構造化ワークフローで処理し、AnthropicClaudeOpenAIのモデルが互いのコードを検証し合う仕組みを採用しています。

Zencoder CEOのFilev氏は「チャットUIはコパイロット向けには十分だったが、スケールしようとすると崩壊する」と述べています。複数のAIエージェントを並列実行し、モデル間のクロスレビューによってコード品質を約20%向上させるとしており、ビジョンは「プロンプトルーレット」から「エンジニアリング組み立てライン」への転換です。

3つの発表に共通するのは、オープンソースや無料ツールが独自クローズドモデルと競合できる水準に達しつつあるという潮流です。動画理解・長期メモリ・コード品質という異なる課題に対し、それぞれ構造的なアプローチで解決を試みており、エンタープライズAI活用の選択肢を広げています。

AI信頼性の危機:巻き戻し・ベンチマーク論争・根拠なき導入への警鐘

OpenAIのモデルルーター撤回と消費者の本音

ChatGPTのモデルルーターをFree・Goユーザー向けに**静かに廃止**
推論モデルの利用率が1%未満から7%へ増加したが**DAUが低下**
思考中ドット20秒は「Googleより遅い」と利用離れを直撃
有料プラン(Plus・Pro)ではルーターを**継続提供**
GPT-5.2 Instantの安全性向上を理由に、センシティブ対話の特別ルーティングも廃止
ルーター技術は改善後に無料層へ**再投入予定**

Zoomのベンチマーク首位宣言と「コピー」批判

Humanity's Last Examで48.1%を記録し**歴代最高スコア**を主張
独自モデルを学習させず、OpenAIGoogleAnthropic APIを束ねた**フェデレーテッドAI**
Z-scorerで複数モデルの回答を評価・選択する「AIトラフィックコントローラー」
研究者から「他社の成果を横取りしている」と**強い批判**
一方でKaggle的アンサンブルとして「実践的に正しい手法」と**評価する声も**
顧客が本当に必要な通話文字起こし検索などの問題は未解決との指摘

エンタープライズAIに求められる「根拠」と信頼性

SAP Jouleはテラバイト規模の**企業内知識でRAGをグラウンディング**
コンサルタント認定試験で95%超を達成し実用精度を実証
導入企業のコンサルタントの**1日1.5時間を節約**、Wiproは700万時間を削減
リアルタイムインデックスで最新ドキュメントを即時反映
プロンプトインジェクション・ガードレール・GDPRに対応した**エンタープライズ級セキュリティ**
次フェーズは顧客固有の設計書・システムデータによる**二重グラウンディング**

AI業界において、精度・速度・信頼性のトレードオフが改めて問われています。OpenAIChatGPTのモデルルーターを無料・Goユーザーから撤廃しましたが、背景には推論モデルの高コストとユーザー離れという現実がありました。

モデルルーターは「最適なモデルを自動選択する」という魅力的な理念を持っていましたが、応答に最大数分を要する推論モデルへの自動振り分けが日常的なチャット体験の速度感と相容れず、ユーザー離れを招いたと見られています。

Zoomはベンチマーク「Humanity's Last Exam」でGoogle Gemini 3 Proを上回る48.1%を記録し、AI業界に驚きと議論を呼びました。ただしZoomは自社でモデルを学習させたわけではなく、OpenAIGoogleAnthropicのAPIを束ねたオーケストレーション基盤で結果を出しています。

この手法に対し、「他社の研究成果を横取りしている」という批判が研究者から噴出しました。一方で、複数モデルのアンサンブルはKaggleの勝利戦略と同種であり、実用的には理にかなっているという擁護論も出ています。

批判の核心は技術の是非ではなく、「モデルを開発した」という誤解を招く発表姿勢にあります。また、通話文字起こしの検索精度など実際のユーザー課題がベンチマーク追求の陰で放置されているという指摘も重要です。

エンタープライズ向けでは、SAPがJoule for Consultantsという形でグラウンディングAIの方向性を示しています。テラバイト規模の企業内知識とリアルタイムインデックスを組み合わせ、SAP認定試験で95%超の精度を維持しています。

SAP Jouleの特徴は、汎用LLMをそのまま使うのではなく、SAP固有の知識基盤・人間のコンサルタントが監修したゴールデンデータセット・厳格なセキュリティ層を重ねた点にあります。これにより、百万ドル規模の変革プロジェクトで求められる正確性を担保しています。

3つのニュースに共通するのは、AIの「見かけ上の性能」と「実務での信頼性」の乖離です。速さを求めて精度を落とすか、精度を求めて速さを犠牲にするか、あるいは他社モデルを束ねて帳尻を合わせるか——いずれのアプローチも一長一短があります。

エンタープライズAIの普及フェーズにおいては、ベンチマークのスコアよりも、根拠のある回答・透明性のある動作・データガバナンスへの信頼が差別化要因になりつつあることをこれら3件の記事は示唆しています。

今後、ユーザーの実体験がAI製品の評価軸として一層重要になると考えられます。OpenAIのルーター再投入やZoomのAI Companion 3.0のリリース、SAPの二重グラウンディング展開など、各社の次手が信頼性の証明になるかどうか注目されます。

AIデータセンターの重量危機と電気代転嫁問題

老朽データセンターが抱える物理的限界

AIチップラックの重量が従来比で最大12倍超に増大
最新AIラック1基の予測重量は約2,270kg(5,000ポンド)
液冷装置や高密度GPUが重量増加の主因
レガシーセンターの床荷重(約570kg/㎡)では対応不可
ドア高・フレートエレベーターも新世代ラックに非対応
既存施設の改修よりも解体・新設が現実的な選択肢

上院議員が大手AI企業の電気代転嫁を調査

電気料金が5年間で最大267%上昇した地域も存在
データセンター1施設が都市1つ分の電力を消費するケースあり
企業がNDAで情報隠蔽し住民が料金上昇を事後に知る構造
シェル会社を通じた建設で施設の実態を不透明化
バージニア州では2030年までに電気料金がさらに25%上昇の試算
電力網の相互接続により隣州の住民にも影響が波及

AIの急速な普及に伴い、データセンターの物理的インフラが限界に直面しています。かつてのラック重量は180〜270kgでしたが、現在は最新AIラックで1,130kgを超え、将来的には2,270kgに達すると予測されています。

重量増加の背景には、GPUの高密度実装や液冷システムの搭載があります。10年前のラックあたり消費電力は約10kWでしたが、今日のAIワークロードでは最大350kWに達し、熱管理のために重い液冷装置が必須となっています。

アップタイム・インスティテュートのCTOによると、既存センターの床荷重基準は静荷重で約570kg/㎡が上限であり、最新AIラックを支えるには根本的な構造補強が必要です。しかし補強後も、ドア高やエレベーター耐荷重といった別の物理制約が残ります。

データセンター建設会社の幹部は「ほとんどの場合、建物を解体して一から建て直すことになる」と述べており、大規模な新設ラッシュが続く主な理由の一つとなっています。過去4年間で100MW超の大型センター建設プロジェクトが377件公表されています。

一方で、既存の非AIデータセンターも引き続き需要があります。大学・病院・中堅企業・自治体は従来型のデータ保管ニーズを持ち続けており、AI用施設の増加と並行してレガシーセンターも重要性を保っています。

もう一つの問題として、AIデータセンターによる電力需要急増が地域住民の電気料金を押し上げている実態が明らかになっています。ウォーレン上院議員ら3名は大手AI企業7社に対し、料金上昇を防ぐ具体的措置の説明を求める書簡を送りました。

調査書簡では、企業が公的機関にNDA(秘密保持契約)を締結させ、住民への情報開示を妨げていると指摘しています。また、シェル会社を通じた建設により、データセンターの実態が地域住民に知られないケースも報告されています。

電力需要が地元供給を上回ることで料金が上昇するほか、大陸規模で接続された電力網を通じ、データセンターが立地していない隣州にまで料金上昇の影響が及ぶことも問題視されています。バージニア州では2030年までに電気料金がさらに25%上昇するとの試算も示されています。

VercelがAIゲートウェイとオブザーバビリティ機能を強化

ClineがVercel AIゲートウェイに移行

オープンソースのAIコーディングエージェント「Cline」がVercel AIゲートウェイを採用
100以上のPoP経由でグローバルに低遅延ルーティングを実現
1週間のA/Bテストでストリーミング遅延(P99)が10〜14%改善
APIエラー率が43.8%減少し、生成の安定性が向上
Grok Code Fast 1のP99遅延が13.7%、Minimax M2のP99遅延が14.4%高速化
マークアップなしの透明な料金体系と詳細なテレメトリを提供

オブザーバビリティとナレッジベースの新機能

Observabilityクエリ結果をCSVまたはJSONでエクスポート可能に
ダウンロードアイコンワンクリックでデータを即時エクスポート
Observability Plusプランの全チームに提供開始
Vercel Knowledge Base」が新設され、ガイドやチュートリアルを集約
セマンティックAI検索・AIチャット・フィルターで目的のガイドを検索可能

VercelはAIコーディングエージェントのClineとのインテグレーションを通じて、AIゲートウェイの活用事例を公開しました。100万人以上の開発者が利用するClineは、Vercelのグローバルインフラを介してリクエストをルーティングすることで、パフォーマンスの大幅な向上を実現しました。

Vercel AIゲートウェイは世界100か所以上のPoP(接続拠点)でTCP接続を終端し、Vercelのプライベートバックボーン経由でリクエストを最寄りのリージョンに転送します。この仕組みにより、モデルへの接続オーバーヘッドを20ms未満に抑えることができます。

1週間の本番A/Bテストでは、P99ストリーミング遅延が最大14%改善し、APIエラー率が43.8%減少しました。特にGrok Code Fast 1ではP99遅延が13.7%、Minimax M2ではP99遅延が14.4%高速化したほかコスト削減効果も確認されました。

料金面ではモデルプロバイダーの定価をそのまま適用し、マークアップなしの透明な価格体系を採用しています。BYOKでも追加料金は発生せず、テレメトリや健全性チェックなど詳細な運用可視性もあわせて提供されます。

また、ObservabilityのクエリデータをCSVまたはJSONとしてエクスポートできる新機能が追加されました。Vercelダッシュボード外でのデータ分析や共有が容易になり、Observability Plusプランの全チームが利用できます。

さらにVercel Knowledge Baseが新たに開設され、ガイド・チュートリアル・ベストプラクティスを一元的に提供します。セマンティックAI検索やAIチャット機能を通じて、開発者が必要なガイドを効率よく見つけられるよう設計されています。

AI資金調達ラッシュ、各分野で大型投資相次ぐ

Databricks、時価総額13.4兆円超で400億円超を調達

シリーズLという異例のラウンドで約4,000億円を調達
年間収益率は4,800億円超、前年比55%増の**急成長**
AIエージェント基盤「Agent Bricks」とデータベース「Lakebase」に注力
AnthropicOpenAIとの大型提携でエンタープライズ市場を拡大
アジア・欧州・中南米で数千人規模の採用計画
Insight Partners、Fidelity、JPモルガンなど大手機関投資家が参加

MoEngage・Echo・Leonaがそれぞれ新規資金を確保

インドのMoEngage、**1億8,000万ドル**のシリーズF追加調達を発表
調達額の約7割は既存投資家・従業員への流動性供給(セカンダリー取引)
Merlin AIスイートの強化と米欧での戦略的M&A;を計画
クラウドセキュリティのEchoが3,500万ドル調達——コンテナイメージを根本から再構築
中南米医療スタートアップのLeonaが**a16z主導**で1,400万ドルのシード調達
LeonaはWhatsApp経由の医師患者間コミュニケーションをAIで効率化

データインテリジェンス企業のDatabricksは、シリーズLラウンドで約4,000億円超(4B米ドル超)を調達し、企業評価額が1,340億ドル(約20兆円)に達しました。わずか3か月前に評価額1,000億ドルを達成したばかりであり、34%の急騰を記録しています。

同社の年間収益率は4,800億円相当(4.8B米ドル)を超え、前年比55%増という高い成長率を維持しています。このうちAI製品からの収益はすでに1,000億円規模を超えており、エンタープライズ向けAI活用の需要の強さを示しています。

Databricksは新資金をAIエージェント向けデータベース「Lakebase」、エンタープライズ向けエージェント基盤「Agent Bricks」、開発者ツール「Databricks Apps」の3本柱に投資する方針です。AnthropicOpenAIとの数百億円規模の提携も進めており、製品へのモデル統合を加速しています。

インドのカスタマーエンゲージメント企業MoEngageは、11月の1億ドル調達からわずか1か月でシリーズFの追加調達を実施しました。今回の1億8,000万ドルのうち約1億2,300万ドルはセカンダリー取引で、259人の現役・元社員への流動性提供も含まれています。

MoEngage社の評価額は9億ドル超とされ、年間経常収益は1億ドル規模に達する見通しです。今後はMerlin AIスイートのAIエージェント機能を強化し、米国欧州での企業買収も視野に入れています。数年後のIPOを目指しつつ、今四半期中にEBITDA黒字化を達成する計画です。

イスラエルのスタートアップEchoは3,500万ドルのシリーズA調達を発表しました。同社はコンテナの基盤イメージをゼロから再構築し、既知の脆弱性(CVE)をデフォルトでゼロにする「セキュアバイデザイン」アプローチを採用しています。AIエージェントが生成するコードが脆弱なライブラリを使いやすい現状に対応しており、UiPathやEDB、Varonisなどの大手企業に採用されています。

中南米向け医療AIスタートアップのLeonaは、a16z主導で1,400万ドルのシード資金を調達しました。WhatsApp経由で届く患者メッセージをAIが仕分け・返答提案し、医師の業務負担を1日あたり2〜3時間削減できるとしています。すでに14か国・22診療科の医師に提供されており、自律的な予約対応エージェントの導入も予定しています。

今回の一連の資金調達は、AIブームがエンタープライズデータ管理からクラウドセキュリティ、マーケティングプラットフォーム、医療コミュニケーションまで幅広い領域に拡大していることを示しています。IPOを避けたまま大型資金を集める傾向も継続しており、プライベート市場でのバリュエーション競争がさらに激化しています。