クラウド(インフラ)に関するニュース一覧

AI開発、コストより速度優先の潮流

開発現場の新たな常識

計算コストより展開速度を重視
課題は遅延・柔軟性・容量
迅速な実験が競争優位の源泉

先進企業の具体事例

食品宅配Wonder社はクラウド容量を懸念
バイオ企業Recursion社はハイブリッド基盤で対応
オンプレミスは10倍安価な例も

経営者が持つべき視点

予算策定は科学より芸術
複数年の投資コミットが不可欠
コスト懸念は革新を阻害する

AI開発の最前線で、企業の優先順位が変化しています。米国の食品宅配「Wonder」やバイオテクノロジー企業「Recursion」などの先進企業は、AIの計算コストよりも、展開速度や遅延、柔軟性、処理容量といった課題を重視。コストを理由に導入をためらうのではなく、いかに速く、持続的にAIを事業展開できるかが、新たな競争力の源泉となりつつあります。

この潮流を象徴するのが、Wonder社の事例です。同社のAI利用コストは、1注文あたり数セントと事業全体から見ればごく僅か。しかし、急成長に伴い、当初「無制限」と想定していたクラウドの処理容量が逼迫し始めました。予想より早くインフラ増強の必要性に迫られており、コストよりも物理的な制約が大きな経営課題となっています。

Wonder社にとって、AI関連の予算策定は「科学というより芸術」に近いと言います。新しいモデルが次々と登場するため、予測が困難なためです。特に、大規模モデル利用時のコストの50〜80%は、リクエストごとに同じ情報を再送信する「コンテキスト維持」に費やされることも。常に変化する状況下で、柔軟な予算執行と技術活用のバランスが求められます。

一方、Recursion社はハイブリッドインフラでこの課題に対応しています。同社は数年前に自社でGPUクラスタを構築。クラウド事業者が十分な計算資源を供給できなかったためですが、結果的にこれが功を奏しました。現在も大規模なモデル学習はオンプレミスで、比較的小さな推論などはクラウドで実行するなど、柔軟な使い分けを実現しています。

コスト面でも、このハイブリッド戦略は有効です。Recursion社によれば、大規模なワークロードをオンプレミスで処理する場合、クラウドに比べて「控えめに見積もっても10倍は安価」になるとのこと。5年間の総所有コスト(TCO)では半額に抑えられるケースもあるようです。もちろん、小規模な利用であればクラウドの方がコスト競争力があります。

両社の事例から見えてくるのは、経営層の心理的なコミットメントの重要性です。Recursion社のCTOは「計算資源への投資をためらうと、チームはクラウド費用を恐れてリソースを使わなくなり、結果としてイノベーションが阻害される」と警鐘を鳴らします。AI時代を勝ち抜くには、コストを管理しつつも、革新を止めないための大胆な投資判断が不可欠です。

騒音下の音声認識を革新、米新興が6百万ドル調達

革新的な音声分離モデル

騒音環境でも人の声を正確に捕捉
デバイスの音響特性に合わせて最適化
汎用モデルを凌駕する高い性能
ユーザーの声に適応しパーソナル化

事業拡大と有力企業との連携

シードで600万ドル資金調達を完了
クアルコムの公式プログラムに選定
大手自動車・家電メーカーと提携
来年には自社製品の発表も計画

カリフォルニア州のスタートアップSubtle Computingは11月6日、騒がしい環境下でも正確に音声を認識する独自の「音声分離モデル」を開発し、シードラウンドで600万ドル(約9億円)を調達したと発表しました。この技術は、AI議事録サービスや音声アシスタントなど、急成長する音声AI市場の精度向上に大きく貢献する可能性があります。

同社の強みは、デバイスごとに最適化されたモデルを提供できる点にあります。多くの既存ソリューションが汎用的なモデルをクラウドで処理するのに対し、同社はデバイス固有の音響特性を学習させます。これにより、汎用モデルより桁違いに高い性能を実現し、ユーザーの声にも適応するパーソナライズされた体験を提供できるとしています。

AI議事録作成ツールや音声入力アプリの市場は急拡大していますが、カフェや共有オフィスのような騒音環境での音声認識精度の低さが共通の課題でした。Subtle Computingの技術は、こうした実用シーンでの課題を直接解決し、音声AIの利用範囲を大きく広げる可能性を秘めています。

今回の資金調達はEntrada Venturesが主導し、Twitterの共同創業者ビズ・ストーン氏など著名なエンジェル投資家も参加しました。投資家は「音声AIはノイズの多い市場だが、同社の音声分離への特化は信頼性の高いユーザー体験を生み出すゲームチェンジャーだ」と高く評価しています。

同社は既に半導体大手クアルコムのプログラムに選定されており、同社のチップを搭載する多くのデバイスで技術が利用可能になる見込みです。また、社名は非公開ながら大手自動車メーカーや家電ブランドとも提携しており、来年には自社ブランドハードウェアとソフトウェア製品を発表する計画も明らかにしています。

OpenAI、210兆円投資も政府の救済は不要

巨額の投資計画

今後8年で1.4兆ドル投資
年間経常収益は200億ドル
2030年に数千億ドル規模へ

政府保証をめぐる騒動

CFOが政府の融資保証を要請
CEOは「政府保証は不要」と否定
市場競争での自立経営を強調

未来の収益源

エンタープライズ向けサービス
コンシューマー向けAIデバイスロボット
AIクラウドの直接提供

OpenAIサム・アルトマンCEOは11月6日、X(旧Twitter)への投稿で、同社の年間経常収益(ARR)が200億ドルを超え、今後8年間で約1.4兆ドル(約210兆円)のインフラ投資を計画していると明かしました。同時に、経営幹部が求めた政府による金融支援を明確に否定し、市場競争における自立経営の姿勢を強調しました。

アルトマン氏はなぜ政府の支援を拒んだのでしょうか。同氏は「政府は勝者や敗者を選ぶべきではなく、納税者は事業判断を誤った企業を救済すべきではない」との信念を表明。AI開発の熾烈な競争は、あくまで市場原理の中で勝ち抜くべきだという強い意志を示しました。唯一の例外として、米国内の半導体工場建設支援には協力する姿勢を見せています。

この発言の背景には、同社のサラ・フライヤーCFOによる「失言」がありました。同氏は金融イベントで、巨額のインフラ投資に対する政府の融資保証(バックストップ)を求めると発言。この発言が「納税者にリスクを負わせるのか」と批判を浴び、すぐさま撤回に追い込まれる事態となっていました。

1.4兆ドルという天文学的な投資は、同社の急成長が可能にすると見られています。今年の年間経常収益は200億ドル(約3兆円)を超える見込みで、2030年までには数千億ドル規模への成長を目指すとしています。この力強い収益力が、巨大な先行投資を支える基盤となります。

では、具体的にどう収益を拡大するのでしょうか。アルトマン氏は、既存のエンタープライズ向けサービスに加え、コンシューマー向けAIデバイスロボティクス、さらには「AIクラウド」としてコンピューティング能力を他社に直接提供する事業構想を明らかにしました。多角的な収益源の確保を急いでいます。

今回の一連の騒動は、OpenAIの並外れた野心と、それを自力で成し遂げようとする強い独立志向を浮き彫りにしました。AI業界の覇権をめぐる競争が、新たな次元に突入したことを示す出来事と言えるでしょう。

GeForce NOW、RTX 5080増強と新作23本追加

11月の大型コンテンツ拡充

CoD新作など23本以上のゲーム追加
セガの伝説的格ゲー最新作も登場
人気ストラテジー『Europa Universalis V』
Xbox PC Game Pass対応タイトルも多数

RTX 5080サーバー拡大

最新Blackwell世代GPUを搭載
アムステルダムとモントリオールで稼働開始
次の展開地域はフェニックスを予定
最大5K/120fpsの高品質描画

NVIDIAは2025年11月6日、同社のクラウドゲーミングサービス「GeForce NOW」の大型アップデートを発表しました。11月中に人気シリーズ最新作『Call of Duty: Black Ops 7』を含む23本の新作ゲームを追加します。同時に、最新GPU「GeForce RTX 5080」を搭載したサーバーの提供地域を拡大し、ユーザー体験の向上とプラットフォームの競争力強化を図ります。

今回のアップデートで特に注目されるのは、インフラの増強です。最新のBlackwellアーキテクチャを採用したRTX 5080クラスのサーバーが、新たにオランダのアムステルダムとカナダのモントリオールで稼働を開始しました。対象地域のユーザーは、より低遅延で高品質なストリーミングが可能になります。次の展開拠点として米国のフェニックスも予定されており、NVIDIA積極的な投資姿勢がうかがえます。

コンテンツ面では、11月14日発売の超大作『Call of Duty: Black Ops 7』への対応が目玉です。今週からはセガの格闘ゲーム最新作『Virtua Fighter 5 R.E.V.O. World Stage』もプレイ可能に。話題作を迅速に追加し、ユーザー層の拡大を狙います。

さらに、歴史ストラテジー『Europa Universalis V』など、多様なジャンルのゲームが追加されます。これにより、幅広いユーザー層を獲得し、プラットフォームの総合的な魅力を高める狙いです。場所を選ばない高性能なゲーム体験というクラウドゲーミングの価値を体現しています。

今回の発表は、NVIDIAが最先端のハードウェアと魅力的なコンテンツの両輪で市場での支配力を強める戦略を示しています。この動きは、AI開発など他のクラウドサービスにも応用される可能性があり、経営者エンジニアにとっても注視すべきトレンドと言えるでしょう。

Google、豪州離島に軍事AI拠点を極秘計画

AIと地政学の融合

豪州軍とのクラウド契約が背景
インド洋の戦略的要衝クリスマス島
中国海軍の活動監視が主目的
AIによる最先端の軍事指揮統制を実現

計画の概要と影響

施設の規模や費用は非公開
ダーウィンへの海底ケーブル敷設を申請
日米豪の防衛協力の拠点に
島の経済活性化への期待と懸念

Googleが、オーストラリア軍とのクラウド契約の一環として、インド洋に浮かぶ豪州領クリスマス島に大規模なAIデータセンターを建設する秘密計画を進めていることが明らかになりました。2025年11月6日に報じられたこの計画は、中国の海洋活動を監視する上で極めて重要な戦略的拠点となる可能性を秘めています。

クリスマス島は、インドネシアから南へわずか約350キロに位置し、軍事戦略家が「極めて重要」とみなす場所です。この立地は、世界の海運と潜水艦の主要航路であるスンダ、ロンボク、マラッカ海峡の監視を可能にします。元米海軍戦略家は、この施設がAIを活用した最先端の軍事指揮統制を実現すると指摘しています。

このプロジェクトは、Googleが2025年7月にオーストラリア国防省と締結した3年間のクラウド契約に続くものです。しかし、計画の詳細は厚いベールに包まれており、施設の規模、費用、具体的な能力の多くは非公開とされています。Googleと豪国防省はいずれもコメントを控えています。

計画には、米海兵隊が半年ごとに駐留する北部準州のダーウィンと島を結ぶ海底ケーブルの敷設も含まれています。最近の日米豪合同軍事演習では、クリスマス島が無人兵器システムの発射拠点としての価値を証明しており、三国間の防衛協力におけるハブとなる可能性があります。

これまで通信インフラが脆弱で、経済的機会に乏しかったクリスマス島。約1600人の住民の一部は、この巨大プロジェクトがもたらす経済効果に期待を寄せる一方、アカガニの大移動で知られる島の貴重な自然環境への影響を懸念する声も上がっており、慎重な見方が広がっています。

大手テック企業が国家安全保障に深く関与する事例は増えています。Googleのこの動きは、AI技術が地政学的なパワーバランスを左右する新たな時代の到来を象徴していると言えるでしょう。この秘密のAI拠点がインド太平洋地域の安全保障にどのような影響を与えるか、今後の動向が注目されます。

Google、市民参加型AIで熱帯雨林の生態系を保全

市民参加でAI生態系保全

Googleの新プロジェクト始動
熱帯雨林の音を市民が聞き分ける
生物多様性モニタリングが目的
専門機関WildMonとの協業

「耳」でAIを訓練し貢献

回答でAIモデル'Perch'を訓練
120万以上の音声録音が基盤
データ不足の課題を解決
不可能だった規模での生態系保護

Googleが市民参加型のAIプロジェクト「Forest Listeners」を開始しました。これは、ブラジルの熱帯雨林の生態系を保護するため、一般の人々が動物の鳴き声を聞き分け、AIモデルを訓練する取り組みです。Google Arts & CultureとDeepMindが開発し、専門機関と協力。クラウドソーシングで収集したデータにより、生物多様性のモニタリングをこれまでにない規模で実現することを目指します。

参加者はウェブサイト上の仮想3D森林で、録音された音を聞きます。そして、特定の動物の鳴き声が聞こえるかどうかを「はい」か「いいえ」で回答するだけです。この簡単な操作を通じて、誰もが専門的な知識なしに、最先端のAI研究と環境保全に直接貢献できる仕組みとなっています。

なぜ「音」なのでしょうか。森林に生息する動物の鳴き声の多様性やパターンは、その生態系の健全性を示す重要な指標です。しかし、何千時間にも及ぶ録音データを人力で分析するのは困難で、特に多くの重要種ではAIの訓練データが不足しているという課題がありました。

市民からの回答は、Google DeepMindのAIモデル「Perch」をファインチューニングするために活用されます。120万件以上の音声録音を基に、検証済み音声の巨大なライブラリを構築。これにより、AIが自動で種を認識する精度が向上し、科学者による生態系保護活動を大規模に支援します。

このプロジェクトは、単なるデータ収集に留まりません。参加者が熱帯雨林の生命力あふれる音に触れ、自然保護への関心を深める機会を提供します。テクノロジーと市民の協力を融合させ、地球の貴重な生態系を守るための新しいモデルケースとなることが期待されます。

GoogleのWiz巨額買収、米独禁法審査を通過

巨大買収の経緯

Googleによる320億ドルでの買収
一度は230億ドルの提案を拒否

規制当局の承認

米司法省の反トラスト法審査を通過
買収完了に向けた大きな一歩
取引完了は2026年初頭の見込み

Googleによるクラウドセキュリティ大手Wizの320億ドル(約4.8兆円)規模の買収計画が、アメリカ司法省の反トラスト法(独占禁止法)審査を通過しました。2025年11月5日、Wizのアサフ・ラパポートCEOがイベントで明らかにしたもので、巨大IT企業による大型買収が実現に向けて大きく前進した形です。

今回の買収は、Googleが急成長するクラウドセキュリティ市場での競争力を抜本的に強化する狙いがあります。Wizはクラウド環境の脆弱性を可視化する技術で高い評価を得ており、Google Cloudのサービスに統合されることで、顧客に対しより強固なセキュリティを提供可能になります。司法省の承認は、その戦略における最大の関門の一つでした。

両社の交渉は一度難航していました。Googleは2024年に230億ドルでの買収を提案しましたが、Wizは「自社の成長可能性はそれを上回る」としてこの提案を拒否。その後、2025年に入り交渉が再開され、買収額を320億ドルに引き上げることで合意に至った経緯があります。

ラパポートCEOは、今回の審査通過を「重要な節目」としながらも、買収が正式に完了するまでにはまだ他の手続きが残っていると述べています。最終的な取引完了は2026年初頭になる見込みで、市場の注目が引き続き集まっています。

グーグル、AI開発基盤を刷新 観測・統制を強化

エージェント開発を高速化

最先端のコンテキスト管理
自己修復機能付きプラグイン提供
開発キットでGo言語を追加サポート
ワンクリックでの本番環境移行

本番運用のガバナンス強化

観測ダッシュボードで稼働監視
エージェントIDによる監査証跡の明確化
プロンプト注入などを防ぐ新機能
パフォーマンスを事前評価する機能

Google Cloudは2025年11月5日、AI開発プラットフォーム「Vertex AI」の中核をなす「Agent Builder」の大規模アップデートを発表しました。この更新は、企業がAIエージェントの構想から設計、展開までをより迅速かつ安全に行えるようにするものです。主な特徴は、開発プロセスを加速する新ツール群と、本番運用に不可欠なガバナンス機能を大幅に強化した点にあります。

開発の高速化は、今回のアップデートの大きな柱です。最先端のコンテキスト管理レイヤーや、失敗したタスクを自己修復する事前構築済みプラグインを導入。開発キット(ADK)はPythonやJavaに加え、新たにGo言語をサポートしました。さらに、コマンド一つでローカル環境からテスト環境へ移行できる「ワンクリックデプロイ」機能も提供します。

同時に、企業利用で必須となるガバナンス機能も大幅に拡充されました。新たに導入された観測可能性ダッシュボードでは、トークン消費量やエラー率などを本番環境で追跡できます。また、エージェントに固有のIDを付与して監査証跡を明確にする機能や、プロンプトインジェクションを防ぐ「Model Armor」も搭載されました。

この観測可能性ダッシュボードは、開発者にとって強力なツールとなるでしょう。本番環境で稼働するエージェントトークン消費量、エラー率、レイテンシー(遅延)を可視化し、問題が発生した際の原因特定と再現を容易にします。これにより、クラウドベースでの本番監視が格段に効率化され、安定した運用が可能になります。

Google CloudがAgent Builderの強化を急ぐ背景には、熾烈な開発者獲得競争があります。OpenAIの「AgentKit」やマイクロソフトの「Azure AI Foundry」、AWSの「Bedrock」など、競合他社もAIエージェント開発基盤の機能拡充を競っています。今回のアップデートは、自社エコシステム内に開発者を留め、競争優位性を確保するための戦略的な一手と言えるでしょう。

アップル、Siri刷新へGoogleと年10億ドル契約か

年10億ドルの大型契約

Siri刷新に向けたGoogleとの提携
年間約10億ドル(約1500億円)の支払い
カスタムAI「Gemini」モデルの利用

圧倒的な性能と狙い

1.2兆パラメータGeminiを採用
Apple現行AIの8倍の複雑性
自社AI開発までのつなぎとしての位置付け

今後の展望

Siri来春ローンチ予定
計画変更の可能性も残る

アップルが音声アシスタントSiri」のAI機能強化のため、グーグルと年間約10億ドルの大型契約に近づいていることが報じられました。グーグルのカスタムAIモデル「Gemini」を導入し、刷新されたSiri来春のローンチが予定されています。

導入されるGeminiモデルは、ソフトウェアの複雑さを示すパラメータ数が1.2兆に達します。これはアップルの現行クラウドAIモデル(1500億)の約8倍に相当する規模です。この強力なAIにより、要約の生成や計画関連タスクの実行が可能になります。

AI開発で競合に後れを取っていたアップルにとって、今回の提携は重要な一手です。ただし、これはあくまで一時的な解決策との見方もあります。アップルは最終的に、自社開発のAI技術でGeminiを置き換えることを目指していると報じられています。

アップルは今年初め、OpenAIAnthropicといった他のAI企業のモデルも検討していました。各社のモデルをテストした結果、最終的にグーグルとの提携を選択した模様です。この契約は、ChatGPTのようなチャットボット機能をSiriに統合する計画とは別個のものです。

アップルのティム・クックCEOは、新しいSiriの登場を来春と示唆しつつ、他のサードパーティ製AIとの統合にも含みを持たせています。巨大テック企業同士の提携は、生成AI市場の勢力図を大きく変える可能性を秘めているでしょう。

VercelとSnowflake連携、AIで安全なデータアプリ開発

自然言語でアプリ開発

自然言語でSnowflakeにデータ問合せ
AIがNext.jsアプリを自動生成
ワンクリックでSnowflakeへデプロイ

強固なセキュリティ体制

データはSnowflake内に常時保持
Vercelがアプリと認証を管理
既存のSnowflake権限を自動継承

非エンジニアでも活用

営業や財務部門でのツール内製化
リアルタイムダッシュボード構築も可能

Vercelは2025年11月4日、同社のAI UI生成ツール「v0」とデータクラウド大手Snowflakeの統合を発表しました。これにより、ユーザーは自然言語を使ってSnowflake上のデータを照会し、安全なデータ駆動型アプリケーションを迅速に構築・デプロイできるようになります。

この統合により、ユーザーはv0との対話を通じてSnowflakeのデータにアクセスできます。自然言語で質問すると、v0がデータベース構造を理解し、クエリを実行。その結果を基に、APIルートを含む完全なNext.jsアプリケーションを自動生成します。

最大の特長は、そのセキュアなアーキテクチャにあります。アプリケーションと認証層はVercelが管理しますが、コンピューティング処理はSnowflakeアカウント内で完結。これにより、機密データがSnowflake環境から外部に出ることは一切ありません。

さらに、アプリケーションはSnowflakeで設定済みの既存のアクセス権限を自動的に継承します。ユーザーは自身の権限範囲内でしかデータにアクセスできず、企業は新たなセキュリティレビューやインフラ管理の手間を大幅に削減できます。

この連携は、エンジニアだけでなく、営業、財務、製品チームなどの非技術者でもカスタムツールの開発を可能にします。リアルタイムの販売ダッシュボードや在庫監視ツールなどを自ら内製化でき、データ活用の民主化を大きく前進させる一手と言えるでしょう。

VercelとSnowflakeの連携は、エンタープライズレベルのセキュリティを担保しつつ、AIを活用したアプリ開発のハードルを劇的に下げるものです。この機能は現在ウェイトリスト登録を受け付けており、テスト利用が可能になり次第、通知される予定です。

独の産業革新へ、NVIDIAとテレコムがAIクラウド創設

データ主権守る巨大AI基盤

10億ユーロ規模の共同事業
ドイツ国内でデータを管理
欧州の産業競争力を強化
2026年初頭に稼働開始

最高峰技術とエコシステム

NVIDIA最新GPUを最大1万基
独テレコムがインフラ提供
SAP、シーメンス等が参画

半導体大手NVIDIAドイツテレコムは11月4日、ドイツ国内に世界初となる産業特化のAIクラウド「Industrial AI Cloud」を共同で設立すると発表しました。総額10億ユーロを投じ、2026年初頭の稼働を目指します。この提携は、ドイツのデータ主権を守りながら産業のデジタルトランスフォーメーションを加速させ、欧州の国際競争力を高めることを目的としています。

NVIDIAのジェンスン・フアンCEOは、AIを稼働させるデータセンターを「現代版の工場」と表現し、知能を生み出す重要性を強調しました。このプロジェクトは、欧州企業が自国のデータ管理下で安全にAI開発を進める「ソブリンAI(データ主権AI)」の実現に向けた大きな一歩となります。

ミュンヘン近郊に新設される「AIファクトリー」には、NVIDIAの最新GPU「Blackwell」アーキテクチャを採用したシステムなどが最大10,000基搭載される計画です。ドイツテレコムは信頼性の高いインフラと運用を提供し、企業が大規模なAIモデルのトレーニングや推論を高速かつ柔軟に行える環境を整えます。

この構想には、ソフトウェア大手SAPや製造業大手シーメンスなど、ドイツを代表する企業がエコシステムパートナーとして参画します。メルセデス・ベンツやBMWといった自動車メーカーも、AI駆動のデジタルツインを用いた複雑なシミュレーションでの活用を見込んでおり、幅広い産業での応用が期待されます。

具体的な活用例としては、製品開発を高速化するデジタルツイン、工場の自動化を進めるロボティクス、設備の故障を事前に予測する予知保全などが挙げられます。製造業の変革を促す「インダストリー4.0」をさらに加速させる起爆剤となるでしょうか。

今回の提携は、ドイツの国際競争力強化を目指す官民イニシアチブ「Made for Germany」から生まれた最初の具体的な成果の一つです。欧州では、外国の巨大テック企業への技術依存を減らしデジタル主権を確立する動きが強まっており、このAIクラウド欧州独自の技術革新の新たな核となる可能性を秘めています。

OpenAI、AWSと380億ドル契約 AI開発基盤を強化

380億ドルの戦略的提携

7年間の大規模クラウド契約
数十万個のNVIDIAGPUを提供
次世代モデルの開発・運用を加速
2026年末までのインフラ展開完了目標

AI業界の地殻変動

OpenAIマルチクラウド戦略が鮮明に
マイクロソフトとの独占的関係からの変化
激化するAI計算資源の確保競争
発表を受けAmazon株価は史上最高値を更新

生成AI開発をリードするOpenAIは2025年11月3日、アマゾン・ウェブ・サービス(AWS)と複数年にわたる戦略的パートナーシップを締結したと発表しました。契約総額は380億ドル(約5.7兆円)に上り、OpenAIAWSの高性能なクラウドインフラを利用して、次世代AIモデルの開発と運用を加速させます。これはAI業界の計算資源確保競争を象徴する動きです。

この7年契約に基づき、AWSOpenAIに対し、NVIDIA製の最新GPU「GB200」や「GB300」を数十万個規模で提供します。Amazon EC2 UltraServers上に構築されるこのインフラは、数千万のCPUにも拡張可能で、ChatGPTの応答生成から次世代モデルのトレーニングまで、幅広いAIワークロードを効率的に処理するよう設計されています。

今回の提携は、OpenAIマイクロソフトのAzureに依存する体制から、マルチクラウド戦略へ移行する姿勢を鮮明にするものです。OpenAIサム・アルトマンCEOは「最先端AIのスケーリングには、大規模で信頼性の高い計算能力が不可欠だ」と述べ、AWSとの連携がAIの普及を後押しするとの期待を示しました。

一方、AWSにとってもこの契約は、急成長するAIインフラ市場での優位性を確固たるものにする大きな一歩です。長年のライバルであるマイクロソフトの牙城を崩す一手となり、市場はこの提携を好感。発表を受けてAmazonの株価は史上最高値を更新し、投資家の高い期待が示されました。

AI業界では、モデルの性能向上に伴い、計算能力の需要が爆発的に増加しています。今回の巨額契約は、AI開発の前提となるインフラ確保競争の激しさを物語っています。一方で、一部の専門家からは、実用化や収益化の道筋が不透明な中での巨額投資が続く現状に、「AIバブル」への懸念も指摘されています。

確実性でLLM超え狙うAI、30億円調達

ポストTransformer技術

LLMの言語能力と記号AIの論理推論を融合
ニューロシンボリック方式を採用
確率的なLLMの予測不能性を克服
タスク指向の対話に特化した設計

企業AUIと新モデル

NYの新興企業、評価額1125億円
基盤モデル「Apollo-1」を開発
総調達額は約90億円に到達
2025年末に一般提供を予定

ニューヨークのAIスタートアップ、Augmented Intelligence Inc (AUI)は2025年11月3日、2000万ドル(約30億円)の資金調達を発表しました。これにより企業評価額は7億5000万ドル(約1125億円)に達します。同社は、ChatGPTなどが用いるTransformerアーキテクチャの課題である予測不可能性を克服するため、ニューロシンボリックAI技術を開発。企業が求める確実で信頼性の高い対話AIの実現を目指します。

AUIが開発する基盤モデル「Apollo-1」の核心は、そのハイブリッドな構造にあります。ユーザーの言葉を理解する「ニューラルモジュール」と、タスクの論理構造を解釈し、次に取るべき行動を決定論的に判断する「シンボリック推論エンジン」を分離。これにより、LLMの持つ言語の流暢さと、従来型AIの持つ厳密な論理実行能力を両立させています。

なぜ今、この技術が注目されるのでしょうか。既存のLLMは確率的に応答を生成するため、常に同じ結果を保証できません。これは、金融やヘルスケア顧客サービスなど、厳格なルール遵守が求められる業界では大きな障壁となります。Apollo-1は、組織のポリシーを確実に適用し、タスクを最後まで間違いなく遂行する能力でこの課題を解決します。

Apollo-1の強みは、その汎用性と導入のしやすさにもあります。特定の業界に特化せず、ヘルスケアから小売まで幅広い分野で応用可能です。また、特別なインフラを必要とせず、標準的なクラウド環境で動作するため、導入コストを抑えられる点も企業にとっては魅力的です。開発者は使い慣れたAPI経由で簡単に統合できます。

今回の調達は、より大規模な資金調達の前段階と位置付けられており、同社への期待の高さをうかがわせます。Fortune 500企業の一部では既にベータ版が利用されており、2025年末までの一般公開が予定されています。LLM一強の時代から、用途に応じた多様なAIが選択される新時代への転換点となるかもしれません。

マイクロソフトAI投資加速、電力不足が新たなボトルネックに

世界中でAIインフラ巨額契約

豪州企業と97億ドルの契約
クラウド企業Lambdaとも大型契約
UAEに152億ドル投資
最新NVIDIAGPUを大量確保

GPU余剰と電力不足の矛盾

チップ在庫はあっても電力が不足
データセンター建設が需要に追いつかない
CEO自らが課題を認める発言
エネルギー確保が最重要課題に浮上

マイクロソフトが、AIの計算能力を確保するため世界中で巨額のインフラ投資を加速させています。しかしその裏で、確保した大量のGPUを稼働させるための電力不足とデータセンター建設の遅れという深刻な問題に直面しています。同社のサティア・ナデラCEO自らがこの課題を認めており、AIのスケールアップにおける新たなボトルネックが浮き彫りになりました。

同社は、オーストラリアデータセンター企業IRENと97億ドル、AIクラウドを手がけるLambdaとは数十億ドル規模の契約を締結。さらにアラブ首長国連邦(UAE)には今後4年で152億ドルを投じるなど、最新のNVIDIAGPUを含む計算資源の確保をグローバルで推進しています。これは、急増するAIサービスの需要に対応するための動きです。

しかし、ナデラCEOは「現在の最大の問題は計算能力の供給過剰ではなく、電力データセンターの建設速度だ」と語ります。OpenAIサム・アルトマンCEOも同席した場で、ナデラ氏は「チップの在庫はあるが、接続できる場所がないのが実情だ」と述べ、チップ供給から物理インフラへと課題が移行したことを明確に示しました。

この問題の背景には、これまで横ばいだった電力需要データセンターの急増によって予測を上回るペースで伸びていることがあります。電力会社の供給計画が追いつかず、AI競争の足かせとなり始めています。AIの知能単価が劇的に下がるほど、その利用は爆発的に増え、さらなるインフラ需要を生む「ジェボンズのパラドックス」が現実味を帯びています。

アルトマン氏は核融合や太陽光発電といった次世代エネルギー投資していますが、これらの技術がすぐに大規模展開できるわけではありません。AIの進化を支えるためには、計算資源だけでなく、それを動かすための安定的かつ大規模な電力供給網の構築が、テクノロジー業界全体の喫緊の課題となっているのです。

OpenAI CEO、年収130億ドル超を公言 投資懸念に強気

CEOが語る驚異的な収益力

年間収益130億ドルを大幅に超過
収益は急成長を継続中
マイクロソフトの事業計画を常に超過

巨額投資と将来への自信

1兆ドル超インフラ投資への懸念を一蹴
AIクラウドなど多角的な事業を展開
2027年の売上1000億ドルも視野に
来年のIPO計画は明確に否定

OpenAIサム・アルトマンCEOが、ポッドキャスト番組で同社の年間収益が130億ドルをはるかに超えると明言しました。マイクロソフトのサティア・ナデラCEOも同席したこのインタビューで、アルトマン氏は今後10年で1兆ドル超とされる巨額のインフラ投資への懸念を一蹴。収益の急成長を背景に、会社の将来性に対する強い自信を示しました。

インタビュアーがOpenAIの収益と巨額投資のバランスについて質問した際、アルトマン氏は「まず、収益は(130億ドルより)はるかに多い」と反論。さらに「株を売りたいなら買い手を見つけますよ」と述べ、OpenAI株への高い需要を示唆し、財務状況への懸念を払拭しようと試みました。

アルトマン氏は、一部の批評家が「OpenAIは倒産寸前だ」と指摘することに対し、強い不快感を示しました。「そうした人々が株式を空売りできればいいのに。きっと痛い目を見るだろう」と語り、事業の持続可能性と成長力への絶対的な自信をのぞかせ、市場の憶測を強く牽制しました。

同社の成長はChatGPTだけにとどまりません。アルトマン氏は、重要な収益源として「AIクラウド事業」を挙げ、さらに「消費者向けデバイス事業」や「科学を自動化するAI」が将来的に巨大な価値を生み出すとの見通しを語りました。多角的な事業展開が、強気な姿勢の裏付けとなっています。

この自信を裏付けるように、マイクロソフトのナデラCEOもOpenAIを高く評価しています。ナデラ氏は、OpenAI投資家であるマイクロソフトに提示した事業計画を「すべて上回ってきた」と証言。両社の強力なパートナーシップと、計画を上回る実績が、OpenAIの成長ストーリーの信憑性を高めています。

将来の展望について、アルトマン氏は2028年か2029年に売上1000億ドルという予測に対し「2027年はどうか?」と応じ、成長の加速を示唆しました。一方で、来年のIPO(新規株式公開)計画は「具体的な日程はない」と明確に否定。当面は非公開企業のまま、技術開発と事業拡大に集中する方針です。

NVIDIA、韓国と提携 25万GPUで主権AI構築へ

官民挙げた国家プロジェクト

NVIDIA韓国官民が歴史的提携
最新GPU 25万基超を国家規模で導入
「主権AI」とAIファクトリーの構築
サムスン・現代など財閥企業が参画

主要産業のAI化を加速

製造・モビリティ分野の産業革新
韓国語LLMや次世代通信6Gも開発

半導体大手NVIDIAは2025年10月31日、韓国のAPEC首脳会議で、同国政府や主要企業と国家規模のAIインフラ構築で提携すると発表しました。サムスン電子などと連携し25万基以上の最新GPUを導入、韓国独自の「主権AI」開発を加速させます。国全体の産業基盤をAI時代に対応させる歴史的な投資となります。

プロジェクトの核心は、自国データを国内で管理・活用する「主権AI」の確立です。政府主導でクラウド事業者に約5万基GPUを、民間企業には20万基以上を供給。単なるインフラ整備に留まらず、国家の産業構造そのものをAI中心に再設計する壮大な構想です。

民間ではサムスン、SK、現代がそれぞれ最大5万基、NAVERは6万基以上のGPUを導入し「AIファクトリー」を構築します。これにより、製造、モビリティ、通信、ロボティクスといった基幹産業のデジタルトランスフォーメーションを根本から推進する計画です。

各社の狙いは明確です。サムスン半導体製造のデジタルツイン化、現代は自動運転とスマートファクトリー、SKは製造AIクラウド、NAVERは特定産業向けAIモデルの開発を推進。NVIDIAの技術で各社の競争力を飛躍的に高めます。

提携GPU導入に限りません。LGなども参加し、韓国語LLMの開発や量子コンピューティング研究、次世代通信「6G」に向けたAI-RAN技術の共同開発も推進。AIを核とした包括的な技術エコシステムの構築を目指します。

未来の成長を支えるため、スタートアップ支援と人材育成も強化します。NVIDIA韓国内のスタートアップ連合を設立し、インフラへのアクセスやVCからの支援を提供。同時にAI人材育成プログラムも展開し、エコシステム全体の底上げを図ります。

今回の発表は、韓国が国を挙げて「AI産業革命」に乗り出す号砲です。ハードウェア導入からソフトウェア開発、人材育成まで包括的な国家戦略として展開されるこの取り組みは、世界のAI開発競争における韓国の地位を左右する一手となるでしょう。

AI特需でAWSが急加速、前年比20%の増収

好調な第3四半期決算

前年同期比20%の増収
過去3年で最も力強い成長
営業利益は114億ドルに増加
ウォール街の市場予想を上回る

AIが牽引するインフラ需要

AI業界の旺盛な需要が要因
過去12ヶ月で3.8GWの容量追加
PerplexityなどAI企業と提携
競合もAI関連で大型契約を締結

アマゾン・ウェブ・サービス(AWS)が10月31日に発表した2025年第3四半期決算は、AI業界からの旺盛な需要を追い風に、ウォール街の予想を上回る結果となりました。売上高は前年同期比で20.2%増加し、過去3年間で最も力強い成長率を記録。クラウドインフラ市場における同社の競争力の高さと、AIがもたらす巨大なビジネス機会を明確に示しています。

第3四半期までの累計売上高は331億ドルに達し、同事業部門の営業利益は前年同期の104億ドルから114億ドルへと増加しました。アンディ・ジャシーCEOは「AWSは2022年以来見られなかったペースで成長している」と述べ、業績の再加速を強調。堅調な収益性が、同社の積極的な投資を支える基盤となっています。

この急成長を牽引しているのは、言うまでもなくAIインフラへの爆発的な需要です。ジャシーCEOは「AIとコアインフラの両方で強い需要が見られる」と指摘。AWSは需要に応えるため、過去12ヶ月で3.8ギガワット以上の処理能力を追加し、ニュージーランドに新たなインフラリージョンを開設するなど、積極的な設備投資を続けています。

顧客獲得も順調です。第3四半期には、AI検索エンジンのPerplexityが法人向け製品の基盤としてAWSを採用したほか、AIを活用した開発ツールを提供するCursorとも提携しました。これは、最先端のAI企業がAWSインフラを信頼し、選択していることの証左と言えるでしょう。

クラウド市場全体がAIによって活況を呈しています。競合他社も、OpenAIOracleGoogleAnthropicがそれぞれ数十億から数千億ドル規模の巨大契約を結ぶなど、インフラ需要の獲得競争は激化。一部には市場の過熱を懸念する声もありますが、クラウド各社は好機を逃すまいと攻勢を強めています。

興味深いことに、この好決算はAmazonが法人従業員14,000人の削減を発表したわずか2日後のことです。これは、同社が不採算部門を整理し、経営資源を成長ドライバーであるAIとAWSに集中させるという、明確な戦略的判断を下したことを示唆しており、今後の投資動向が注目されます。

Apple CEO、AI分野のM&Aに意欲表明

AI強化へ3本柱の方針

AI分野でのM&A;や提携に前向き
自社開発・提携買収3本柱を継続
OpenAIに続く新たな提携も準備

次世代Siriと独自技術

AI搭載の次世代Siriは2026年公開予定
独自技術Private Cloud Compute活用
AI機能がスマホ選びの重要要素

Appleのティム・クックCEOは、2025年第4四半期の決算発表において、AI分野でのM&A;(合併・買収)や提携に前向きな姿勢を改めて示しました。同社はAI開発を加速させるため、戦略的な選択肢を常に検討していると強調。また、AIを搭載した次世代Siriが2026年にリリース予定であることも明言し、開発が順調に進んでいることを投資家にアピールしました。

クックCEOは、AppleのAI開発が「自社基盤モデル」「サードパーティとの提携」「企業買収」の3本柱で進められていることを再確認しました。「我々のロードマップを前進させるM&A;であれば、追求する用意がある」と述べ、市場を継続的に監視している姿勢を明らかにしました。これは、AI分野での競争力維持に向けた強い意志の表れと言えるでしょう。

パートナーシップの拡大にも意欲的です。AppleはすでにOpenAI提携し、ChatGPTSiriや「Apple Intelligence」に統合しています。クックCEOは決算発表前のインタビューで「将来的には、より多くの企業と統合していく」と語っており、特定の技術に固執せず、最適なパートナーと協力していく戦略を明確にしました。

自社技術の中核となるのが、プライバシー保護に特化したクラウドシステム「Private Cloud Compute」です。クックCEOは、この技術がすでに多くのSiriのクエリ処理に使われていると説明。このインフラを支えるサーバーの製造も数週間前にヒューストンで開始されており、データセンターでの活用に向けた増産体制が計画されています。

最後にクックCEOは、AI機能が消費者のスマートフォン選びに与える影響についても言及しました。「Apple Intelligenceは(購入の)一因であり、今後さらに大きな要因になると非常に強気に見ている」と述べ、AI機能が製品の競争力を左右する重要な要素になるとの認識を示しました。

3D設計AIのAdam、CAD支援へ410万ドル調達

テキストから3Dモデル生成

Y Combinator出身の注目企業
SNSで1000万インプレッション獲得
テキスト入力で3Dモデルを自動生成
まずコンシューマー向けで成功

プロ向けCAD支援AIへ

シードで410万ドル(約6億円)を調達
プロ向けCAD用AIコパイロットを開発
年末までにコパイロットを公開予定
機械工学分野から市場参入

Y Combinator出身のAIスタートアップAdamが、テキストから3Dモデルを生成するツールをプロ向けのCAD(コンピューター支援設計)用AIアシスタントに進化させるため、シードラウンドで410万ドルを調達したと発表しました。同社はまず一般消費者向けツールで注目を集め、その成功を足がかりに企業向け(B2B)市場への本格参入を目指します。

Adamのツールは、専門知識がないクリエイターでもテキスト入力だけで3Dモデルを作成できる手軽さが受け、SNSで1000万回以上のインプレッションを獲得。大きな話題を呼びました。この成功が投資家の高い関心を引き、会議なしで投資条件提示書が送られてくるほどだったといいます。

調達資金は、プロのエンジニア向けに開発する「AIコパイロット」の実現に充てられます。当初、B2B展開には技術が未熟と考えていましたが、AIモデルが予想以上に速く進化したため年末のローンチを計画。ユーザーが3Dオブジェクトの一部を選択して対話形式で操作するなど、直感的なインターフェースも実装します。

CEOのザック・ダイブ氏は、コンシューマー向け製品で先行した戦略が、結果的に企業向け製品開発への道を拓いたと語ります。一般ユーザーから得た多くのフィードバックが、プロ向けツールの機能改善にも活かされています。アマチュアの3Dプリント支援から、プロのエンジニアの日常業務支援へと、大きな飛躍を目指しているのです。

同社のAIコパイロットは、特に機械工学分野を最初のターゲットとします。複数のCADファイルに同じ変更を適用するといった時間のかかる作業を自動化し、エンジニア生産性向上に貢献します。まずはクラウドベースCADで知られるOnshapeへの対応から始める計画です。

NVIDIA、RTX 5080クラウド基盤を欧州・北米へ拡大

RTX 5080サーバー増強

アムステルダムへ導入
モントリオールへ導入
最新Blackwell世代GPU
5K解像度/120fpsに対応

新規コンテンツ追加

注目作『ARC Raiders』
『The Outer Worlds 2』など
合計10タイトルが新たに対応
Ultimate会員向け特典も

NVIDIAは2025年10月30日、クラウドゲーミングサービス「GeForce NOW」のインフラを強化すると発表しました。最新のGeForce RTX 5080搭載サーバーをオランダのアムステルダムとカナダのモントリオールに新設します。併せて、注目作『ARC Raiders』を含む10タイトルのゲームを新たに追加し、プラットフォームの魅力を高めます。

今回のサーバー増強は、ブルガリアのソフィアに続くもので、Blackwellアーキテクチャを採用したRTX 5080の展開を加速させます。これにより、対象地域のユーザーは、最大5K解像度、120fpsの滑らかな映像とリアルタイムレイトレーシングによる高品質なストリーミング体験を、ほぼ全てのデバイスで享受可能になります。

コンテンツ面では、新作SFシューター『ARC Raiders』が目玉です。NVIDIAは同作のリリースを記念し、最上位プラン「Ultimate」の12ヶ月メンバーシップ購入者にゲーム本編を無料で提供するキャンペーンを実施。強力なハードウェアと魅力的なコンテンツを組み合わせ、プレミアムユーザーの獲得を狙います。

このほか、『The Outer Worlds 2』や『Guild Wars 2』の大型拡張コンテンツなど、話題性の高いタイトルも追加されました。NVIDIAは継続的なコンテンツ拡充を通じて、ユーザーエンゲージメントを高め、クラウドプラットフォームとしてのエコシステムを強化しています。

こうした定期的なインフラ投資コンテンツ戦略は、NVIDIAがゲーミング分野に留まらず、高性能クラウドGPU市場におけるリーダーシップを盤石にするものです。技術基盤の優位性を背景に、今後他分野への応用も期待されるのではないでしょうか。

NVIDIA支援のAI、インドで乳がん早期発見に貢献

AIによる医療格差の是正

インド地方部へ移動式検診車を派遣
低コストで高品質な乳がん検診を実現
医療アクセス困難な女性を支援
AIによる迅速なトリアージを実施

移動式クリニックの実績

過去1年で3,500人以上を検診
受診者の90%が初のマンモグラフィ
約300件の異常所見を発見
24人の陽性患者を早期治療へ

NVIDIAが支援する米国スタートアップMedCognetics社が、AI技術を活用した移動式クリニックでインド地方部の医療アクセス改善に貢献しています。NPO法人と連携し、低コストで高品質な乳がん検診を提供。これまで検診機会のなかった多くの女性に、早期発見と治療の道を開いています。

この移動式クリニックは過去1年で、インドのプネー周辺の農村部で3,500人以上の女性を検診しました。驚くべきことに、その90%が初めてマンモグラフィを受ける人々でした。AIによる解析で約300件の異常所見が見つかり、うち24人が陽性と診断され、病状が進行する前に治療へと繋げられました。

この取り組みを支えるのが、MedCognetics社が開発したAIシステムです。同社のAIは米国食品医薬品局(FDA)の認可を受けており、NVIDIAの産業用エッジAIプラットフォーム「IGX Orin」などで動作します。クラウドだけでなく、将来的には検診車に搭載したハードウェアでAI分析を完結させることを目指しています。

検診車に放射線科医は同乗しません。AIがまずマンモグラフィ画像を解析し、腫瘍の疑いがあるリスクなケースを即座に特定します。これにより、都市部の専門医は優先順位の高い患者から遠隔で詳細な読影を行え、診断プロセスが大幅に効率化されます。特に、人の目では見逃しやすい小さな腫瘍の発見に威力を発揮します。

インドの人口の約3分の2が居住する地方部では、高価でアクセスしにくい医療のため、予防検診が敬遠されがちです。その結果、乳がんが進行した段階で発見されるケースが多く、生存率に直結する課題となっています。AIを活用した手頃で身近な検診サービスは、この状況を打破する大きな一歩と言えるでしょう。

Google、インドでAI Pro無料提供 巨大市場で攻勢

巨大市場狙うGoogleの一手

通信大手リライアンス・ジオ提携
AI Proを18カ月無料提供
約400ドル相当のサービスをバンドル
若年層から全国の利用者へ順次拡大

激化するインドAI覇権争い

10億人超の世界第2位インターネット市場
PerplexityOpenAIも無料プランで追随
法人向けGemini Enterpriseも展開
巨大テック企業の次なる主戦場に

Googleは10月30日、インドの複合企業リライアンス・インダストリーズと戦略的提携を結び、傘下の通信大手ジオの5Gユーザー数百万人に、AIアシスタントの有料版「AI Pro」を18カ月間無料で提供すると発表しました。世界第2位のインターネット市場であるインドで、急成長するAI分野の主導権を握る狙いです。競合他社の参入も相次いでおり、市場獲得競争が激化しています。

今回の無料提供は、インドでの月額料金1,950ルピー(約22ドル)の「AI Pro」プランが対象です。これには、最新AIモデル「Gemini 2.5 Pro」へのアクセス、AIによる画像動画生成機能の利用上限緩和、研究・学習支援ツール「Notebook LM」、さらにGoogleフォトやGmailで使える2TBのクラウドストレージが含まれ、総額約400ドルに相当します。

提供はまず18歳から25歳の若年層を対象に開始し、その後、全国のジオ加入者へと順次拡大される予定です。10億人以上のインターネット利用者を抱えるインドは、巨大テック企業にとって、多様なデータを収集し、AIモデルを改良するための最重要市場と見なされています。今回の提携は、その攻略を加速させる明確な一手と言えるでしょう。

インドのAI市場では、すでに競争が始まっています。3カ月前には、AI検索エンジンのPerplexityが、リライアンスの競合である通信大手バーティ・エアテルと組み、同様の無料提供を開始しました。また、OpenAIも11月4日から、インド国内の全ユーザーにエントリープラン「ChatGPT Go」を1年間無料で提供すると発表しています。

今回の提携は個人向けに留まりません。リライアンスはGoogle Cloudと連携し、インド国内でのTPU(テンソル・プロセッシング・ユニット)へのアクセスを拡大します。さらに、リライアンスのAI子会社はGoogle Cloudの戦略的パートナーとなり、法人向けAI「Gemini Enterprise」の国内展開を共同で推進する計画です。

Googleのスンダー・ピチャイCEOは「インドの消費者、企業、開発者コミュニティに最先端のAIツールを届ける」と声明で述べました。無料提供によるユーザー基盤の拡大は、生成AIの普及を後押しする一方、無料期間終了後の収益化が今後の焦点となりそうです。巨大市場インドを舞台にしたAI覇権争いは、新たな局面を迎えています。

TC Disrupt最終日、BoxやSolanaのCEOら登壇

豪華登壇者が語る技術トレンド

BoxのCEOが語るクラウドの未来
Solana共同創業者が描く暗号資産の次章
著名投資家Elad Gilによる最新トレンド解説
NBA選手が語るAIとスポーツ

スタートアップ注目のAIセッション

Character.AIのCEOが登壇
Hugging Faceが語るAIスタック
Google Cloudが解説するAIエージェント
ピッチコンテスト優勝者発表

10月29日、米サンフランシスコで世界最大級のスタートアップイベント「TechCrunch Disrupt 2025」が最終日を迎えました。BoxやSolana、Character.AIといった有力企業のCEOらが登壇し、AIやクラウド暗号資産の未来について議論。最終日も熱気に包まれ、多くの経営者投資家が次世代技術の動向に注目しました。

中心的な「Disrupt Stage」では、Boxのアーロン・レヴィCEOがクラウド企業の生存と再発明について語りました。また、Solana共同創設者のアナトリー・ヤコヴェンコ氏は暗号資産の次章と題して講演。著名投資家Elad Gil氏やNBA選手のトリスタン・トンプソン氏など、多彩な顔ぶれが登壇し、会場を沸かせました。

特に注目を集めたのが「AI Stage」です。対話型AIで急成長するCharacter.AIのCEOが登壇したほか、Hugging Faceの共同創業者兼CSOが最新のAIスタックについて解説。Google CloudのCTOは、今後のクラウドにおけるAIエージェントの役割についてビジョンを示し、多くの聴衆を引きつけました。

イベントの目玉であるピッチコンテスト「Startup Battlefield」もついに決勝を迎え、優勝者が発表されました。世界中から集まった革新的なスタートアップの中から選ばれた一社が、賞金と栄誉を手にします。このコンテストは、未来のユニコーン企業が生まれる登竜門として知られています。

3日間にわたるイベントは、AIを筆頭とする最先端技術のショーケースとなりました。250以上のセッション、300社以上のスタートアップ展示に加え、投資家起業家同士の活発なネットワーキングが行われ、新たなイノベーションの種が蒔かれました。技術トレンドの最前線を体感できる貴重な機会と言えるでしょう。

米AI大手Anthropic、東京に拠点開設し日本へ本格参入

日本市場への本格参入

アジア太平洋初の東京オフィス開設
CEOが来日し政府関係者と会談
楽天など大手企業で導入実績
アジア太平洋の売上は前年比10倍

AIの安全性で国際協力

日本AISIと協力覚書を締結
AIの評価手法とリスク監視で連携
米英の安全機関とも協力関係
広島AIプロセスへの参加も表明

米AI開発大手Anthropicは2025年10月29日、アジア太平洋地域初の拠点を東京に開設し、日本市場への本格参入を発表しました。同社のダリオ・アモデイCEOが来日し、政府関係者と会談したほか、日本のAIセーフティ・インスティテュート(AISI)とAIの安全性に関する協力覚書を締結。日本重要なビジネス拠点と位置づけ、企業や政府との連携を深める方針です。

Anthropic日本市場のポテンシャルを高く評価しています。同社の経済指標によると、日本AI導入率は世界の上位25%に入ります。特に、AIを人間の代替ではなく、創造性やコミュニケーション能力を高める協働ツールとして活用する傾向が強いと分析。アモデイCEOも「技術と人間の進歩は共存する」という日本の考え方が自社の理念と合致すると述べています。

国内では既に、同社のAIモデル「Claude」の導入が加速しています。楽天は自律コーディング開発者生産性を劇的に向上させ、野村総合研究所は文書分析時間を数時間から数分に短縮しました。また、クラウドインテグレーターのクラスメソッドは、生産性10倍を達成し、あるプロジェクトではコードベースの99%をClaudeで生成したと報告しています。

事業拡大と同時に、AIの安全性確保に向けた国際的な連携も強化します。今回締結した日本のAISIとの協力覚書は、AIの評価手法や新たなリスクの監視で協力するものです。これは米国のCAISIや英国のAISIとの協力に続くもので、国境を越えた安全基準の構築を目指します。同社は「広島AIプロセス・フレンズグループ」への参加も表明しました。

Anthropicは今後、東京オフィスを基盤にチームを拡充し、産業界、政府、文化機関との連携を推進します。さらに、韓国のソウル、インドのベンガルールにも拠点を設け、アジア太平洋地域での事業展開を加速させる計画です。技術の進歩が人間の進歩を後押しするという信念のもと、同地域でのイノベーション創出に貢献していく構えです。

Alphabet、AIで初の四半期売上1000億ドル達成

AIがもたらす記録的成長

初の四半期売上1000億ドル達成
Geminiアプリ利用者6.5億人
AIモデルのトークン処理量が20倍成長
有料サブスク登録者3億人を突破

検索とクラウド事業の躍進

AI Overviewによる検索クエリ数の増加
クラウドの受注残高は1550億ドル
クラウド顧客の7割がAI製品を利用
大手AIラボ10社中9社がGoogle Cloudを選択

Googleの親会社Alphabetは2025年10月29日、2025年第3四半期決算を発表しました。四半期売上高は過去最高の1000億ドルに達し、5年間で倍増という驚異的な成長です。この記録的な業績は、検索クラウド事業全体にわたるAIへの戦略的投資が本格的な収益化フェーズに入ったことを明確に示しています。

成長の核となるAIの勢いは、具体的な数値に表れています。対話型AI「Gemini」アプリの月間アクティブユーザーは6億5000万人を超え、クエリ数は前期比で3倍に急増。全プロダクトでのAI処理能力は、この1年で20倍以上に拡大しました。

主力事業である検索においてもAIが新たな成長を牽引しています。「AI Overview」は全体のクエリ数増加に貢献し、特に若年層の利用が顕著です。新たに40言語に対応した「AI Mode」も、7500万人のデイリーアクティブユーザーを獲得し、利用が急拡大しています。

Google Cloud事業はAI製品の強化で成長が加速しています。AI関連製品の収益は前年同期比200%超の増加。受注残高も1550億ドルに達しました。既存顧客の7割以上がAI製品を利用しており、大手企業との大型契約も過去2年間の合計を上回るペースで獲得しています。

YouTubeではAIツールでクリエイター動画制作や収益化を支援しています。Google OneやYouTube Premiumといった有料サブスクリプション登録者数も順調に増加し、3億人を突破。安定した収益基盤の構築が進んでいます。

同社の強みは、自社開発のTPUNVIDIAGPUの両方を提供するAIインフラです。この優位性により大手AI企業を含む多くの顧客を獲得。自動運転のWaymoも事業拡大を進めるなど、未来への投資も着実に成果を上げています。

サンダー・ピチャイCEOは「AIが具体的なビジネス成果を上げている」と述べ、AIにおけるリーダーシップに自信を示しました。今回の記録的な決算は、Alphabetが生成AI時代における確固たる地位を築きつつあることを市場に強く印象付けたと言えるでしょう。

LangChain、DeepAgents 0.2公開 長期記憶を実装

DeepAgents 0.2の進化

プラグイン可能なバックエンド導入
ローカルやS3を長期記憶に活用
大規模なツール結果の自動退避機能
会話履歴の自動要約で効率化

各ライブラリの役割

DeepAgents: 自律エージェント用ハーネス
LangChain: コア機能のフレームワーク
LangGraph: ワークフローランタイム
3つのライブラリは階層構造で連携

AI開発フレームワークのLangChainは2025年10月28日、自律型AIエージェント構築用のパッケージ「DeepAgents」のバージョン0.2を公開しました。複雑なタスクを長時間実行できるエージェント開発を加速させることが目的です。最大の目玉は、任意のデータストアを「ファイルシステム」として接続できるプラグイン可能なバックエンド機能で、エージェントの長期記憶や柔軟性が大幅に向上します。

これまでDeepAgentsのファイルシステムは、LangGraphのステートを利用した仮想的なものに限定されていました。しかし新バージョンでは、「Backend」という抽象化レイヤーが導入され、開発者はローカルのファイルシステムやクラウドストレージなどを自由に接続できるようになりました。これにより、エージェントがアクセスできるデータの範囲と永続性が飛躍的に高まります。

特に注目すべきは、複数のバックエンドを組み合わせる「コンポジットバックエンド」です。例えば、基本的な作業領域はローカルを使いつつ、「/memories/」のような特定のディレクトリへの操作だけをクラウドストレージに振り分ける設定が可能。これにより、エージェントはセッションを越えて情報を記憶・活用する長期記憶を容易に実装できます。

バージョン0.2では、バックエンド機能の他にも実用的な改善が多数追加されました。トークン数が上限を超えた場合に、ツールの大規模な実行結果を自動でファイルに退避させたり、長くなった会話履歴を要約したりする機能です。これにより、長時間稼働するエージェントの安定性とリソース効率が向上します。

LangChainは今回、`DeepAgents`を「エージェントハーネス」、`LangChain`を「フレームワーク」、`LangGraph`を「ランタイム」と位置づけを明確にしました。それぞれが階層構造で連携しており、開発者はプロジェクトの目的に応じて最適なライブラリを選択することが推奨されます。自律性の高いエージェント開発にはDeepAgentsが最適です。

Vercel、AIエージェント開発を本格化する新SDK発表

AIエージェント開発の新基盤

AI SDK 6によるエージェント抽象化
人間による承認フローの組み込み
エンドツーエンドの型安全性を確保
ゼロ設定でPythonフレームワーク対応

高信頼な実行環境とエコシステム

ワークフローキットで高信頼性を実現
マーケットプレイスでAIツールを導入
Vercel Agentによる開発支援
OSSの営業・分析エージェント提供

Vercelが先週開催したイベント「Ship AI 2025」で、AIエージェント開発を本格化させる新技術群を発表しました。中核となるのは、エージェント中心の設計を取り入れた「AI SDK 6」や、タスクの信頼性をコードで担保する「Workflow Development Kit」です。これにより、ウェブ開発のように直感的かつスケーラブルなAI開発環境の提供を目指します。

新たにベータ版として公開された「AI SDK 6」は、エージェントを一度定義すれば、あらゆるアプリで再利用できるアーキテクチャが特徴です。これにより、ユースケースごとにプロンプトやAPIを連携させる手間が不要になります。また、人間のレビューを必須とするアクションを制御できる承認機能も組み込まれ、安全な運用を支援します。

長時間実行されるタスクの信頼性を高めるのが「Workflow Development Kit」です。従来のメッセージキューやスケジューラの設定に代わり、TypeScriptの関数に数行のコードを追加するだけで、失敗した処理の自動リトライや状態保持を実現します。これにより、AIエージェントのループ処理やデータパイプラインを安定して実行できます。

エコシステムの拡充も進んでいます。Vercel Marketplaceでは、CodeRabbitなどのエージェントやAIサービスをプロジェクトに直接導入可能になりました。さらに、FastAPIやFlaskといったPythonフレームワークが設定不要でデプロイ可能となり、バックエンド開発者のAIクラウド活用を促進します。

Vercel自身も、開発者を支援するAIアシスタントVercel Agent」のベータ版を提供開始しました。このエージェントは、コードレビューパッチ提案、本番環境でのパフォーマンス異常の検知と原因分析を自動化します。開発チームの一員として、生産性向上に貢献することが期待されます。

Vercelの一連の発表は、AIエージェント開発を一部の専門家から全ての開発者へと解放するものです。SDKによる抽象化、ワークフローによる信頼性確保、マーケットプレイスによるエコシステムが一体となり、アイデアを迅速に本番稼働のエージェントへと昇華させる強力な基盤が整ったと言えるでしょう。

Google、AIの電力需要急増で原発を再稼働へ

AIと電力問題

AI・クラウド電力需要が急増
安定的なクリーン電力確保が課題に

Googleの解決策

電力大手NextEra Energyと協業
アイオワ州の休止原発を2029年に再稼働
Googleが再稼働投資電力コストを負担

再稼働のインパクト

600MW超のクリーン電力を供給
アイオワ州に数千人の雇用創出
AI成長とエネルギー確保の両立モデル

Googleは2025年10月27日、電力大手NextEra Energyとの協業を発表しました。アイオワ州唯一の原子力発電所を再稼働させ、急増するAIインフラ電力需要を賄います。クリーンで安定した電力確保が目的です。

生成AIの普及はデータセンター電力消費を急増させています。Google天候に左右されず24時間稼働できる原子力に着目。AI成長を支える迅速かつ大規模なクリーン電力確保策として、休止中の原発再稼働を決断しました。

発電所は2029年初頭に再稼働し、600MW超の電力を供給する計画です。契約に基づき、Googleは再稼働への投資を可能にし、発電コストを負担します。これにより、一度稼働していたプラントを迅速に活用できます。

このプロジェクトは電力確保にとどまりません。発電所の再稼働はアイオワ州に数千人規模の雇用大きな経済効果をもたらすと期待されています。ハイテク産業の成長が地域経済の活性化に直接貢献する好例となるでしょう。

Googleは他にも需要の柔軟化や次世代送電技術の導入など、多角的なエネルギー戦略を進めています。信頼性が高く拡張可能なエネルギーを迅速に確保し、持続可能なAIの発展を目指す姿勢を明確にしました。

Mistral、企業向けAI開発・運用基盤を発表

AI開発の本番運用を支援

試作から本番運用への移行を促進
EU拠点のインフラデータ主権を確保
専門家以外も使える開発ツール

統合プラットフォームの3本柱

システムの振る舞いを可視化する可観測性
RAGも支える実行ランタイム
AI資産を一元管理するAIレジストリ

豊富なモデルと柔軟な展開

オープンソースから商用まで多数のモデル
クラウドやオンプレミスなど柔軟な展開

2025年10月24日、フランスのAIスタートアップMistral AIは、企業がAIアプリケーションを大規模に開発・運用するための新プラットフォーム「Mistral AI Studio」を発表しました。多くのAI開発が試作段階で止まってしまう課題を解決し、信頼性の高い本番システムへの移行を支援することが目的です。Googleなど米国勢に対抗する欧州発の選択肢としても注目されます。

同社はAI Studioを、AI開発における「プロダクションファビリック(生産基盤)」と位置付けています。AIモデルのバージョン管理や性能低下の追跡、コンプライアンス確保など、多くのチームが直面するインフラ面の課題解決を目指します。これにより、アイデアの検証から信頼できるシステム運用までのギャップを埋めます。

プラットフォームは3つの柱で構成されます。AIシステムの振る舞いを可視化する「可観測性」、検索拡張生成(RAG)なども支える実行基盤「エージェントランタイム」、そしてAI資産を一元管理する「AIレジストリ」です。これらが連携し、開発から監視、統制まで一貫した運用ループを実現します。

AI Studioの強みは、オープンソースから高性能な商用モデル、さらには画像生成音声認識モデルまでを網羅した広範なモデルカタログです。これにより企業は、タスクの複雑さやコスト目標に応じて最適なモデルを試し、柔軟に構成を組むことが可能になります。選択肢の多さは開発の自由度を高めます。

Pythonコードを実行する「コードインタプリタ」やWeb検索など、多彩な統合ツールも特徴です。これにより、単なるテキスト生成にとどまらず、データ分析やリアルタイムの情報検索、さらには画像生成までを一つのワークフロー内で完結させる、より高度なAIエージェントの構築が可能になります。

導入形態も柔軟です。クラウド経由での利用に加え、自社インフラに展開するオンプレミスやセルフホストにも対応。企業のデータガバナンス要件に応じて最適な環境を選べます。また、不適切なコンテンツをフィルタリングするガードレール機能も備え、安全なAI運用を支援します。

Mistral AI Studioの登場は、企業におけるAI活用の成熟度が新たな段階に入ったことを示唆します。モデルの性能競争から、いかにAIを安全かつ安定的に事業へ組み込むかという運用フェーズへ。同プラットフォームは、その移行を力強く後押しする存在となるでしょう。

OpenAI、Mac向けAI「Sky」買収でPC統合を加速

買収の狙いと目的

ChatGPTのPC統合を加速
AIを日常ツールに直接組み込む
PCでのAI利用体験の向上

Skyの特長と開発陣

Mac画面を理解しアプリ操作
自然言語でPC作業を支援
Apple「ショートカット」の元開発陣

今後の展望

Skyの機能をChatGPTに統合
数億人規模へのAI体験提供

OpenAIは2025年10月23日、Mac向けAIインターフェース「Sky」を開発するSoftware Applications Incorporatedを買収したと発表しました。この買収により、Skyのチーム全員がOpenAIに合流し、その高度なmacOS統合技術ChatGPTに組み込まれます。目的は、AIをユーザーが日常的に使用するPCツールに直接統合し、作業体験を根本から変革することです。

「Sky」は、PCのデスクトップ上で常に稼働し、ユーザーを支援する自然言語インターフェースです。最大の特徴は、画面に表示されている内容を文脈として理解し、ユーザーの指示に応じて各種アプリケーションを直接操作できる点にあります。文章作成からコーディング、日々のタスク管理まで、PC作業のあらゆる場面でAIが伴走する体験を目指します。

Skyの開発チームは、かつてApple買収され、現在の「ショートカット」アプリの基盤となった「Workflow」の創業者たちが率いています。彼らの製品開発力とmacOSに関する深い知見が、今回の買収の決め手の一つとなりました。Apple出身者が多くを占めるチームの合流は、OpenAIの製品開発力を一層強化するでしょう。

この動きは、AIの主戦場がクラウドから個人のデバイスへと拡大していることを示唆します。Appleが「Apple Intelligence」でOSレベルのAI統合を進める中、OpenAIは今回の買収を通じてエコシステムへの深い浸透を図ります。PC上でシームレスに動作するAIアシスタントの実現は、生産性向上を目指すユーザーにとって重要な選択基準となりそうです。

OpenAIは、サム・アルトマンCEO関連の投資ファンドがSkyの開発元に受動的投資を行っていたことを開示しました。買収プロセスはChatGPT責任者らが主導し、取締役会の独立した委員会によって承認されたとして、取引の透明性を強調しています。買収金額などの詳細は公表されていません。

Anthropic、Google製AI半導体を100万基に増強

数百億ドル規模のAI投資

最大100万基のTPU利用計画
数百億ドル規模の大型投資
2026年に1GW超の容量を確保
急増する法人顧客需要への対応

マルチプラットフォーム戦略

Google TPU価格性能比を追求
AmazonのTrainiumも併用
NVIDIAGPUも活用
主要提携Amazonとの連携も継続

AI企業のAnthropicは2025年10月23日、Google Cloudとの提携を大幅に拡大し、最大100万基のTPUを利用する計画を発表しました。投資規模は数百億ドルに上り、急増する顧客需要に対応するため、AIの研究開発能力を強化します。この拡大により、2026年には1ギガワットを超える計算能力が追加される見込みです。

同社の法人顧客は30万社を超え、年間ランレート収益が10万ドル以上の大口顧客数は過去1年で約7倍に増加しました。この計算能力の増強は、主力AI「Claude」への指数関数的な需要増に対応し、最先端のモデル開発を維持するために不可欠です。

Google Cloudのトーマス・クリアンCEOは、「AnthropicTPUの利用を大幅に拡大したのは、長年にわたりその優れた価格性能比と効率性を評価してきた結果だ」と述べました。Googleは、第7世代TPU「Ironwood」を含むAIアクセラレータの革新を続け、さらなる効率化と容量拡大を推進しています。

Anthropicは、特定の半導体に依存しない多様な計算基盤戦略を採っている点が特徴です。GoogleTPUに加え、AmazonのTrainium、NVIDIAGPUという3つのプラットフォームを効率的に活用することで、業界全体との強力なパートナーシップを維持しながらClaudeの能力を進化させています。

Googleとの提携拡大の一方で、AnthropicAmazonとのパートナーシップも継続する方針を明確にしています。Amazonは引き続き同社の主要なトレーニングパートナーであり、クラウドプロバイダーです。両社は巨大な計算クラスターを構築する「Project Rainier」でも協力を続けています。

AI開発の生産性向上、ソフトウェアの断片化解消が鍵

AI開発を阻む「複雑性の壁」

断片化したソフトウェアスタック
ハードウェア毎のモデル再構築
6割超のプロジェクトが本番前に頓挫
エッジ特有の性能・電力制約

生産性向上への道筋

クロスプラットフォームの抽象化レイヤー
最適化済みライブラリの統合
オープン標準による互換性向上
ハードとソフトの協調設計

ArmをはじめとするAI業界が、クラウドからエッジまで一貫した開発を可能にするため、ソフトウェアスタックの簡素化を急いでいます。現在、断片化したツールやハードウェア毎の再開発がAIプロジェクトの大きな障壁となっており、この課題解決が開発の生産性と市場投入の速度を左右する鍵を握っています。

AI開発の現場では、GPUやNPUなど多様なハードウェアと、TensorFlowやPyTorchといった異なるフレームワークが乱立。この断片化が非効率な再開発を招き、製品化までの時間を浪費させています。調査会社ガートナーによれば、統合の複雑さを理由にAIプロジェクトの6割以上が本番前に頓挫しているのが実情です。

このボトルネックを解消するため、業界は協調した動きを見せています。ハードウェアの違いを吸収する抽象化レイヤーの導入、主要フレームワークへの最適化済みライブラリの統合、ONNXのようなオープン標準の採用などが進んでいます。これにより、開発者はプラットフォーム間の移植コストを大幅に削減できるのです。

簡素化を後押しするのが、クラウドを介さずデバイス上でAIを処理する「エッジ推論」の急速な普及です。スマートフォンや自動車など、電力や処理能力に制約のある環境で高性能なAIを動かすには、無駄のないソフトウェアが不可欠です。この需要が、業界全体のハードウェアとソフトウェアの協調設計を加速させています。

この潮流を主導するのが半導体設計大手のArmです。同社はCPUにAI専用の命令を追加し、PyTorchなどの主要ツールとの連携を強化。これにより開発者は使い慣れた環境でハードウェア性能を最大限に引き出せます。実際に、大手クラウド事業者へのArmアーキテクチャ採用が急増しており、その電力効率の高さが評価されています。

AIの次なる競争軸は、個別のハードウェア性能だけでなく、多様な環境でスムーズに動作する「ソフトウェアの移植性」に移っています。エコシステム全体で標準化を進め、オープンなベンチマークで性能を競う。こうした協調的な簡素化こそが、AIの真の価値を引き出し、市場の勝者を決めることになるでしょう。

AIコード生成の壁、デプロイ自動化で解決へ

AIコーディングの課題

アイデアからコードを自動生成
しかしデプロイや保守が障壁
インフラ管理の専門知識が必須

Shuttleの解決策

生成コードを分析し最適インフラを提案
自然言語でインフラ管理を実現
主要クラウドプロバイダーと連携
全プログラミング言語に対応へ
GitHub CEOらが出資

プラットフォームエンジニアリングの新興企業Shuttleが、10月22日に600万ドル(約9億円)のシード資金調達を発表しました。この資金は、AIがアイデアからコードを生成する「vibe coding」の普及に伴い顕在化した、ソフトウェアのデプロイ(配備)やインフラ管理という新たな課題を解決するために活用されます。

近年、AIがアイデアからコードを自動生成する「vibe coding」が普及しています。しかし、完成したソフトウェアを公開し、運用・保守する段階では、インフラ管理という専門的な壁が新たなボトルネックとなりつつあります。

Shuttleは、AI生成コードを分析し、最適なクラウドインフラ構成と費用を提示。ユーザーが承認すれば、最小限の手間でデプロイを自動実行する仕組みを提供し、開発者インフラの複雑さから解放します。

今後は、自然言語でデータベースなどを管理できるエージェント型インターフェースを構築。Daneliya CEOは「AIが言語間の境界をなくす今が事業拡大の好機だ」と語ります。

2020年にY Combinatorから輩出された同社は、プログラミング言語Rustのアプリデプロイツールとして既に高い評価を得ています。今回の調達には元GitHub CEOなども参加し、その将来性に期待が集まります。

便利AIの死角、個人データ痕跡を最小化する6つの鍵

自律型AIのデータリスク

利便性の裏で膨大な個人データを生成
生活習慣がデジタル痕跡として長期蓄積
意図せぬプライバシー侵害の危険性

プライバシー保護の設計

データ保持期間と目的の限定
アクセス権の最小化と一時化
AIの行動を可視化しユーザーが制御
データの一括削除と完全消去を保証

ユーザーに代わり自律的に行動する「エージェントAI」は、その利便性の裏で膨大な個人データを生成・蓄積し、プライバシー上のリスクをもたらすと専門家が警鐘を鳴らしています。しかし、設計段階で規律ある習慣を取り入れることで、この問題は解決可能です。本稿では、AIの機能性を損なうことなく、利用者の「デジタル・トレイル(痕跡)」を劇的に削減するための6つの具体的なエンジニアリング手法を解説します。

エージェントAIは、ユーザーの指示を超えて自ら計画し、行動するシステムです。例えばスマートホームAIは、電力価格や天候を監視し、自動で空調やEV充電を最適化します。しかしその過程で、AIへの指示、行動、予測データなどがログとして大量に蓄積されます。これが、個人の生活習慣を詳細に記録した危険なデータ痕跡となり得るのです。

こうしたデータ蓄積は、システムの欠陥ではなく、多くのエージェントAIにおけるデフォルトの動作であることが問題を深刻にしています。開発者は迅速なサービス提供を優先し、データ管理を後回しにしがちです。その結果、ユーザーが把握できない形で、ローカルやクラウド上のストレージに個人データが散在・蓄積されてしまうのです。

この問題の解決に、全く新しい設計思想は必要ありません。プライバシー保護の国際基準であるGDPRの諸原則、すなわち「目的の限定」「データ最小化」「アクセス・保存期間の制限」「説明責任」といった、確立された考え方を技術的に実装することで十分に対応可能だと専門家は指摘します。

具体的な対策として、まずAIが利用するメモリやデータをタスク実行に必要な期間に限定することが挙げられます。次に、個々の実行IDに関連する全てのデータを紐付け、ユーザーが単一のコマンドで一括かつ完全に削除できる仕組みを構築します。デバイスへのアクセス権も、必要な操作のみを許可する一時的なものにすべきです。

AIの行動の透明性を確保することも極めて重要です。AIの計画、実行内容、データの流れ、消去予定日時などを平易な言葉で示す「エージェント・トレース」機能は、ユーザーに安心と制御手段を与えます。また、データ収集は最もプライバシー侵害の少ない方法を常に選択し、自己監視ログや第三者分析機能はデフォルトで無効にすることが推奨されます。

これらの習慣を実践すれば、AIの自律性や利便性を維持したまま、プライバシーリスクを大幅に低減できます。AIが真に人間に奉仕する存在であり続けるために、開発者は今こそプライバシーを尊重したシステム設計に取り組むべきではないでしょうか。

Google、AIデータセンターの水問題に新対策

Googleの水インフラ貢献

オレゴン州に新貯水システムを建設
雨季の水を貯留し乾季に活用
干ばつに備え水の安定供給を実現
年間1億ガロン以上の水確保

AIと地域社会の共存

データセンターの安定稼働が目的
施設の所有権と水利権を市に譲渡
企業の社会的責任を果たす新モデル

Googleは2025年10月22日、アメリカ・オレゴン州ザ・ダレス市で、新しい水インフラプロジェクトの完成を発表しました。AIサービスを支えるデータセンターの安定稼働と地域貢献を目的に、貯水システムを建設し、その所有権と水利権を市に恒久的に譲渡します。

完成したのは「帯水層貯留・回復(ASR)」と呼ばれるシステムです。これは雨季に流出してしまう水を地下の帯水層に貯留し、乾季に必要な時に汲み上げて利用する仕組みです。いわば「水の貯金口座」であり、干ばつに対する地域の耐性を高める効果が期待されます。

Googleは同市で、クラウドやYouTubeなど世界的なAIサービスを支える大規模データセンターを運営しています。データセンターは冷却に大量の水を消費するため、水資源の確保は事業継続の生命線です。今回の投資は、その課題への先進的な解決策と言えるでしょう。

このプロジェクトにより、ザ・ダレス市は年間で1億ガロン(約3.8億リットル)以上の追加水資源を確保できます。Googleは施設だけでなく関連する地下水利権も市に譲渡しており、地域社会全体の水セキュリティ向上に直接的に貢献する形となります。

デジタル化が進む現代において、データセンターの重要性は増す一方です。しかし、その環境負荷、特に水消費は大きな課題となっています。今回のGoogleの取り組みは、テクノロジー企業と地域社会が共存するための新しいモデルケースとして、注目を集めそうです。

AI投資、コストの『見える化』が成功の鍵

AI投資の財務的死角

ROI不明確なまま予算が急増
経営層の低い満足度
制御不能なコスト増大リスク
プロジェクト中止の増加予測

FinOpsが示す解決の道

投資と成果を明確に紐付け
最適なモデル・リソース選択
コスト増を早期検知し素早く転換
統一フレームワークTBMの導入

多くの企業がAI投資を加速させていますが、そのコスト構造は不透明になりがちです。結果として投資対効果(ROI)が不明確になり、経営層の満足度も低いのが現状です。AIを真のビジネス資産に変えるには、クラウド管理で培われたFinOpsなどの規律を導入し、コストを徹底的に可視化することが不可欠です。

AIへの期待が先行し、財政規律が後回しにされていませんか。Apptioの調査ではテクノロジーリーダーの68%がAI予算の増額を見込む一方、ガートナーはCEOのROI満足度が30%未満だと指摘します。成果と結びつかないまま投資を拡大すれば、価値なき投資に終わる危険性があります。

AIのコストは、かつてのパブリッククラウド導入初期を彷彿とさせます。各部門が自由にリソースを調達することで、コストが気づかぬうちに膨れ上がる「AIスプロール」が発生しやすいのです。トークン利用料、インフラ費、人件費などが分散し、全体像の把握を困難にしています。

こうした状況下で、従来の静的な予算管理モデルは機能しません。AIのワークロードは動的であり、コスト要因も多岐にわたるためです。クラウド費用に加え、モデルの選択、データ準備、コンプライアンス対応など、複雑に絡み合う費用を正確に追跡・分析する仕組みが求められます。

解決の鍵は、クラウドコスト最適化の手法である「FinOps」にあります。FinOpsのベストプラクティスをAI投資にも適用することで、無駄なコストを削減し、費用対効果を最大化できます。例えば、ワークロードに合わせた最適なモデルの選択や、コスト上昇の早期検知による迅速な方針転換が可能になります。

さらに包括的なアプローチとして「TBM(Technology Business Management)」というフレームワークが有効です。TBMは、IT財務管理(ITFM)、FinOps、戦略的ポートフォリオ管理(SPM)を統合し、技術投資とビジネス成果を明確に紐付けます。これにより、AIコストに関する意思決定の質が向上します。

AI活用の成功は、導入の速さだけでは測れません。コストの透明性を確保し、一つ一つの投資が事業価値にどう貢献するかを常に問うこと。その規律こそが、AIをコスト要因ではなく、持続的な競争優位性を生む戦略的資産へと昇華させるのです。

AI基盤Fal.ai、企業価値40億ドル超で大型調達

企業価値が爆発的に増大

企業価値は40億ドルを突破
わずか3ヶ月で評価額2.7倍
調達額は約2億5000万ドル
著名VCが大型出資を主導

マルチモーダルAI特化

600以上のメディア生成モデルを提供
開発者数は200万人を突破
AdobeやCanvaなどが顧客
動画AIなど高まる需要が追い風

マルチモーダルAIのインフラを提供するスタートアップのFal.aiが、企業価値40億ドル(約6000億円)超で新たな資金調達ラウンドを完了しました。関係者によると、調達額は約2億5000万ドルに上ります。今回のラウンドはKleiner PerkinsSequoia Capitalという著名ベンチャーキャピタルが主導しており、AIインフラ市場の過熱ぶりを象徴しています。

驚くべきはその成長速度です。同社はわずか3ヶ月前に評価額15億ドルでシリーズCを終えたばかりでした。当時、売上高は9500万ドルを超え、プラットフォームを利用する開発者は200万人を突破。1年前の年間経常収益(ARR)1000万ドル、開発者数50万人から爆発的な成長を遂げています。

この急成長の背景には、マルチモーダルAIへの旺盛な需要があります。特に、OpenAIの「Sora」に代表される動画生成AIが消費者の間で絶大な人気を博していることが、Fal.aiのようなインフラ提供企業への追い風となっています。アプリケーションの需要が、それを支える基盤技術の価値を直接押し上げているのです。

Fal.aiは開発者向けに、画像動画音声、3Dなど600種類以上のAIモデルを提供しています。数千基のNVIDIA製H100およびH200 GPUを保有し、高速な推論処理に最適化されたクラウド基盤が強みです。API経由のアクセスやサーバーレスでの提供など、柔軟な利用形態も支持されています。

MicrosoftGoogleなど巨大IT企業もAIホスティングサービスを提供していますが、Fal.aiはメディアとマルチモーダルに特化している点が競争優位性です。顧客にはAdobe、Canva、Perplexity、Shopifyといった大手企業が名を連ね、広告、Eコマース、ゲームなどのコンテンツ制作で広く活用されています。

同社は2021年、Coinbaseで機械学習を率いたBurkay Gur氏と、Amazon出身のGorkem Yurtseven氏によって共同設立されました。多くの技術者が大規模言語モデル(LLM)開発に走る中、彼らはマルチメディア生成の高速化と大規模化にいち早く着目し、今日の成功を収めました。

NVIDIAとGoogle Cloud提携、企業AI・DXを推進

最新GPU搭載VMの提供

G4 VMでRTX PRO 6000 Blackwell提供
AI推論とビジュアル処理を両立
最大8基のGPU搭載が可能
多様なワークロードを高速化

産業デジタル化を加速

OmniverseとIsaac Simが利用可能に
物理的に正確なデジタルツイン構築
仮想空間でのAIロボット開発
製造業や物流分野のDXを支援

NVIDIAGoogle Cloudは10月20日、企業向けAIと産業のデジタル化を加速する提携拡大を発表しました。Google Cloud上で最新GPU「RTX PRO 6000 Blackwell」を搭載したG4仮想マシン(VM)と、デジタルツイン構築基盤「Omniverse」が利用可能になります。

G4 VMの核となるのは、最新GPU「RTX PRO 6000 Blackwell」です。AI推論と高精細なビジュアル処理の両方で卓越した性能を発揮し、生成AIから複雑なシミュレーションまで、多様なワークロードを単一基盤で高速化します。

特に注目されるのが産業用メタバース基盤「NVIDIA Omniverse」です。物理的に正確な工場のデジタルツイン構築や、仮想空間でのAIロボット開発・検証が可能になり、製造業などの物理AI活用が大きく前進します。

広告大手WPPはフォトリアルな3D広告環境の即時生成に、Altairは複雑なシミュレーションの高速化に本プラットフォームを活用しており、具体的なビジネス成果に繋がり始めています。あらゆる業界で応用が期待できるでしょう。

この統合プラットフォームは、AIモデル「Nemotron」や推論用マイクロサービス「NIM」などNVIDIAの豊富なソフトウェア群も利用可能です。AIエージェント構築から科学技術計算まで、高負荷タスクをクラウド上で実行できます。

今回の提携は、データ分析から物理AIの実装まで一気通貫の開発環境クラウドで提供するものです。企業のデジタルトランスフォーメーションとイノベーションを次の段階へ引き上げる、強力な一手となるでしょう。

Meta、未投稿写真でAI学習 任意機能でデータ収集

新機能の概要

AIがカメラロールを自動スキャン
未投稿写真から「逸品」を提案
編集やコラージュを自動で生成
米国とカナダでオプトインで提供

データ利用と懸念

写真はMetaクラウドに保存
編集・共有時にAI学習データ化
プライバシー保護の透明性に課題
広告目的でのデータ利用は否定

Meta米国とカナダで、新たなAI機能をオプトイン(任意参加)形式で導入しました。ユーザーのカメラロールにある未投稿写真をAIがスキャンし、編集やコラージュを提案するものです。利便性の裏で、プライバシーやAIの学習データ利用に関する懸念も指摘されています。

ユーザーが機能を有効にすると、カメラロール内の写真が継続的にMetaクラウドにアップロードされます。AIは雑多な画像の中から共有価値のある「隠れた逸品」を探し出し、ユーザーに提案。これにより、写真の編集や整理にかかる手間を削減することを目指しています。

最も注目されるのは、これらの写真がAIの学習にどう使われるかです。Metaの説明によれば、アップロードされただけでは学習データにはなりません。ユーザーが提案された写真をAIツールで編集、またはFacebook上で共有した場合に限り、そのデータがAIモデルの改善に利用されるとしています。

しかし、この仕組みには透明性への課題が残ります。Metaは過去に、FacebookInstagramの公開投稿をAI学習に利用していたことを認めています。今回も、ユーザーへの通知画面でデータ利用のリスク十分に説明されるかは不明確であり、将来的なポリシー変更の可能性も否定できません。

この新機能は、ユーザーエンゲージメントを高める強力なツールとなり得ます。一方で、企業がユーザーのプライベートなデータにどこまでアクセスし、活用するべきかというデータ倫理の議論を加速させるでしょう。経営者開発者は、技術革新とプライバシー保護のバランスを常に意識する必要があります。

Facebook、未投稿写真もAIが編集提案

AIによる編集提案の仕組み

カメラロール写真にAIが編集提案
コラージュなどを自動生成し投稿促進
ユーザーの許諾(オプトイン)が必須
アメリカ・カナダで本格展開

データ利用とプライバシー

クラウド継続的に写真をアップロード
広告目的での写真利用は否定
共有後はAI学習にデータ活用も
機能はいつでも無効化可能

Metaは10月17日、Facebookアプリの新機能をアメリカとカナダで本格展開したと発表しました。この機能は、ユーザーのスマートフォンのカメラロールにある未投稿の写真に対し、AIが編集を提案するものです。ユーザーは許諾すれば、AIによるコラージュやスタイル変更などの提案を受け、簡単にFacebookフィードやストーリーに投稿できます。

新機能を利用するには、ユーザーが「クラウド処理」を許可する必要があります。許諾すると、アプリはデバイスの画像継続的にクラウドへアップロード。これを基にAIがコラージュ作成、要約動画、スタイル変更といった創造的なアイデアを提案します。

Metaはデータ利用について、アップロードされたメディアを広告ターゲティングには使用しないと説明しています。また、ユーザーがAIの提案を受け入れて編集・共有しない限り、そのデータがAIシステムの改善に使われることはないとしており、プライバシーへの配慮を強調しています。

一方で、AI利用規約への同意は、写真内容や顔の特徴が分析されることを意味します。Metaはユーザーの交友関係や生活に関する詳細な情報を取得し、AI開発競争で優位に立つ可能性があります。未共有データへのアクセスは、大きな強みとなり得るでしょう。

この機能はユーザー自身で制御可能です。Facebookアプリの「設定」からいつでも機能を無効にできます。クラウドへのデータアップロードを停止するオプションも用意されており、ユーザーは自身のプライバシー設定をいつでも見直すことができます。

Uber、運転手向けAI訓練タスクを試験導入

ギグワーカーの新たな収益源

米国内での試験的プログラム
運転手が追加収入を得る機会
アプリ経由のマイクロタスク提供

AI訓練のクラウドソース化

音声録音や画像収集など
AIモデルのデータ収集・注釈

大手AI企業への挑戦

Scale AIなどへの対抗策
「柔軟な働き方」のプラットフォーム強化

米配車大手のUberは米国で、運転手がAIモデル訓練に参加し収入を得る試験プログラムを開始しました。アプリで音声録音などのタスクを請け負い、新たな収益源とAIデータ市場での競争力確保を狙います。

具体的なタスクは多岐にわたります。「車の画像をアップロードする」「自身の言語で話した音声を録音する」といった指示がアプリに表示されます。スペイン語のメニューを撮影すると1ドル程度の報酬が得られる例もあるようです。

この動きは、Uberが持つ膨大な労働力をAI訓練に活用し、Scale AIなど既存の有力企業に対抗する狙いです。同社は最近データラベリング企業を買収し、AI事業を強化しています。

一方で、運転手からは既に報酬の低さに対する不満も出ています。こうしたマイクロタスクが、彼らにとって魅力的な収入源となるかは未知数です。ギグワーカーの待遇が、この新事業の成否を左右するかもしれません。

今回の施策は「柔軟な働き方のプラットフォーム」構築の一環です。需要が高いエリアを示す新機能や、不当なアカウント停止措置の是正など、運転手体験の向上策も同時に発表されました。

NVIDIA、新サーバー増強でクラウドゲーム体験向上

Blackwellサーバー網拡大

新世代Blackwell RTXサーバー導入
ロンドンなど4地域で稼働開始
次はアトランタに展開予定
高画質・低遅延の環境を提供

ユーザー体験の向上施策

人気ゲームの限定特典を提供
Steamの2,200超タイトルを追加
新機能でゲームの即時プレイ可能
PCゲームパス対応タイトルも拡充

NVIDIAは2025年10月16日、クラウドゲーミングサービス「GeForce NOW」の基盤強化と新たなユーザー向け施策を発表しました。最新GPU「Blackwell」を搭載したサーバーをロンドンなど4地域に拡大し、パフォーマンスを向上。さらに、2,200以上のSteamタイトルを即時プレイ可能にする新機能を導入し、プラットフォームの魅力を高めることで事業拡大を加速させます。

サービスの核となるインフラ増強では、最新のGeForce RTX 5080クラスの性能を持つBlackwell RTXサーバーへのアップグレードが進んでいます。米国のアッシュバーン、ポートランド、ダラス、そして英国のロンドンで新たに稼働を開始し、次はアトランタでの展開を予定。高フレームレートと低遅延を実現し、要求の厳しいゲームでも快適なプレイ環境を提供します。

ユーザーの利便性を高める新機能「Install-to-Play」も注目されます。これにより、GeForce NOWが公式対応を謳っていない2,200以上のSteamタイトルも、プレミアム会員はクラウド上の仮想PCに直接インストールして即座にプレイできるようになりました。ライブラリの大幅な拡充は、プラットフォームの魅力を大きく高める一手と言えるでしょう。

顧客エンゲージメントを高める施策も同時に展開します。最上位プラン「Ultimate」会員向けに、人気ゲーム『Borderlands 4』で使える限定アイテムを無料で提供。さらに、周辺機器メーカーSteelSeriesと提携し、高性能なコントローラーやヘッドセットが当たるプレゼント企画も実施し、ユーザーの継続的な利用を促します。

コンテンツ面では、今週新たに10タイトルが追加されました。大規模多人数参加型オンラインゲーム『Pax Dei』の正式版リリースや、人気格闘ゲーム『ストリートファイター』シリーズなどが含まれます。PC Game Pass対応タイトルも拡充しており、幅広いゲーマーのニーズに応える姿勢を明確にしています。

SageMakerでScala開発、Almondカーネル導入法

課題と解決策

SageMakerのScala非対応
別環境による生産性の低下
Almondカーネルによる統合
既存Scala資産の有効活用

導入の主要ステップ

カスタムConda環境の作成
OpenJDKとCoursierの導入
Almondカーネルのインストール
カーネル設定ファイルの修正

アマゾン・ウェブ・サービス(AWS)は、機械学習プラットフォーム「Amazon SageMaker Studio」でプログラミング言語Scalaを利用するための公式ガイドを公開しました。標準ではサポートされていないScala開発環境を、オープンソースの「Almondカーネル」を導入することで実現します。これにより、Apache SparkなどScalaベースのビッグデータ処理ワークフローをSageMaker上でシームレスに実行可能となり、生産性向上に貢献します。

これまでSageMaker StudioはPython中心の設計で、Scalaを主に使う開発者は別の開発環境を併用する必要がありました。この非効率な状況は、特にSparkで大規模なデータ処理を行う企業にとって、開発の遅延や生産性低下の要因となっていました。既存のScalaコード資産とSageMakerの機械学習機能を連携させる際の複雑さも課題でした。

今回の解決策の中核をなすのが、Jupyter環境にScalaを統合するAlmondカーネルです。インストールには、Scalaのライブラリ管理を自動化するCoursierを利用します。これにより、依存関係の競合を避け、安定した開発環境を効率的に構築できると説明しています。

具体的な導入手順は、カスタムConda環境を作成後、Java開発キット(OpenJDK)をインストールし、Coursier経由でAlmondカーネルを導入します。最後に、カーネルが正しいJavaパスを参照するよう設定ファイルを修正することで、セットアップは完了します。これにより、JupyterLabのランチャーからScalaノートブックを直接起動できるようになります。

導入後の運用では、JVMのバージョン互換性の確認が重要です。特にSparkは特定のJVMバージョンを要求するため、不整合は性能劣化や実行時エラーにつながる可能性があります。また、SageMakerの基本環境との競合を避けるため、カスタム環境を分離して管理することが安定稼働の鍵となります。

この統合により、Scala開発者は使い慣れた言語とツールでSageMakerの強力な機械学習機能やクラウドコンピューティング能力を最大限に活用できます。既存のScalaコード資産を活かしつつ、高度なMLワークフローの導入を加速させることが期待されるでしょう。

ノーコードで生命科学のデータ解析を高速化

開発の背景

生物学データの指数関数的な増大
データ解析が研究のボトルネック
生物学者と技術者の専門性の乖離

プラットフォームの特長

ノーコードでの複雑なデータ解析
クラウドベースのテンプレート提供
最新AIツールを手軽に利用可能

導入による効果

研究開発サイクルを10倍以上高速化
創薬や臨床研究の意思決定を支援

マサチューセッツ工科大学(MIT)発のスタートアップ「Watershed Bio」が、プログラミング不要で複雑な生命科学データを解析できるクラウド基盤を開発しました。ゲノム解析などが身近になる一方、膨大なデータを扱える専門家不足が課題でした。同社のノーコードプラットフォームは、生物学者が自らデータを扱い、新薬開発などの研究を加速させることを目指します。

近年、診断・シーケンシング技術のコストが劇的に低下し、研究現場では前例のない量の生物学データが蓄積されています。しかし、そのデータを新薬開発などに活かすには、ソフトウェア技術者の協力が不可欠で、研究のボトルネックとなっていました。

Watershedのプラットフォームは、専門家でなくとも直感的に操作できる点が強みです。ゲノムやタンパク質構造解析など、一般的なデータ種別に対応したワークフローのテンプレートを提供。これにより、研究者はコーディング作業から解放され、本来の科学的探究に集中できます。

さらに、AlphaFoldやGeneformerといった最新のAIツールもプラットフォーム上で手軽に利用できます。科学誌で発表された最先端の解析手法が即座にテンプレートとして追加されるため、研究者は常に業界の最前線で実験を進めることが可能です。

創業者のジョナサン・ワン氏は、かつて金融業界で同様の課題に直面しました。研究者とエンジニアの連携非効率を解決した経験が、この事業の着想に繋がっています。「生物学者をソフトウェアエンジニアにする必要はない」と同氏は語ります。

同社の目標は、科学的発見の速度を10倍から20倍に引き上げることです。すでに大手製薬会社から小規模な研究チームまで、学術界と産業界の双方で導入が進んでいます。研究の次のステップを迅速に判断するための、強力なツールとなっています。

Salesforce、AWS活用でLLM運用コスト40%削減

カスタムLLM運用の課題

数ヶ月かかるデプロイ作業
ピーク時を見越したGPU予約コスト
頻繁なリリースに伴う保守の複雑化

Bedrock導入による成果

デプロイ時間を30%短縮
運用コストを最大40%削減
サーバーレスによる自動スケール実現

導入成功のポイント

既存APIを維持するハイブリッド構成
コールドスタートへの対策実施

クラウド大手のセールスフォースは、AWSのAIサービス「Amazon Bedrock」を導入し、自社でカスタマイズした大規模言語モデル(LLM)の運用を効率化しました。これにより、モデルのデプロイにかかる時間を30%短縮し、インフラコストを最大40%削減することに成功。AI開発の生産性向上とコスト最適化を両立した事例として注目されます。

同社はこれまで、ファインチューニングしたLLMを自社で運用していましたが、インフラの最適化や設定に数ヶ月を要し、運用負荷の高さが課題でした。また、ピーク時の需要に備えてGPUリソースを常に確保する必要があり、コストが嵩む一因となっていました。

そこで採用したのが、Bedrockの「カスタムモデルインポート」機能です。これにより、インフラ管理の大部分をAWSに任せ、チームはモデル開発やビジネスロジックに集中できるようになりました。既存の運用フローへの影響を最小限に抑え、スムーズな移行を実現しています。

移行の鍵は、既存システムとの後方互換性を保つハイブリッド構成です。アプリケーションからのリクエストをまずSageMakerのCPUコンテナで受け、前処理を行った後、GPUを要する推論処理のみをBedrockに転送。これにより、既存のAPIや監視ツールを変更することなく、サーバーレスの利点を享受できました。

導入後の効果は顕著です。インフラ選定などの複雑な作業が不要になり、モデルのデプロイ時間は30%短縮されました。コスト面では、従量課金制への移行により、特に開発・テスト環境など利用頻度に波がある場面で効果を発揮し、最大40%のコスト削減を達成しました。

一方で、大規模モデルでは「コールドスタート」と呼ばれる初回起動時の遅延が発生する点は注意が必要です。同社は、遅延が許容できない本番環境では、定期的にエンドポイントにアクセスして「ウォーム」状態を維持する対策を講じています。自社モデルがサポート対象かも事前に確認すべきです。

Salesforceの事例は、サーバーレスAIが本番環境のワークロードにも十分対応できることを示しています。特にトラフィックが変動するAIアプリケーションにおいて、コストと運用の両面で大きなメリットをもたらすでしょう。LLMの自社運用に課題を抱える企業にとって、有力な選択肢となりそうです。

Salesforce、規制業界向けにAI『Claude』を本格導入

提携で実現する3つの柱

AgentforceでClaude優先モデル
金融など業界特化AIを共同開発
SlackClaude統合を深化

安全なAI利用と生産性向上

Salesforce信頼境界内で完結
機密データを外部に出さず保護
Salesforce開発にClaude活用
Anthropic業務にSlack活用

AI企業のAnthropicと顧客管理(CRM)大手のSalesforceは2025年10月14日、パートナーシップの拡大を発表しました。SalesforceのAIプラットフォーム『Agentforce』において、AnthropicのAIモデル『Claude』を優先的に提供します。これにより、金融や医療など規制が厳しい業界の顧客が、機密データを安全に保ちながら、信頼性の高いAIを活用できる環境を整備します。提携は業界特化ソリューションの開発やSlackとの統合深化も含まれます。

今回の提携の核心は、規制産業が抱える「AIを活用したいが、データセキュリティが懸念」というジレンマを解消する点にあります。Claudeの処理はすべてSalesforceの仮想プライベートクラウドで完結。これにより、顧客はSalesforceが保証する高い信頼性とセキュリティの下で、生成AIの恩恵を最大限に享受できるようになります。

具体的な取り組みの第一弾として、ClaudeSalesforceのAgentforceプラットフォームで優先基盤モデルとなります。Amazon Bedrock経由で提供され、金融、医療、サイバーセキュリティなどの業界で活用が見込まれます。米RBC Wealth Managementなどの企業は既に導入し、アドバイザーの会議準備時間を大幅に削減するなど、具体的な成果を上げています。

さらに両社は、金融サービスを皮切りに業界に特化したAIソリューションを共同開発します。また、ビジネスチャットツールSlackClaudeの連携も深化。Slack上の会話やファイルから文脈を理解し、CRMデータと連携して意思決定を支援するなど、日常業務へのAI浸透を加速させる計画です。

パートナーシップは製品連携に留まりません。Salesforceは自社のエンジニア組織に『Claude Code』を導入し、開発者生産性向上を図ります。一方、Anthropicも社内業務でSlackを全面的に活用。両社が互いの製品を深く利用することで、より実践的なソリューション開発を目指すとしています。

OpenAI、半導体大手BroadcomとカスタムAIハード提携

Broadcomとの戦略的提携

10GW分のカスタムAIアクセラレータ
2026年からデータセンターへ導入
モデル開発の知見をハードに反映
AIの能力と知能を新たなレベルへ

加速するインフラ投資

契約額は非公開、推定最大5000億ドル
AMDから6GW分のチップ購入
Nvidia1000億ドル投資表明
Oracleとも大型契約の報道

AI研究開発企業のOpenAIは10月14日、半導体大手のBroadcomと戦略的提携を結んだと発表しました。この提携に基づき、2026年から2029年にかけて10ギガワット相当のカスタムAIアクセラレータ・ラックを自社およびパートナーのデータセンターに導入します。独自の半導体設計により、AIモデル開発の知見をハードウェアに直接反映させ、性能向上を狙います。

OpenAIは「フロンティアモデルと製品開発から得た学びをハードウェアに直接組み込むことで、新たなレベルの能力と知能を解き放つ」と声明で述べています。ソフトウェアとハードウェア垂直統合を進めることで、AI開発のボトルネックを解消し、競争優位性を確立する狙いです。これはAI業界の大きな潮流となりつつあります。

今回の契約の金銭的条件は明らかにされていません。しかし、英フィナンシャル・タイムズ紙は、この取引がOpenAIにとって3500億ドルから5000億ドル規模にのぼる可能性があると推定しており、AIインフラへの桁外れの投資が浮き彫りになりました。

OpenAIはここ数週間でインフラ関連の大型契約を相次いで発表しています。先週はAMDから数十億ドル規模で6ギガワット分のチップを購入。9月にはNvidiaが最大1000億ドルの投資と10ギガワット分のハードウェア供給意向を表明しました。Oracleとも歴史的なクラウド契約を結んだと報じられています。

一連の動きは、AI性能向上が計算資源の確保に懸かっていることを示しています。サプライヤーを多様化し、自社に最適化されたハードウェアを手に入れることで、OpenAIは次世代AI開発競争で主導権を握り続ける構えです。業界の勢力図を大きく左右する動きと言えるでしょう。

OpenAI、アルゼンチンで巨大AIインフラ構想

巨大プロジェクト「Stargate」

南米初のStargateプロジェクト
Sur Energy社がインフラ開発を主導
クリーンエネルギーでAIインフラを稼働
OpenAI電力購入者(オフテイカー)候補

アルゼンチンのAI潜在力

ChatGPT利用者が1年で3倍増
ミレイ大統領のAI成長ビジョン
政府機関へのAI導入も協議

OpenAIは2025年10月14日、アルゼンチンのエネルギー企業Sur Energyと提携し、ラテンアメリカ初となる大規模AIデータセンターStargate」プロジェクトの建設を検討すると発表しました。クリーンエネルギーを活用し、アルゼンチンを地域のAIハブに育てるのが狙いです。この動きは、ミレイ大統領政権との協議を経て、両社が意向表明書(LOI)に署名したことで具体化しました。

この巨大プロジェクトでは、Sur Energyがエネルギー供給とインフラ開発を主導します。同社はクラウドインフラ開発企業などとコンソーシアムを形成し、データセンターエコシステム全体を、安全で持続可能なエネルギー源で稼働させる計画です。OpenAIは、主要な電力購入者(オフテイカー)となる可能性を歓迎しています。

OpenAIがアルゼンチンに注目する背景には、同国のAIに対する高い受容性があります。国内のChatGPTユーザーは過去1年で3倍以上に急増し、若年層の利用が特に活発です。また、OpenAIのツールを活用する開発者コミュニティもラテンアメリカでトップクラスの規模を誇り、AIインフラ構築の土壌が整っていると評価されています。

OpenAIインフラ開発に加え、アルゼンチン政府との連携も深めます。「OpenAI for Countries」構想の一環として、まず政府機関自体でのAI導入を協議しています。これにより、行政職員の業務を効率化し、コストを削減しながら、国民により良いサービスを提供できると期待されています。世界各地でのパートナーシップの知見が生かされるでしょう。

OpenAIサム・アルトマンCEOは、「このプロジェクトは、AIをアルゼンチンのより多くの人々の手に届けるためのものだ」と述べました。さらに、「AIがもたらす成長と創造性に対するミレイ大統領のビジョンは明確で力強い。Stargateは、その実現を後押しするだろう」と期待を表明しています。

提携先のSur Energy社は「国のユニークな再生可能エネルギーの可能性と、世界規模の重要インフラ開発を組み合わせる歴史的な機会だ」とコメントしました。この連携が、アルゼンチンを世界の新たなデジタル・エネルギー地図における重要拠点へと押し上げる可能性を秘めています。

NVIDIA、卓上AIスパコン発表 初号機はマスク氏へ

驚異の小型AIスパコン

1ペタフロップスの演算性能
128GBのユニファイドメモリ
Grace Blackwellチップ搭載
価格は4,000ドルから提供

AI開発を個人の手に

最大2000億パラメータのモデル実行
クラウド不要で高速開発
開発者や研究者が対象
初号機はイーロン・マスク氏へ

半導体大手NVIDIAは2025年10月14日、デスクトップに置けるAIスーパーコンピュータ「DGX Spark」を発表しました。ジェンスン・フアンCEO自ら、テキサス州にあるSpaceXの宇宙船開発拠点「スターベース」を訪れ、初号機をイーロン・マスクCEOに手渡しました。AI開発の常識を覆すこの新製品は、15日から4,000ドルで受注が開始されます。

DGX Sparkの最大の特徴は、その小型な筐体に詰め込まれた圧倒的な性能です。1秒間に1000兆回の計算が可能な1ペタフロップスの演算能力と、128GBの大容量ユニファイドメモリを搭載。これにより、従来は大規模なデータセンターでしか扱えなかった最大2000億パラメータのAIモデルを、個人のデスク上で直接実行できます。

NVIDIAの狙いは、AI開発者が直面する課題の解決にあります。多くの開発者は、高性能なPCでもメモリ不足に陥り、高価なクラウドサービスデータセンターに頼らざるを得ませんでした。DGX Sparkは、この「ローカル環境の限界」を取り払い、手元で迅速に試行錯誤できる環境を提供することで、新たなAIワークステーション市場の創出を目指します。

この卓上スパコンは、多様なAI開発を加速させます。例えば、高品質な画像生成モデルのカスタマイズや、画像の内容を理解し要約する視覚言語エージェントの構築、さらには独自のチャットボット開発などが、すべてローカル環境で完結します。アイデアを即座に形にできるため、イノベーションのスピードが格段に向上するでしょう。

DGX Sparkは10月15日からNVIDIAの公式サイトやパートナー企業を通じて全世界で注文可能となります。初号機がマスク氏に渡されたのを皮切りに、今後は大学の研究室やクリエイティブスタジオなど、世界中のイノベーターの元へ届けられる予定です。AI開発の民主化が、ここから始まろうとしています。

Google、AI新興53社を選抜、Geminiで育成

初のGemini特化フォーラム

Google初のAI特化プログラムを開催
AIモデルGeminiの活用が参加条件
世界約1000社の応募から53社を厳選
Google本社で専門家が直接指導

参加企業への強力な支援

ヘルスケアや金融など多彩な業種が集結
米国インド欧州など世界各国から参加
製品のグローバル展開を加速
最大35万ドルのクラウドクレジット提供

Googleは2025年10月14日、AIモデル「Gemini」を活用するスタートアップを支援する新プログラム「Gemini Founders Forum」の第一期生として53社を選出したと発表しました。11月11日から2日間、カリフォルニア州マウンテンビューの本社で開催されるサミットを通じ、新世代の起業家の成長を加速させるのが狙いです。

このフォーラムには世界中から約1000社の応募が殺到し、その中から革新的な53社が厳選されました。参加企業はGoogle DeepMindGoogle Cloudの専門家と協業し、技術的な課題の克服や製品戦略の洗練、グローバルな事業展開に向けた集中的な支援を受けます。

選出された企業は、ヘルスケア、金融、気候変動対策、サイバーセキュリティなど多岐にわたる分野で事業を展開しています。米国インド欧州、南米など世界各国から多様な才能が集結しており、Geminiの応用範囲の広さと、様々な社会課題解決への可能性を示唆しています。

このプログラムは、Googleが提供する「Google for Startups Gemini Kit」を基盤としています。フォーラム参加者に限らず、適格なスタートアップ最大35万ドルのクラウドクレジットや、AI開発を効率化する「Google AI Studio」などのツールを利用でき、幅広い支援体制が整えられています。

Acer、50TOPSのAI搭載Chromebookを投入

強力なオンデバイスAI

MediaTek製CPUを搭載
50TOPSのAI処理能力
高速・安全なオフラインAI
AIによる自動整理や画像編集

ビジネス仕様の高性能

360度回転する2-in-1設計
最大17時間の長時間バッテリー
最新規格Wi-Fi 7に対応
Gemini 2.5 Proが1年間無料

Googleは、Acer製の新型ノートPC「Acer Chromebook Plus Spin 514」を発表しました。最大の特徴は、MediaTek Kompanio Ultraプロセッサが実現する強力なオンデバイスAI機能です。オフラインでも高速に動作するAIが、ビジネスパーソンの生産性を飛躍的に高める可能性を秘めています。

新モデルは、50TOPSという驚異的なAI処理能力を備えています。これにより、タブやアプリを自動で整理する「スマートグルーピング」や、AIによる高度な画像編集デバイス上で直接、高速かつ安全に実行できます。機密情報をクラウドに送る必要がないため、セキュリティ面でも安心です。

ハードウェアもビジネス利用を強く意識しています。360度回転するヒンジでノートPCとタブレットの1台2役をこなし、14インチの2.8K高解像度タッチスクリーン、最大17時間持続するバッテリー、最新のWi-Fi 7規格への対応など、外出先でも快適に作業できる仕様です。

購入者特典として、Googleの最先端AIモデル「Gemini 2.5 Pro」や2TBのクラウドストレージを含む「Google AI Proプラン」が12ヶ月間無料で提供されます。これにより、文書作成やデータ分析といった日常業務がさらに効率化されるでしょう。

今回、デスクトップ型の「Acer Chromebox CXI6」と超小型の「Acer Chromebox Mini CXM2」も同時に発表されました。オフィスでの固定利用から省スペース環境まで、多様なビジネスシーンに対応する製品群で、AI活用を推進する姿勢がうかがえます。

SlackbotがAIアシスタントに進化

新機能の概要

ワークスペース情報を検索
自然言語でのファイル検索
カスタムプランの作成支援

導入とセキュリティ

会議の自動調整・設定
年末に全ユーザーへ提供
企業単位での利用選択可能
データは社内に保持

ビジネスチャットツールSlackが、SlackbotをAIアシスタントへと進化させるアップデートをテスト中です。従来の通知・リマインダー機能に加え、ワークスペース内の情報検索や会議調整など、より高度な業務支援が可能になります。本機能は年末に全ユーザー向けに提供される予定です。

Slackbotは、個人の会話やファイル、ワークスペース全体の情報を基に、パーソナライズされた支援を提供します。「先週の会議でジェイが共有した書類を探して」のような自然な言葉で情報検索が可能です。

さらに、複数のチャンネル情報を集約して製品の発売計画を作成したり、ブランドのトーンに合わせてSNSキャンペーンを立案したりといった、より複雑なタスクも支援します。

Microsoft OutlookやGoogle Calendarとも連携し、会議の調整・設定を自動化。既存のリマインダー機能なども引き続き利用可能です。

セキュリティ面では、AWSの仮想プライベートクラウド上で動作。データはファイアウォール外に出ず、モデル学習にも利用されないため、企業の情報漏洩リスクを低減します。

現在は親会社であるSalesforceの従業員7万人と一部顧客にてテスト中。年末には全ユーザー向けに本格展開される見込みです。

2045年シンギュラリティ到来、AIで知性100万倍に

加速する技術進歩

技術革新は指数関数的に成長
人々は進歩の加速を過小評価
今後20年で驚異的な飛躍

人間とAIの完全融合

脳とクラウド直接接続
2032年頃に長寿脱出速度へ到達
2045年に知性は100万倍に拡大

技術の両刃の剣

AIの脅威は現実的で深刻
リスクを管理する道徳的義務

発明家で未来学者のレイ・カーツワイル氏は10月9日、母校マサチューセッツ工科大学(MIT)での講演で、AIと人間の完全な融合が2045年までに実現し「シンギュラリティ(技術的特異点)」が到来するとの見通しを改めて強調しました。同氏は技術進歩の加速を指摘し、今後20年で驚異的な飛躍が起こると予測しています。

カーツワイル氏の予測の核心は、2045年までに人類がAIと完全に融合し、知能が現在の100万倍にまで拡大するというものです。このシンギュラリティにより、我々の知性は生物学的な制約から解放され、根本的に変容すると同氏は主張します。まさにSFのような未来図です。

シンギュラリティへの道筋として、同氏は2030年代には分子サイズのロボットが脳内に入り、脳をクラウドに直接接続すると述べました。これにより思考能力が飛躍的に向上し、脳内にスマートフォンを持つような状態が実現されるとしています。まさに思考がそのまま情報処理となるのです。

AIがもたらす最も大きな変革の一つは、健康と医療分野です。カーツワイル氏は、2032年頃には「長寿脱出速度」に達すると予測します。これは科学の進歩によって1年生きるごとに1年以上の寿命を得られる状態を指し、健康への意識が高い人々からその恩恵が始まるとの見解を示しました。

これらの予測の根底には、技術の進歩は直線的ではなく「指数関数的」に進むというカーツワイル氏の揺るぎない信念があります。多くの人々が直線的な変化しか想定していないため、技術がもたらす未来の変革の大きさと速さを過小評価している、と同氏は警鐘を鳴らします。

もちろん、技術には常に二面性があります。カーツワイル氏はAIがもたらす脅威は現実的であり、真剣に対処すべきだと認めます。しかし、その上で「我々には新しい技術の可能性を実現し、そのリスクを管理する道徳的義務がある」と述べ、未来への楽観的な姿勢を崩しませんでした。

脱・大手クラウド、分散ストレージTigrisが挑戦

AI時代の新たな課題

AI需要で分散コンピューティングが急増
ストレージは大手クラウド集中
コンピューティングとデータの距離が課題に

Tigrisが提供する価値

GPUの近くにデータを自動複製
低レイテンシでAIワークロードを高速化
高額なデータ転送料金を回避

成長と今後の展望

シリーズAで2500万ドルを調達
欧州・アジアへデータセンター拡大計画

米国スタートアップTigris Dataが、シリーズAラウンドで2500万ドルを調達しました。同社は、AIの普及で需要が急増する分散コンピューティングに対応するため、AWSなど大手クラウドが抱える高コスト・高遅延の問題を解決する分散型データストレージを提供。大手からの脱却を目指す企業の新たな選択肢として注目されています。

生成AIの台頭で、コンピューティングパワーは複数のクラウドや地域に分散する傾向が加速しています。しかしデータストレージの多くは依然として大手3社に集中。この「コンピューティングとデータの距離」が、AIモデルの学習や推論における遅延のボトルネックを生み出しているのです。

Tigrisは、GPUなど計算資源の近くにデータを自動で複製・配置するAIネイティブなストレージ網を構築。これにより開発者低レイテンシでデータにアクセスでき、AIワークロードを高速かつ低コストで実行可能になります。顧客は、かつて支出の大半を占めたデータ転送料金を不要にできたと証言します。

大手クラウドは、顧客がデータを他サービスへ移行する際に高額な「データ転送料金」を課してきました。TigrisのCEOはこれを「より深い問題の一症状」と指摘。中央集権型のストレージ自体が、分散・高速化するAIエコシステム要求に応えられていないと強調します。

企業がTigrisを選ぶもう一つの動機は、データ主権の確保です。自社の貴重なデータをAI開発に活用する上で、外部のプラットフォームに依存せず、自らコントロール下に置きたいというニーズが高まっています。特に金融やヘルスケアなど規制の厳しい業界でこの傾向は顕著です。

今回の資金調達はSpark Capitalが主導し、Andreessen Horowitzなども参加。Tigrisは調達資金を元に、既存の米国内3拠点に加え、ヨーロッパやアジアにもデータセンターを拡大する計画です。2021年の設立以来、年8倍のペースで成長しており、今後の展開が期待されます。

NVIDIA、GeForce NOWで期待の新作BF6を即日配信

RTX 5080で新作を体験

期待作『Battlefield 6』が発売日に対応
RTX 5080の性能をクラウドで提供
超低遅延ストリーミングで快適プレイ
『Morrowind』など計6タイトルが追加

Discord連携で手軽に試遊

Discordから直接ゲーム起動が可能に
第一弾は人気作『Fortnite』
ダウンロードや会員登録が不要で試せる

グローバルインフラを増強

米・英の3新拠点でRTX 5080導入へ

NVIDIAは2025年10月10日、クラウドゲーミングサービス「GeForce NOW」にて、エレクトロニック・アーツの期待作『Battlefield 6』を発売と同時に配信開始します。最新GPU「GeForce RTX 5080」の性能を活用し、デバイスを問わず高品質なゲーム体験を提供。あわせて、Discordとの連携強化やグローバルデータセンターの増強も発表され、プラットフォームの進化が加速しています。

今回の目玉は、人気シリーズ最新作『Battlefield 6』への即日対応です。これにより、ユーザーは高性能なPCを所有していなくても、クラウド経由で最新ゲームを最高品質で楽しめます。RTX 5080によるパワフルな処理能力は、最大240fpsという滑らかな映像と超低遅延のストリーミングを実現し、競技性の高いゲームプレイでも快適な環境を提供します。

ユーザー体験を革新するのが、コミュニケーションツール「Discord」との連携です。第一弾として『Fortnite』が対応し、Discord上のチャットからダウンロード不要で直接ゲームを起動・試遊できるようになりました。コミュニティ内でのゲーム発見からプレイまでの垣根を劇的に下げ、新たなユーザーエンゲージメントの形を提示しています。

サービスの安定性と品質を支えるインフラ投資も継続しています。新たにアメリカのアッシュバーンとポートランド、イギリスのロンドンのデータセンターが、RTX 5080クラスのサーバーへアップグレードされる予定です。このグローバルなインフラ増強は、世界中のユーザーへより高品質で安定したサービスを提供するというNVIDIAの強い意志の表れと言えるでしょう。

今回の発表は、単なるゲームのニュースにとどまりません。最新半導体の活用、外部プラットフォームとの連携によるエコシステム拡大、そして継続的なインフラ投資という戦略は、他業界のビジネスリーダーやエンジニアにとってもDX推進の重要な示唆に富んでいます。クラウド技術が切り拓く新たなサービスモデルの好例ではないでしょうか。

OneDrive、AI搭載新アプリで写真・文書管理を刷新

新Windowsアプリの登場

モバイルアプリ風のフルアプリ化
ギャラリーや人物ビューを搭載
ローカル写真の編集・保存に対応

AIによる写真・文書管理

AIが作るスライドショー機能
AIチャットで写真を自然言語検索
モバイル版でのAI編集機能も追加

共有機能の利便性向上

Google Docs風のURL共有機能
アクセス権のリクエストが容易に

Microsoftは、クラウドストレージサービス「OneDrive」の大幅な刷新を発表しました。2026年にリリース予定の新Windowsアプリでは、AIを活用した写真管理機能が強化されます。これにより、個人利用はもちろん、ビジネスシーンでのデータ管理と生産性向上が期待されます。

新しいWindowsアプリは、従来のタスクバー上の小さな表示から、モバイルアプリのようなフルデザインのアプリに生まれ変わります。すべての写真を一覧できるギャラリービューや、顔認識で人物ごとに写真を整理する「ピープルビュー」を搭載し、直感的な操作性を実現します。

AIアシスタントCopilot」との連携も深化します。新機能「Photos Agent」を使えば、「休暇中の写真を探して」のように自然言語で指示するだけで、AIが関連写真を見つけ出し、アルバム作成まで支援してくれます。これにより、膨大な写真データから目的のものを探す手間が大幅に削減されます。

モバイルアプリ(iOS/Android)もAIで進化します。写真をアニメーション風に加工したり、ぼやけたショットや重複した写真をAIが自動で整理したりする機能が追加されます。外出先や移動中でも、手軽に高品質な写真管理が可能になるでしょう。

チームでの共同作業を効率化する共有機能の改善も見逃せません。「ヒーローリンク」機能の導入により、Google DocsのようにURLをコピー&ペーストするだけで簡単にファイル共有が可能になります。アクセス権のリクエストもスムーズになり、コラボレーションの速度が向上します。

マイクロソフト、OpenAI向けにNVIDIA最新鋭スパコンを世界初導入

世界初の超巨大AI基盤

NVIDIA最新鋭のGB300 NVL72
OpenAIの最先端AI開発向け
Microsoft Azureが本番稼働
推論性能を最大化する専用設計

圧倒的な技術仕様

4,600基超のBlackwell Ultra GPU
超高速ネットワークInfiniBand
独自設計の液冷・電源システム
将来は数十万基規模へ拡張予定

マイクロソフトは2025年10月9日、NVIDIAの最新AIスーパーコンピューター「GB300 NVL72」を搭載した世界初の大規模クラスターを、パートナーであるOpenAI向けに稼働開始したと発表しました。このシステムは、OpenAI最も要求の厳しいAI推論ワークロード向けに専用設計されており、次世代AI開発の基盤となります。巨大化するAIの計算需要を巡るインフラ競争が、新たな局面に入ったことを示しています。

今回導入された「GB300 NVL72」は、単なるサーバーの集合体ではありません。72基のNVIDIA Blackwell Ultra GPUと36基のGrace CPUを液冷式の単一ラックに統合した、まさに「AI工場」と呼ぶべきシステムです。これにより、巨大なAIモデルの学習と推論で圧倒的な性能を発揮し、特に複雑な推論エージェント型AIの処理能力を飛躍的に向上させます。

このスーパーコンピューターは、4,600基を超えるGPUを一つの巨大な計算資源として束ねています。それを実現するのがNVIDIAの先進的なネットワーク技術です。ラック内は超高速の「NVLink」で、クラスター全体は「Quantum-X800 InfiniBand」で接続。データのボトルネックを解消し、システム全体の性能を最大化する設計が施されています。

この発表のタイミングは注目に値します。パートナーであるOpenAIは近年、独自に1兆ドル規模ともされるデータセンター構築計画を進めています。マイクロソフトは、世界34カ国に300以上のデータセンターを持つ自社のクラウド基盤「Azure」の優位性を改めて誇示し、AIインフラのリーダーとしての地位を確固たるものにする狙いがあると考えられます。

マイクロソフトは、今回の導入を「多くのうちの最初の一つ」と位置づけ、将来的には数十万基のBlackwell Ultra GPUを世界中のデータセンターに展開する計画です。AIモデルが数百兆パラメータへと大規模化する未来を見据え、インフラへの先行投資を加速させています。最先端AIの開発競争は、それを支える計算基盤の競争と一体化しているのです。

インテル、最先端18A技術でAI PC向け新CPU発表

次世代CPU「Panther Lake」

AI PC向けの新プラットフォーム
最先端プロセス18Aを初採用
2025年後半に出荷開始予定
アリゾナ州の新工場で生産

サーバー向けも刷新

サーバー用Xeon 6+もプレビュー
こちらも18Aプロセスを採用
2026年前半に投入見込み

新CEO下の重要戦略

経営再建を進める新体制の成果
半導体製造の米国回帰を象徴

半導体大手のインテルは10月9日、最先端の半導体プロセス「18A」を採用した新プロセッサ「Panther Lake」を発表しました。AI PC向けプラットフォームの次世代製品と位置付け、今年後半に出荷を開始します。これは3月に就任したリップブ・タンCEOが進める経営再建と、半導体製造の国内回帰戦略を象徴する重要な一手となります。

「Panther Lake」は、Intel Core Ultraプロセッサファミリーの次世代を担う製品です。インテルの技術ロードマップにおける大きな前進であり、生産は2025年に本格稼働したアリゾナ州チャンドラーの最新鋭工場「Fab 52」で行われます。同社は、これが米国内で製造される最も先進的なチップであると強調しており、技術的リーダーシップの回復を目指す姿勢を鮮明にしました。

インテルはPC向けだけでなく、データセンター市場に向けた製品も同時に発表しました。コードネーム「Clearwater Forest」として知られるサーバー向けプロセッサ「Xeon 6+」も、同じく18Aプロセスを採用します。こちらの市場投入は2026年前半を予定しており、クラウドコンピューティングやAIインフラ市場での競争力強化を図ります。

今回の発表は、3月に就任したリップブ・タン氏がCEOとして指揮を執ってから半年後の大きな動きです。タン氏は就任以来、中核事業への再集中と「技術主導の企業文化」の回復を公言してきました。この新製品群は、その新経営戦略が具体化した初の成果と言えるでしょう。

インテルの動きは、経済安全保障の観点からも注目されます。同社は半導体製造の国内回帰を強力に推進しており、米国政府との連携を強化。8月には政府がインテル株の10%を取得した経緯もあります。最先端プロセスの国内生産は、サプライチェーンの強靭化に貢献するものと期待されています。

Google、LA28五輪と包括提携。AIで運営と視聴体験を革新

アスリートとデータ分析

Team USAのトレーニング分析を支援
複雑なスポーツデータのリアルタイム洞察を提供
ミラノ・コルティナ大会への準備を加速

視聴体験のAI高度化

AI Modeによる詳細な検索回答を提供
NBCUniversalの放送に検索機能を統合
YouTubeで独占ショートコンテンツを提供

大会運営をクラウドで支援

LA28の公式クラウドプロバイダーに就任
7万人超のボランティア管理とロジスティクス支援

GoogleはLA28オリンピック・パラリンピック競技大会組織委員会、Team USA、およびNBCUniversalと包括的なパートナーシップを締結しました。最先端のGemini(AI)とGoogle Cloudを活用し、26年ぶりとなる米国開催の五輪において、競技体験、運営、視聴体験の全てを根本的に革新します。これは史上最も技術的に高度な大会を目指す動きです。

Google Cloudは大会の公式クラウドプロバイダーとして、核となるインフラを提供します。最大の焦点の一つは、7万人を超えるボランティアやスタッフの管理、計画、ロジスティクスを支援することです。Google Workspaceも活用し、この大規模な大会運営の「現実世界のパズル」を解決し、効率化を図ります。

視聴者体験においては、Google検索と最新のAI機能「AI Mode」が中心となります。NBCUniversalの放送と連携し、ファンは複雑な質問を投げかけ、詳細な説明や信頼できる情報ソースへのリンクを迅速に入手できます。これにより、試合や選手に関する深い探求が可能になります。

AIはアスリートのパフォーマンス向上にも直結します。Google Cloudの技術は、Team USA選手のトレーニング分析に用いられ、ミラノ・コルティナ大会やLA28に向けた準備をサポートします。リアルタイムで複雑なスポーツデータを分析し、競技力向上に必要な具体的な洞察を提供します。

さらに、メディア戦略としてNBCUniversalとYouTubeが連携します。ファンは、NBCUniversalの報道を補完する独占的なショートフォームコンテンツをYouTube上で視聴可能となります。これにより、既存のテレビ放送に加え、デジタルネイティブな視聴者に合わせた多角的なコンテンツ展開が実現します。

提携は、生成AIやクラウド技術が、巨大イベントの運営効率化と参加者のエンゲージメント深化に不可欠であることを示しています。経営者やリーダーは、この事例から、大規模なリソース管理や複雑な顧客(ファン)体験設計におけるAIの活用ポテンシャルを学ぶことができます。

Google、ベルギーに50億ユーロ投資 AIインフラと雇用を強化

巨額投資の内訳

投資額は今後2年間で追加の50億ユーロ
目的はクラウドおよびAIインフラの拡張
サン=ギスランのデータセンターを拡張

経済効果とクリーン電力

フルタイム雇用を300名追加創出
Enecoらと提携陸上風力発電開発
グリッドをクリーンエネルギーで支援

AI人材育成支援

AI駆動型経済に対応する無料スキル開発提供
低スキル労働者向け訓練に非営利団体へ資金供与

Googleは今週、ベルギー国内のクラウドおよびAIインフラストラクチャに対して、今後2年間で追加の50億ユーロ(約8,000億円)投資すると発表しました。これはサン=ギスランのデータセンター拡張や、300名の新規雇用創出を含む大規模な計画です。同社はインフラ強化に加え、クリーンエネルギーの利用拡大と、現地のAI人材育成プログラムを通じて、ベルギーのデジタル経済への貢献を加速させます。

今回の巨額投資は、AI技術の爆発的な進展を支える計算資源の確保が主眼です。ベルギーにあるデータセンターキャンパスを拡張することで、Google Cloudを利用する欧州企業や、次世代AIモデルを運用するための強固な基盤を築きます。この投資は、欧州におけるデジタル化と経済的未来を左右する重要な一歩となります。

インフラ拡張に伴い、現地で300名のフルタイム雇用が新たに創出されます。Googleは、この投資を通じてベルギーに深く根を下ろし、同国が引き続き技術とAI分野におけるリーダーシップを維持できるよう支援するとしています。先端インフラ整備は、競争優位性を高めたい経営者エンジニアにとって重要な要素です。

持続可能性への取り組みも強化されています。GoogleはEnecoやLuminusなどのエネルギー企業と新規契約を結び、新たな陸上風力発電所の開発を支援します。これによりデータセンター電力を賄うだけでなく、電力グリッド全体にクリーンエネルギーを供給し、脱炭素化へ貢献する戦略的な動きです。

さらに、AI駆動型経済で成功するために必要なスキルを、ベルギー国民に無料で提供するプログラムも開始されます。特に低スキル労働者向けに、実用的なAIトレーニングを提供する非営利団体への資金提供も実施します。インフラと人材、両面からデジタル競争力の強化を目指すのが狙いです。

AI21が25万トークン対応の小型LLMを発表、エッジAIの経済性を一変

小型モデルの定義変更

30億パラメータのオープンソースLLM
エッジデバイスで25万トークン超を処理
推論速度は従来比2〜4倍高速化

分散型AIの経済性

MambaとTransformerハイブリッド構造採用
データセンター負荷を減らしコスト構造を改善
高度な推論タスクをデバイスで実行

企業利用の具体例

関数呼び出しやツールルーティングに最適
ローカル処理による高いプライバシー確保

イスラエルのAIスタートアップAI21 Labsは、30億パラメータの小型オープンソースLLM「Jamba Reasoning 3B」を発表しました。このモデルは、ノートPCやスマートフォンなどのエッジデバイス上で、25万トークン以上という異例の長大なコンテキストウィンドウを処理可能であり、AIインフラストラクチャのコスト構造を根本的に変える可能性を秘めています。

Jamba Reasoning 3Bは、従来のTransformerに加え、メモリ効率に優れたMambaアーキテクチャを組み合わせたハイブリッド構造を採用しています。これにより、小型モデルながら高度な推論能力と長文処理を両立。推論速度は従来のモデルに比べて2〜4倍高速であり、MacBook Pro上でのテストでは毎秒35トークンを処理できることが確認されています。

AI21の共同CEOであるオリ・ゴーシェン氏は、データセンターへの過度な依存が経済的な課題となっていると指摘します。Jamba Reasoning 3Bのような小型モデルをデバイス上で動作させることで、高価なGPUクラスターへの負荷を大幅に軽減し、AIインフラストラクチャのコスト削減に貢献し、分散型AIの未来を推進します。

このモデルは、特に企業が関心を持つユースケースに最適化されています。具体的には、関数呼び出し、ポリシーに基づいた生成、そしてツールルーティングなどのタスクで真価を発揮します。シンプルな業務指示や議事録作成などはデバイス上で完結し、プライバシーの確保にも役立ちます。

Jamba Reasoning 3Bは、同規模の他の小型モデルと比較したベンチマークテストでも優位性を示しました。特に長文理解を伴うIFBenchやHumanity’s Last Examといったテストで最高スコアを獲得。これは、同モデルがサイズを犠牲にすることなく、高度な推論能力を維持していることを示しています。

企業は今後、複雑で重い処理はクラウド上のGPUクラスターに任せ、日常的かつシンプルな処理はエッジデバイスでローカルに実行する「ハイブリッド運用」に移行すると見られています。Jamba Reasoning 3Bは、このハイブリッド戦略の中核となる効率的なローカル処理能力を提供します。

Anthropic、元Stripe CTOを迎え、エンタープライズ向け基盤強化へ

新CTOが担う役割

グローバルなエンタープライズ需要に対応
製品、インフラ推論全て統括
Claude信頼性・スケーラビリティ確保
世界水準のインフラ構築への注力

パティル氏のキャリア資産

直近はStripe最高技術責任者(CTO)
Stripe数兆ドル規模の取引を支援
AWSやMSなど大手クラウドでの経験
20年超のミッションクリティカルな構築実績

AI大手Anthropicは、元Stripeの最高技術責任者(CTO)であるラフル・パティル(Rahul Patil)氏を新たなCTOとして迎えました。これは、急速に増大するエンタープライズ顧客の需要に応えるため、Claudeの大規模かつ信頼性の高いインフラ基盤を構築することを最優先する、戦略的な人事です。

パティル氏は、製品、コンピューティング、インフラストラクチャ、推論、データサイエンス、セキュリティを含むエンジニアリング組織全体を監督します。彼のミッションは、Anthropicが持つ研究の優位性を活かしつつ、Claudeグローバル企業が依存できる堅牢なプラットフォームへとスケールさせることです。

新CTOは、20年以上にわたり業界をリードするインフラを構築してきた実績があります。特にStripeでは、年間数兆ドルを処理する技術組織を指導しました。この経験は、高い可用性とセキュリティが求められる金融技術の領域で、ミッションクリティカルなシステムを構築する専門知識を示しています。

共同創業者兼社長のダニエラ・アモデイ氏は、Anthropicがすでに30万を超えるビジネス顧客にサービスを提供している点を強調しました。パティル氏の採用は、Claudeを「企業向けをリードするインテリジェンスプラットフォーム」に位置づけるという、同社の強いコミットメントを裏付けるものです。

なお、共同創業者であり前CTOのサム・マキャンディッシュ氏は、Chief Architect(チーフアーキテクト)に就任しました。彼は、大規模モデルトレーニング、研究生産性、RL(強化学習インフラストラクチャといった根幹の研究開発分野に専念し、技術的な進化を引き続き主導します。

PowerSchool、SageMakerで実現した教育AI向けコンテンツフィルタリング

K-12教育特化AIの安全確保

K-12教育向けAIアシスタント「PowerBuddy」
歴史教育などでの誤検出(False Positive)を回避
いじめ・自傷行為の即時検知を両立させる必要性

SageMaker活用によるモデル育成

Llama 3.1 8BをLoRA技術で教育特化ファインチューニング
高い可用性とオートスケーリングを要件にSageMakerを採用
有害コンテンツ識別精度約93%、誤検出率3.75%未満

事業へのインパクトと将来性

学校現場での教師の負担を大幅に軽減
将来的にマルチアダプター推論で運用コストを最適化

教育分野向けのクラウドソフトウェア大手PowerSchoolは、AIアシスタント「PowerBuddy」の生徒安全を確保するため、AWSAmazon SageMaker AIを活用し、コンテンツフィルタリングシステムを構築しました。オープンな基盤モデルであるLlama 3.1を教育ドメインに特化してファインチューニングし、高い精度と極めて低い誤検出率を両立させ、安全な学習環境の提供を実現しています。

このソリューションが目指したのは「責任あるAI(Responsible AI)」の実現です。ジェネリックなAIフィルタリングでは、生徒が歴史的な戦争やホロコーストのような機微な学術的話題を議論する際に、誤って暴力的コンテンツとして遮断されるリスクがありました。同時に、いじめや自傷行為を示唆する真に有害な内容は瞬時に検知する必要があり、ドメイン特化の調整が不可欠でした。

PowerSchoolは、このカスタムモデルの開発・運用基盤としてAmazon SageMaker AIを選定しました。学生の利用パターンは学校時間帯に集中するため、急激なトラフィック変動に対応できるオートスケーリング機能と、ミッションクリティカルなサービスに求められる高い信頼性が決め手となりました。また、モデルの重みを完全に制御できる点も重要でした。

同社はLlama 3.1 8Bモデルに対し、LoRA(Low Rank Adaptation)技術を用いたファインチューニングをSageMaker上で行いました。その結果、教育コンテキストに特化した有害コンテンツ識別精度は約93%を達成。さらに、学術的な内容を誤って遮断する誤検出率(False Positive)を3.75%未満に抑えることに成功しました。

この特化型コンテンツフィルタリングの導入は、学生の安全を確保するだけでなく、教育現場に大きなメリットをもたらしています。教師はAIによる学習サポートにおいて生徒を常時監視する負担が減り、より個別指導に集中できるようになりました。現在、PowerBuddyの利用者は420万人以上の学生に拡大しています。

PowerSchoolは今後、SageMaker AIのマルチアダプター推論機能を活用し、コンテンツフィルターモデルの隣で、教育ドメインに特化した意思決定エージェントなど複数の小型言語モデル(SLM)を展開する計画です。これにより、個別のモデルデプロイが不要となり、専門性能を維持しつつ大幅なコスト最適化を目指します。

UCLAが光でAI画像を超高速生成、低消費電力とプライバシーを両立

光学AIの3大革新性

生成速度は光速レベルを達成
電子計算より低消費電力で稼働
デジタル情報を保護するプライバシー機能を搭載

技術構造と動作原理

デジタルとアナログのハイブリッド構造
光の位相パターンを利用したアナログ領域での計算
「知識蒸留」プロセスによる学習効率化
画像生成単一の光パスで実行(スナップショットモデル)

米カリフォルニア大学ロサンゼルス校(UCLA)の研究チームは、生成AIのエネルギー問題を解決する画期的な技術として、「光学生成モデル」を発表しました。電子ではなく光子を用いることで、AI画像生成光速レベルで実現し、従来の拡散モデルが抱える高い消費電力とCO2排出量の削減を目指します。この技術は、処理速度の向上に加え、強固なプライバシー保護機能も提供します。

学生成モデルは、デジタルプロセッサとアナログの回折プロセッサを組み合わせたハイブリッド構造です。まず、デジタル領域で教師モデルから学習したシード(光の位相パターン)を作成します。このシードにレーザー光を当て、回折プロセッサが一瞬でデコードすることで、最終的な画像を生成します。生成計算自体は、光を使ったアナログ領域で実行されるのが特徴です。

UCLAのAydogan Ozcan教授によると、このシステムは「単一のスナップショット」でエンドツーエンドの処理を完了します。従来の生成AIが数千ステップの反復を必要とするのに対し、光の物理を利用することで、処理時間が大幅に短縮され、電力効率が劇的に向上します。画質を向上させる反復モデルも開発されており、高い品質を実現しています。

本モデルの大きな利点の一つは、データのプライバシー保護能力です。デジタルエンコーダーから生成される位相情報は、人間には理解できない形式であるため、途中で傍受されても専用のデコーダーなしには解読できません。これにより、生成された情報を特定ユーザーのみが復号できる形で暗号化する仕組みを構築できます。

研究チームは、この技術をデジタルコンピュータエコシステム内の代替品ではなく、「視覚コンピューター」として位置づけています。特に、デバイスが直接人間の目に画像を投影するAR(拡張現実)やVR(仮想現実)システムにおいて、処理システムとして活用することで、クラウドからの情報伝達と最終的な画像生成を光速かつ高効率で実現できると期待されています。

OpenAI「Codex」一般提供開始、Slack連携とSDKで開発を加速

開発を加速する新機能

Slack連携によるタスクの直接委任
Codex SDKで独自のワークフローへ統合
環境制御・監視を行う管理者向けツール追加
CI/CD向けにGitHub Actionsも提供開始

実証された生産性向上

日常利用が8月以降10倍以上に急増
OpenAI社内PRマージ数が週70%増加
Ciscoは複雑なレビュー時間を最大50%削減
Instacartは技術的負債の自動クリーンアップを実現

OpenAIは、コード生成とレビューを支援するコーディングエージェントCodex」の一般提供(GA)開始を発表しました。これにより、新たなSlack連携機能やCodex SDKが提供され、開発チームは既存のワークフロー内でAIをシームレスに活用できるようになります。世界中のスタートアップや大企業で採用が進んでおり、開発効率の劇的な向上が期待されています。

Codexは研究プレビュー開始以来、飛躍的に進化し、日常利用は8月上旬から10倍以上に急増しました。OpenAI社内ではほぼ全てのエンジニアが利用しており、プルリクエスト(PR)のマージ数が週70%増加しています。さらに、Codexが自動でPRをレビューし、本番環境に到達する前に重大な問題点を検出するなど、コード品質維持にも貢献しています。

今回のGAにおける目玉は、エンジニアリングワークフローに直接組み込むための「Codex SDK」と「Slack連携」です。SDKを利用すれば、Codex CLIの核となる強力なエージェントを独自のツールやアプリに数行のコードで統合できます。また、Slackから直接Codexにタスクを委任できるため、チームコラボレーションを効率化します。

大規模導入を進める企業向けには、新しい管理者ツールが追加されました。これにより、ChatGPTワークスペース管理者は、クラウド環境の制御、ローカル利用における安全なデフォルト設定の適用が可能になります。加えて、利用状況やコードレビューの品質を追跡するための分析ダッシュボードが提供され、ガバナンスと監視が強化されます。

導入事例として、Ciscoでは複雑なプルリクエストのレビュー時間を最大50%削減し、エンジニアはより創造的な業務に集中できています。また、InstacartではCodex SDKを統合し、ワンクリックでのエンドツーエンドのタスク完了や、デッドコードなどの技術的負債を自動で解消し、コードベース全体のレイテンシ改善に役立っています。

Slack連携およびSDKは、ChatGPT Plus、Pro、Business、Edu、Enterpriseの各プランで利用可能です。管理者向け機能は、企業での利用を想定しBusiness、Edu、Enterpriseプランに限定されています。OpenAIは、Codexを通じて開発者生産性を根本から変革することを目指しています。

AWS、Bedrock AgentCoreの通信をVPC内で完結

セキュリティ強化の要点

VPCエンドポイントでプライベート接続
インターネットを介さない安全な通信
機密データを扱うAIエージェントに最適
AWS PrivateLink技術を活用

導入のメリット

通信遅延の削減とパフォーマンス向上
エンドポイントポリシーで厳格なアクセス制御
企業のコンプライアンス要件に対応
オンプレミスからのハイブリッド接続も可能

アマゾンウェブサービス(AWS)が、生成AIサービス「Amazon Bedrock」のAgentCore Gatewayへのセキュアな接続方法として、VPCインターフェイスエンドポイントを利用する手法を公開しました。これにより、企業はAIエージェントが扱う機密データの通信をインターネットから隔離し、セキュリティコンプライアンスを大幅に強化できます。

企業の自動化を推進するAIエージェントは、機密データや基幹システムにアクセスするため、本番環境での利用には通信経路のセキュリティ確保が不可欠です。パブリックインターネットを経由する通信は、潜在的なリスクを伴い、多くの企業のセキュリティポリシーや規制要件を満たすことが困難でした。

今回公開された手法では、「AWS PrivateLink」技術を活用したVPCインターフェイスエンドポイントを利用します。これにより、VPC(仮想プライベートクラウド)内で稼働するAIエージェントからAgentCore Gatewayへの通信が、AWSのプライベートネットワーク内で完結します。外部のインターネットを経由しないため、極めて安全な通信経路を確立できます。

プライベート接続の利点はセキュリティ強化に留まりません。AWSネットワーク内での直接接続により、通信の遅延が削減され、パフォーマンスが向上します。また、エンドポイントポリシーを設定することで、特定のゲートウェイへのアクセスのみを許可するなど、最小権限の原則に基づいた厳格なアクセス制御も可能です。

このVPCエンドポイントは、AIエージェントがツールを利用する際の「データプレーン」通信にのみ適用される点に注意が必要です。ゲートウェイの作成や管理といった「コントロールプレーン」操作は、引き続き従来のパブリックエンドポイントを経由して行う必要があります。この違いを理解しておくことが重要です。

このアーキテクチャは、オンプレミスのデータセンターからAIエージェントに安全にアクセスするハイブリッドクラウド構成や、複数のVPCをまたいだ大規模なシステムにも応用できます。企業は、自社の環境に合わせて柔軟かつスケーラブルなAI基盤を構築することが可能になります。

OpenAI、評価額5000億ドルで世界首位の未公開企業に

驚異的な企業価値

従業員保有株の売却で価値急騰
評価額5000億ドル(約75兆円)
未公開企業として史上最高額を記録

人材獲得競争と資金力

Metaなどへの人材流出に対抗
従業員への強力なリテンション策
ソフトバンクなど大手投資家が購入

巨額投資と事業拡大

インフラ投資計画を資金力で支える
最新動画モデル「Sora 2」も発表

AI開発のOpenAIが10月2日、従業員らが保有する株式の売却を完了し、企業評価額が5000億ドル(約75兆円)に達したことが明らかになりました。これは未公開企業として史上最高額であり、同社が世界で最も価値のあるスタートアップになったことを意味します。この株式売却は、大手テック企業との熾烈な人材獲得競争が背景にあります。

今回の株式売却は、OpenAI本体への資金調達ではなく、従業員や元従業員が保有する66億ドル相当の株式を現金化する機会を提供するものです。Meta社などが高額な報酬でOpenAIのトップエンジニアを引き抜く中、この動きは優秀な人材を維持するための強力なリテンション策として機能します。

株式の購入者には、ソフトバンクやThrive Capital、T. Rowe Priceといった著名な投資家が名を連ねています。同社は8月にも評価額3000億ドルで資金調達を完了したばかりであり、投資家からの絶大な信頼と期待が、その驚異的な成長を支えていると言えるでしょう。

OpenAIは、今後5年間でOracleクラウドサービスに3000億ドルを投じるなど、野心的なインフラ計画を進めています。今回の評価額の高騰は、こうした巨額投資を正当化し、Nvidiaからの1000億ドル投資計画など、さらなる戦略的提携を加速させる要因となりそうです。

同社は最新の動画生成モデル「Sora 2」を発表するなど、製品開発の手を緩めていません。マイクロソフトとの合意による営利企業への転換も視野に入れており、その圧倒的な資金力と開発力で、AI業界の覇権をさらに強固なものにしていくと見られます。

NVIDIA、クラウドゲーム強化 10月に新作17本投入

10月の新作ラインナップ

期待の新作『Battlefield 6』が登場
『リトルナイトメア3』など話題作多数
合計17本のゲームクラウドで提供
ホラーからシミュレーションまで多彩なジャンル

サービスとインフラ強化

RTX 5080級サーバーを順次拡大
マイアミとワルシャワでアップグレード完了
『inZOI』などRTX 5080対応タイトルも
高品質なゲーム体験の追求

NVIDIAは2025年10月2日、同社のクラウドゲーミングサービス「GeForce NOW」に10月中に17本の新作ゲームを追加すると発表しました。期待のシューター『Battlefield 6』を含む大型タイトルが揃い、サービスを拡充します。同時に、最新GPUを搭載したサーバーインフラの強化も進めており、ユーザー体験の向上を図ります。

10月のラインナップの目玉は、世界的に人気のシューティングゲーム最新作『Battlefield 6』です。このほかにも、ホラーアドベンチャーの『リトルナイトメア3』や『Vampire: The Masquerade – Bloodlines 2』など、多様なジャンルの話題作が月を通じて順次提供される予定です。

ゲーム体験の質を高めるため、インフラ投資も加速させています。最新のGeForce RTX 5080クラスの性能を持つサーバーへのアップグレードを世界各地で進めており、新たにマイアミとワルシャワでの導入が完了。今後はポートランドやアッシュバーンなどにも展開されます。

RTX 5080の強力なグラフィックス性能を最大限に活かすタイトルも増えています。リアルな描写で話題の『inZOI』や、大規模戦闘が特徴の『Total War: Warhammer III』などが既に対応しており、ユーザーは最高品質の設定でこれらのゲームを楽しむことが可能です。

また、今週すぐプレイ可能になるタイトルとして、『Train Sim World 6』や『Alien: Rogue Incursion Evolved Edition』など6本が追加されました。NVIDIAは継続的なコンテンツ拡充とインフラ投資の両輪で、クラウドゲーミング市場での競争力を高めています。

Pixel 10 Pro、AIで100倍ズームを実現

Pro Res Zoomとは

Pixel 10 Pro搭載の新ズーム技術
AIで100倍ズームを実現
Tensor G5チップ高速処理

AIによる画質向上

単なるデジタルズームではない
生成AIが欠落情報を補完
ノイズ除去とシャープ化を両立
デバイス上数秒で完結

Googleが、次期スマートフォン「Pixel 10 Pro」に搭載される新たなAIカメラ技術「Pro Res Zoom」を発表しました。この技術は、生成AIを活用して最大100倍のズーム撮影でも鮮明な画質を実現するものです。遠くの被写体を、これまでにないほど詳細に捉えることが可能になります。

Pro Res Zoomの核心は、単なる画像の切り出しと拡大(デジタルズーム)ではない点にあります。撮影データから色や形といった僅かな手がかりを基に、AIが欠落したディテールを生成・補完します。これにより、従来のズーム機能ではぼやけてしまっていた被写体も、驚くほど鮮明な一枚の写真として仕上がります。

この高度な処理は、最新の「Tensor G5」チップによってデバイス上で直接実行されます。最先端の拡散モデル(diffusion model)を数秒で動作させ、ノイズ除去とシャープ化を同時に行います。クラウドにデータを送ることなく、手元で高速に処理が完結するのが大きな特徴です。

この新技術は、ユーザーにどのような価値をもたらすのでしょうか。例えば、遠くにいる野生動物や、スポーツ観戦中の選手の表情など、これまで諦めていたシーンの撮影が可能になります。Pixel 9 Proの「Super Res Zoom」が最大30倍だったのに対し、100倍という圧倒的なズーム性能は、スマートフォンの写真撮影の常識を覆す可能性を秘めています。

Googleの取り組みは、生成AIがクラウド上のサービスから、スマートフォンという日常的なデバイスへと活躍の場を広げていることを示しています。カメラ機能の進化は、AIがもたらすユーザー体験向上の好例と言えるでしょう。

AIインフラ強化へ、Anthropicが新CTOを招聘

新体制の狙い

Stripe CTOのRahul Patil氏が就任
AIインフラ推論チームを統括
創業者大規模モデル開発に専念
製品とインフラ部門の連携強化

激化する開発競争

競合は巨額のインフラ投資を継続
Claude利用急増による負荷増大
速度と電力効率の両立が急務
企業向けサービスの信頼性向上

AI開発企業Anthropicは10月2日、元Stripeの最高技術責任者(CTO)であるRahul Patil氏を新しいCTOとして迎え入れたと発表しました。競争が激化するAIインフラ分野を強化し、自社製品「Claude」の急成長に対応するのが狙いです。共同創業者のSam McCandlish氏はチーフアーキテクトとして、大規模モデル開発に専念します。

新体制では、Patil氏がコンピューティング、インフラ推論といった技術部門全体を統括します。製品エンジニアリングチームとインフラチームをより密接に連携させることで、開発体制の効率化を図ります。一方、CTO職を退いたMcCandlish氏は、モデルの事前学習や大規模トレーニングに集中し、技術の最前線を切り開く役割を担います。

今回の経営陣刷新の背景には、AI業界における熾烈なインフラ開発競争があります。OpenAIMetaなどが計算資源の確保に巨額の資金を投じており、Anthropicインフラの最適化と拡張が喫緊の課題となっていました。

Anthropic自身も、主力AI「Claude」の利用者が急増し、インフラに大きな負荷がかかるという課題に直面していました。同社は7月、一部ヘビーユーザーの利用を受け、APIの利用制限を導入した経緯があります。安定したサービス提供には、インフラの抜本的な強化が不可欠でした。

Patil氏は、Stripeで5年間技術職を務めたほか、Oracleクラウドインフラ担当上級副社長、AmazonMicrosoftでもエンジニアリング職を歴任しました。この20年以上にわたる豊富な経験は、特に企業が求める信頼性の高いインフラを構築・拡張する上で大きな強みとなるでしょう。

AnthropicのDaniela Amodei社長は「Rahul氏は企業が必要とする信頼性の高いインフラを構築・拡張してきた実績がある」と期待を寄せます。Patil氏自身も「AI開発のこの極めて重要な時期に参加できることに興奮している。これ以上の使命と責任はない」と述べ、新天地での貢献に意欲を見せています。

高性能LLMをローカルPCで、NVIDIAが活用ガイド公開

RTXでLLMを高速化

プライバシーと管理性をローカル環境で確保
サブスクリプション費用が不要
RTX GPU推論を高速化
高品質なオープンモデルを活用

主要な最適化ツール

簡単操作のOllamaで手軽に開始
多機能なLM Studioでモデルを試用
AnythingLLMで独自AIを構築
これらツールのパフォーマンス向上を実現

NVIDIAは、同社のRTX搭載PC上で大規模言語モデル(LLM)をローカル環境で実行するためのガイドを公開しました。プライバシー保護やサブスクリプション費用の削減を求める声が高まる中、OllamaやLM Studioといったオープンソースツールを最適化し、高性能なAI体験を手軽に実現する方法を提示しています。これにより、開発者や研究者だけでなく、一般ユーザーによるLLM活用も本格化しそうです。

これまでクラウド経由が主流だったLLMですが、なぜ今、ローカル環境での実行が注目されるのでしょうか。最大の理由は、プライバシーとデータ管理の向上です。機密情報を外部に出すことなく、手元のPCで安全に処理できます。また、月々の利用料も不要で、高品質なオープンモデルが登場したことも、この流れを後押ししています。

手軽に始めるための一つの選択肢が、オープンソースツール「Ollama」です。NVIDIAはOllamaと協力し、RTX GPU上でのパフォーマンスを大幅に向上させました。特にOpenAIgpt-oss-20BモデルやGoogleのGemma 3モデルで最適化が進んでおり、メモリ使用効率の改善やマルチGPU対応も強化されています。

より専門的な利用には、人気のllama.cppを基盤とする「LM Studio」が適しています。こちらもNVIDIAとの連携で最適化が進み、最新のNVIDIA Nemotron Nano v2モデルをサポート。さらに、推論を最大20%高速化するFlash Attentionが標準で有効になるなど、RTX GPUの性能を最大限に引き出します。

ローカルLLMの真価は、独自のAIアシスタント構築で発揮されます。例えば「AnythingLLM」を使えば、講義資料や教科書を読み込ませ、学生一人ひとりに合わせた学習支援ツールを作成できます。ファイル数や利用期間の制限なく対話できるため、長期間にわたる文脈を理解した、よりパーソナルなAIが実現可能です。

NVIDIAの取り組みは汎用ツールに留まりません。ゲームPCの最適化を支援するAIアシスタント「Project G-Assist」も更新され、音声やテキストでラップトップの設定を直接変更できるようになりました。AI技術をより身近なPC操作に統合する試みと言えるでしょう。このように、RTX PCを基盤としたローカルAIのエコシステムが着実に拡大しています。

プライバシーを確保しつつ、高速かつ低コストでAIを動かす環境が整いつつあります。NVIDIAの推進するローカルLLM活用は、経営者エンジニアにとって、自社のデータ資産を活かした新たな価値創出の好機となるでしょう。

MS、AI統合新プラン発表 ChatGPTと同額でOfficeも

新プラン「M365 Premium」

OfficeとAIを統合した新プラン
Copilot ProとM365 Familyを統合
月額19.99ドルで提供

ChatGPT Plusに対抗

ChatGPT Plusと同額で提供
Officeアプリと1TBストレージが付属
生産性アプリとのシームレスな連携が強み

職場利用も可能に

個人契約で職場のOfficeもAI対応
企業データは保護され安全性も確保

Microsoftは2025年10月1日、AIアシスタントCopilot Pro」と生産性スイート「Microsoft 365 Family」を統合した新サブスクリプションプラン「Microsoft 365 Premium」を発表しました。月額19.99ドルという価格は、競合するOpenAIの「ChatGPT Plus」と同額に設定。Officeアプリと高度なAI機能をバンドルすることで、個人の生産性向上市場での覇権を狙います。

この新プランは、個人事業主や高い生産性を求めるプロフェッショナルを主なターゲットとしています。WordやExcelなどのOfficeデスクトップアプリの利用権(最大6人)、1人あたり1TBのクラウドストレージに加え、GPT-4oによる画像生成などCopilot Proの全機能が含まれます。Microsoftは「競合と比較して否定できない価値がある」と自信を見せています。

月額19.99ドルという価格設定は、明らかにChatGPT Plusを意識したものです。OpenAIが汎用的なAI機能で先行する一方、Microsoftは「生産性は我々のDNAだ」と述べ、Officeアプリに深く統合されたAI体験を強みとしています。使い慣れたツール内でシームレスにAIを活用できる点が、最大の差別化要因となるでしょう。

特に注目すべきは、個人契約のAI機能を職場で利用できる仕組みです。個人としてM365 Premiumを契約していれば、職場のPCにインストールされたOfficeアプリでもAI機能が有効になります。企業のデータは個人のアカウントと分離され、セキュリティコンプライアンスは維持されるため、IT管理者も安心して導入を検討できます。

この新プランの導入に伴い、単体の「Copilot Pro」は新規販売が停止されます。Microsoftは、AI機能をOfficeスイートと一体化させる戦略を鮮明にしました。既存のPersonalおよびFamilyプラン加入者にも一部のAI機能が解放されるなど、同社のサブスクリプション体系は、AIを核として大きく再編されつつあります。

AWSのAI活用、ハパックロイドが海運予測精度12%向上

従来の課題

リアルタイム性に欠ける静的な統計予測
天候や港湾混雑など複雑な変動要因
大量の過去データとリアルタイム情報の統合

AIによる解決策

航海区間ごとの4つの専門MLモデル
Amazon SageMakerによる堅牢なMLOps基盤
バッチとAPIによるハイブリッド推論構成

導入成果

予測の平均絶対誤差が12%改善
信頼性ランキングで平均2位上昇

ドイツの海運大手ハパックロイド社が、AWS機械学習プラットフォーム「Amazon SageMaker」を活用し、船舶運航のスケジュール予測を革新しました。新しいMLアシスタントは、予測の平均絶対誤差を従来比で約12%改善。業界の重要指標であるスケジュール信頼性を向上させ、国際ランキングを平均2つ押し上げる成果を上げています。

従来は過去の統計計算に依存し、港湾の混雑や天候などリアルタイムの変動要因を考慮できませんでした。特に2021年のスエズ運河座礁事故のような不測の事態では、手動での大幅な計画修正が不可避となり、業務効率の低下を招いていました。

新システムは航海の区間ごとに専門MLモデルを構築し、それらを統合する階層的アプローチを採用。これにより、予測の透明性を保ちつつ、複雑な要因を織り込んだ高精度なETA(到着予定時刻)の算出を可能にしました。

モデル学習には社内運航データに加え、船舶位置を追跡するAISデータなどリアルタイムの外部データを統合。SageMakerのパイプライン機能でデータ処理からモデル学習、デプロイまでを自動化し、継続的な精度改善を実現しています。

推論は、夜間バッチ処理とリアルタイムAPIを組み合わせたハイブリッド構成です。99.5%の高い可用性を保ちながら、API応答時間を従来比80%以上高速化。オペレーターが対話的に利用する際の操作性も大幅に向上させました。

本件はAIとクラウドが物流の課題を解決する好例です。データに基づく高精度な予測は顧客への品質保証を強化し、競争優位性を確立します。自社の業務にAIをどう組み込み、生産性・収益性を高めるか、そのヒントがここにあります。

AWSのAI、NBAに新次元の観戦体験を提供

AIが生む新たなバスケ指標

選手の29の身体部位を追跡
AIによるシュート難易度の数値化
選手のコート貢献度「Gravity」
ディフェンスに特化した新指標導入

テクノロジーで変わる観戦

試合中継やアプリで新データ提供
プレー映像を瞬時に検索可能に
より深いファンエンゲージメントへ

Amazon Web Services (AWS)は、2025-2026シーズンから、全米プロバスケットボール協会(NBA)の試合でAIを活用した新たなリアルタイム統計を提供します。この取り組みは、選手の動きを詳細に分析し、これまで数値化できなかったプレーの側面を可視化することで、ファンに全く新しい観戦体験をもたらすことを目的としています。

新技術の中核をなすのは、コート上の全選手の29の身体部位を追跡するシステムです。収集された膨大な運動データをAWSのAIがリアルタイムで解析。「これまで測定不可能だったバスケットボールの側面を捉える」ことを可能にし、より深く、多角的な試合分析を実現します。

これにより、ファンは「シュートの難易度」といった新しい指標に触れられるようになります。単にシュートが成功したか否かだけでなく、選手の体勢やディフェンダーの位置などを加味して、そのシュートがいかに困難だったかを客観的に評価します。また、成功確率を予測する「期待フィールドゴール成功率」も算出されます。

さらに、「グラビティ」と呼ばれる指標は、個々の選手がボールを持っていない時でも、いかに味方のためにスペースを作り出し、チームに貢献しているかを数値化します。ディフェンダーに特化した「ディフェンス・スコアボックス」も導入され、守備面の評価もより詳細になるのです。

これらの新しい統計データは、試合の生中継やNBAの公式アプリ、ウェブサイト上で提供されます。さらに「Play Finder」という新ツールを使えば、ファンは膨大な試合映像から特定のプレーを瞬時に検索できるようになり、エンゲージメントの向上が期待されます。

この取り組みは、2024年にAmazonとNBAが締結した11年間のメディア放映権契約の一環です。この契約によりAWSはNBAの公式クラウドおよびAIパートナーとなり、Prime Videoでの試合配信に加え、テクノロジー面でも連携を深めています。

Hance、KB級AI音声処理でエッジ市場に革新

驚異の超小型・高速AI

モデルサイズは僅か242KB
遅延10ミリ秒のリアルタイム性
電力で多様なデバイスに対応

F1からインテルまで

F1公式無線サプライヤーが採用
Intelの最新チップNPUへ最適化
防衛・法執行分野への応用
大手スマホメーカーとも協議中

ノルウェーのスタートアップHanceが、キロバイト級の超小型AI音声処理ソフトウェアを開発しました。クラウドを介さずデバイス上で動作し、わずか10ミリ秒の低遅延でノイズ除去や音声の明瞭化を実現。すでにF1の公式無線サプライヤーやIntelといった大企業を顧客に持ち、10月27日から開催されるTechCrunch Disrupt 2025でデモを披露します。

この技術の核心は、わずか242KBという驚異的なモデルサイズにあります。これにより、スマートフォンや無線機など、リソースが限られたエッジデバイス上でのリアルタイム処理が可能になりました。従来のクラウドベースのAIと異なり、通信遅延や消費電力を大幅に削減できる点が大きな強みです。

HanceのAIモデルは、共同創業者が運営する高品質なサウンドライブラリ「Soundly」の音源を用いてトレーニングされました。F1マシンの轟音から火山の噴火音まで、多種多様なデータを学習させることで、過酷な環境下でも特定の音声を分離し、ノイズやエコー、反響を除去する高い性能を達成しています。

その実用性はすでに証明されています。F1チームが使用する無線システムを手がけるRiedel Communicationsは、高速走行中のドライバーとエンジニア間の極めて重要な通信をクリアにするため、Hanceの技術を採用。他にも、防衛や法執行機関といった、リアルタイム性と信頼性が求められる分野からの関心も高まっています。

Hanceは事業拡大を加速させています。半導体大手Intelとは、同社の最新チップ「NPU(ニューラル・プロセッシング・ユニット)」向けにモデルを最適化するパートナーシップを締結。他のチップメーカーや、非公開のスマートフォンメーカーとも協議を進めており、競争優位を保つため、研究開発に注力し続ける方針です。

Google Drive、AIでランサムウェア被害を未然防止

AIによるリアルタイム検知

数百万のサンプルで訓練したAI
ファイルの一括暗号化などの兆候を検知
VirusTotalの脅威情報で継続学習

被害拡大を防ぐ仕組み

異常検知時に同期を自動停止
ユーザーへのデスクトップ通知
ファイルのバージョン復元機能

機能の対象と限界

Windows/macOSのデスクトップ版
Drive内のファイルのみが対象

Googleは2025年9月30日、デスクトップ版「Google Drive」にAIを活用したランサムウェア検出機能を導入したと発表しました。この新機能は、ファイルの不審な変更をリアルタイムで検知し、クラウドとの同期を自動停止することで被害拡大を未然に防ぎます。現在オープンベータとして提供されており、企業のデータ保護を強化する狙いです。

この機能の核となるのは、数百万件もの実際のランサムウェアサンプルで訓練された専門のAIモデルです。AIは、ファイルが短時間に一括で暗号化・破損されるといった、ランサムウェア特有の悪意ある活動の「兆候」を監視します。これにより、従来型の対策では見逃しがちな未知の脅威にも対応可能となります。

ランサムウェア攻撃の疑いを検知すると、システムは即座に影響を受けたファイルの同期を自動停止します。これにより、他のデバイスや組織全体への感染拡大を食い止めます。同時に、ユーザーのデスクトップとメールアドレスに警告通知が送られ、迅速な対応を促す仕組みです。

ユーザーは通知を受けた後、簡単な操作で影響を受けたファイルを攻撃前の健全なバージョンに復元できます。これにより、身代金を支払うことなくデータを回復できる可能性が高まり、事業への影響を最小限に抑えることが期待されます。まさに、万が一の事態に備える「セーフティネット」と言えるでしょう。

ただし、この強力な機能にも限界はあります。保護対象はWindowsおよびmacOSのデスクトップ版アプリで同期しているファイルに限定され、Google Drive外に保存されたデータは守られませんMicrosoft OneDriveなど競合他社も同様の機能を提供しており、自社の環境に最適なツール選択が重要です。

ランサムウェア攻撃は年々巧妙化し、2024年には世界で5,000件以上が報告されるなど、企業にとって深刻な脅威です。今回のGoogleの取り組みは、AIを活用してデータを守る新たな一手であり、多層的なセキュリティ対策の一環として非常に価値が高いと言えるでしょう。

対話型AIの倫理と収益化、CEOが語る最前線

CEOが語る最前線の論点

人間のようなAIコンパニオンの台頭
対話型AIの倫理と法的課題
規制圧力下でのイノベーション戦略
AIのスケーリングと収益化の実態

イベントと登壇者の概要

TechCrunch Disrupt 2025
Character.AIのCEOが登壇
Meta、MS出身のAI専門家
月間ユーザー2000万人を達成

対話型AIプラットフォーム「Character.AI」の最高経営責任者(CEO)であるカランディープ・アナンド氏が、2025年10月にサンフランシスコで開催される世界的な技術カンファレンス「TechCrunch Disrupt 2025」に登壇します。同氏は、人間のようなAIコンパニオンの爆発的な成長の背景にある技術や、それに伴う倫理的・法的な課題、そしてビジネスとしての収益化戦略について、その内幕を語る予定です。

セッションでは、AIが人間のように自然な対話を行うことを可能にした技術的ブレークスルーが紹介されます。一方で、人間とコンピューターの相互作用の境界線を押し広げることで生じる倫理的な問題や社会的な監視、さらには進行中の法的な課題に同社がどう向き合っているのか、規制圧力下でのイノベーション戦略についても踏み込んだ議論が期待されます。

アナンド氏は、Meta社でビジネス製品部門を、Microsoft社ではAzureクラウドの製品管理を率いた経歴を持ちます。その豊富な経験を活かし、Character.AIのCEOとして長期戦略を指導。プラットフォームは現在、全世界で月間2000万人のアクティブユーザーを抱えるまでに成長しており、動画生成など新たな領域への拡大も進めています。

この講演は、AIを活用する経営者投資家エンジニアにとって、対話型AIの構築、拡大、収益化の現実を学ぶ絶好の機会となるでしょう。AIと人間の相互作用の未来について、示唆に富んだ視点と実践的な洞察が得られるはずです。AIビジネスの最前線で何が起きているのか、その答えがここにあります。

AIチップCerebras、IPO計画遅延も11億ドル調達

大型資金調達の概要

Nvidiaのライバルが11億ドルを調達
企業評価額81億ドルに到達
Fidelityなどがラウンドを主導
累計調達額は約20億ドル

成長戦略とIPOの行方

AI推論サービスの需要が急拡大
資金使途はデータセンター拡張
米国製造拠点の強化も推進
規制審査でIPOは遅延、時期未定

NVIDIAの競合である米Cerebras Systemsは9月30日、11億ドルの資金調達を発表しました。IPO計画が遅延する中、急拡大するAI推論サービスの需要に対応するため、データセンター拡張などに資金を充当します。

今回のラウンドはFidelityなどが主導し、企業評価額81億ドルと評価されました。2021年の前回ラウンドから倍増です。2015年設立の同社は、累計調達額が約20億ドルに達し、AIハードウェア市場での存在感を一層高めています。

資金調達の背景は「推論」市場の爆発的成長です。2024年に開始したAI推論クラウドは需要が殺到。アンドリュー・フェルドマンCEOは「AIが実用的になる転換点を越え、推論需要が爆発すると確信した」と語り、事業拡大を急ぎます。

調達資金の主な使途はインフラ増強です。2025年だけで米国内に5つの新データセンターを開設。今後はカナダや欧州にも拠点を広げる計画です。米国内の製造ハブ強化と合わせ、急増する需要に対応する供給体制を構築します。

一方で、同社のIPO計画は足踏み状態が続いています。1年前にIPOを申請したものの、アブダビのAI企業G42からの投資米国外国投資委員会(CFIUS)の審査対象となり、手続きが遅延。フェルドマンCEOは「我々の目標は公開企業になることだ」と述べ、IPOへの意欲は変わらないことを強調しています。

今回の大型調達は、公開市場の投資家が主導する「プレIPOラウンド」の性格を帯びており、市場環境を見極めながら最適なタイミングで上場を目指す戦略とみられます。AIインフラ競争が激化する中、Cerebrasの今後の動向が注目されます。

TC Disrupt 2025、豪華議題と割引パス公開

注目の登壇者とセッション

Netflix CTO登壇、AI時代の戦略
Sequoia代表が語るVCの未来
Alphabet X責任者が明かす次の一手
Waymo共同CEOが語る自動運転の現実
賞金10万ドルのピッチ大会開催

創業者・投資家向け特典

10月3日までの期間限定グループ割引
創業者グループは15%割引
投資家グループは20%割引
VCと繋がるマッチング機会

米TechCrunchは、2025年10月27日から29日にサンフランシスコで開催する旗艦イベント「TechCrunch Disrupt 2025」の主要議題と、創業者投資家向けの期間限定割引パスを発表しました。NetflixのCTOやSequoia Capitalの代表など、業界を牽引するリーダーが登壇し、AIやベンチャーキャピタルの未来について議論します。

今年のDisrupt Stageには、豪華なスピーカーが顔を揃えます。Alphabetでムーンショット部門を率いるアストロ・テラー氏、NetflixのCTOエリザベス・ストーン氏、Sequoia CapitalのRoelof Botha氏、そして著名投資家Vinod Khosla氏などが登壇予定です。AI、自動運転、クラウドなど、テクノロジーの最前線が語られるセッションは、経営者エンジニアにとって見逃せない機会となるでしょう。

イベントの目玉の一つが、恒例のスタートアップピッチ大会「Startup Battlefield 200」です。TechCrunchが厳選した200社のアーリーステージスタートアップが、賞金10万ドル(株式譲渡不要)をかけて競います。審査員にはトップクラスのVCが名を連ねており、次世代のユニコーンが生まれる瞬間を目撃できるかもしれません。

また、10月3日までの期間限定で、創業者投資家向けのグループ割引パスが提供されます。4名から9名の創業者グループは15%割引、同人数の投資家グループは従来の15%から引き上げられた20%割引が適用されます。この機会を逃すと、同様の割引は提供されない予定です。

Disruptは、単なるカンファレンスではありません。参加者には、VCとの個別ミーティングが設定されるなど、貴重なネットワーキングの機会が用意されています。特に「Deal Flow Cafe」では、投資家創業者が非公式に交流でき、新たな資金調達提携に繋がる可能性があります。ビジネスの成長を加速させたいリーダーにとって、価値ある3日間となるはずです。

AIがサイバー攻撃を激化、攻防一体の新時代へ

AIがもたらす新たな脅威

プロンプトによる攻撃の自動化
AIツールが新たな侵入口
AIを悪用したサプライチェーン攻撃
AIが生成する脆弱なコードの増加

企業に求められる防衛策

開発初期からのセキュリティ設計
CISO主導の組織体制構築
顧客データを守るアーキテクチャ
AIを活用した能動的な防御

クラウドセキュリティ大手Wiz社のCTOが、AIによるサイバー攻撃の変容に警鐘を鳴らしました。攻撃者はAIで攻撃を自動化し、開発現場ではAIが新たな脆弱性を生むなど、攻防両面で新時代に突入しています。企業に求められる対応策を解説します。

攻撃者は今や、AIに指示を出す「プロンプト」を使って攻撃を仕掛けてきます。「企業の秘密情報をすべて送れ」といった単純な命令で、システムを破壊することも可能です。攻撃コード自体もAIで生成され、攻撃のスピードと規模はかつてないレベルに達しています。

一方で、開発の現場でもAIは新たなリスクを生んでいます。AIが生成するコードは開発速度を飛躍的に向上させますが、セキュリティが十分に考慮されていないことが少なくありません。特にユーザー認証システムの実装に不備が見られやすく、攻撃者に新たな侵入口を与えてしまうケースが頻発しています。

企業が業務効率化のために導入するAIツールが、サプライチェーン攻撃の温床となっています。AIチャットボットが侵害され、顧客の機密データが大量に流出した事例も発生しました。サードパーティのツールを介して、企業の基幹システムへ侵入される危険性が高まっています。

脅威に対抗するため、防御側もAI活用が不可欠です。Wiz社は開発初期の脆弱性修正や、稼働中の脅威検知などでAIを活用しています。AIの攻撃にはAIで対抗する、能動的な防御態勢の構築が急務と言えるでしょう。

Wiz社のCTOは、特にAI関連のスタートアップに対し、創業初日から最高情報セキュリティ責任者(CISO)を置くべきだと強く推奨しています。初期段階からセキュアな設計を組み込むことで、将来の「セキュリティ負債」を回避し、顧客からの信頼を得られると指摘します。

韓国、国策AIで世界に挑む 官民で打倒OpenAI

国策AIプロジェクト始動

政府が5300億ウォン投資
国内大手・新興5社を選抜
半年毎の評価で2社に絞込
海外技術への依存脱却が狙い

各社の独自戦略

LG: 高品質な産業データ活用
SKT: 通信インフラと連携
Naver: 自社サービスにAIを統合
Upstage: 専門分野特化で差別化

韓国政府が、米国OpenAIGoogleなどに対抗するため、自国製AI開発に本格的に乗り出しました。科学技術情報通信省は先月、国内企業5社に総額5300億ウォン(約580億円)を投じる国家AIプロジェクトを発表。外国技術への依存を減らし、データ主権と国家安全保障を確保するのが狙いです。官民一体で独自のAIエコシステム構築を目指します。

プロジェクトに選ばれたのは、LG AI Research、SK Telecom、Naver Cloud、NC AI、そしてスタートアップのUpstageの5社です。政府は半年ごとに各社の進捗を評価し、成果の低い企業を脱落させる一方、有望な企業への支援を継続します。最終的には2社に絞り込み、国家を代表するAI開発を牽引させるという厳しい競争原理を導入しました。

中でも注目されるのが、韓国最大のインターネット企業Naverです。同社は自社開発のLLM「HyperCLOVA X」を、検索、ショッピング、地図といった国民的サービスに統合しています。モデル開発からデータセンタークラウド、アプリまで一気通貫で手がける「AIフルスタック」を強みに、生活への浸透を図ります。

財閥系も独自の強みで対抗します。LG AI Researchは、製造業やバイオといったBtoB領域の高品質な専門データを活用し、汎用モデルとの差別化を狙います。通信最大手のSK Telecomは、膨大な顧客基盤と通信インフラを活かし、個人向けAIエージェント「A.」の普及を加速させています。

唯一のスタートアップとして選ばれたUpstageは、コスト効率と特定分野への特化で勝負します。同社の「Solar Pro 2」は、パラメータ数を抑えつつも韓国語性能でグローバルモデルを凌駕。金融や法律といった専門分野に特化したモデルを開発し、ビジネスでの実用性を追求しています。

韓国企業の共通点は、巨大資本を持つ米国勢との単純な規模の競争を避け、韓国語と文化への深い理解、そして質の高いデータを武器にしている点です。この官民一体の「選択と集中」戦略が、世界のAI覇権争いに一石を投じることができるか。その動向が注目されます。

OpenAI拡張へ、AIデータセンターに巨額投資

AI覇権狙う巨額投資

NvidiaOpenAI最大1000億ドル投資
新AIデータセンター5拠点の建設計画
Oracle資金調達180億ドルの社債発行

次世代AI開発の布石

将来版ChatGPT計算能力を確保
新機能提供のリソース制約が背景
AIサービスの安定供給事業拡大が狙い

NvidiaOracleSoftbankなどのシリコンバレー大手企業が、OpenAIのAI開発能力を強化するため、AIデータセンターに数千億ドル規模の巨額投資を行っていることが明らかになりました。この動きは、将来版ChatGPTなど、より高度なAIモデルのトレーニングとサービス提供に必要な計算能力を確保するもので、AIインフラを巡る覇権争いが激化していることを示しています。

中でも注目されるのが、半導体大手Nvidiaによる投資です。同社はOpenAIに対し、最大で1000億ドル(約15兆円)を投じる計画を発表しました。これはAIの計算処理に不可欠なGPUを供給するだけでなく、OpenAIとの関係を強化し、AIエコシステムの中心に位置し続けるための戦略的な一手と見られます。

一方、OpenAI自身もインフラ増強を加速させています。同社はOracleおよびSoftbank提携し、「Stargateスターゲイト」と名付けられたAIスーパーコンピューターを含む、5つの新しいデータセンターを建設する計画です。これにより、今後数年間でギガワット級の新たな計算能力が確保される見込みです。

この巨大プロジェクトを資金面で支えるのがOracleです。同社はデータセンター建設費用を賄うため、180億ドル(約2.7兆円)という異例の規模の社債を発行しました。クラウド事業で後れを取っていたOracleにとって、OpenAIとの提携はAIインフラ市場での存在感を一気に高める好機となっています。

なぜこれほど大規模な投資が必要なのでしょうか。その背景には、OpenAIが直面する計算能力の制約があります。同社が最近発表した新機能「Pulse」は、ユーザーに合わせた朝のブリーフィングを自動生成しますが、膨大な計算量を要するため、現在は月額200ドルの最上位プラン加入者のみに提供が限定されています。

今回の一連の投資は、単なる設備増強にとどまりません。AIが社会インフラとなる未来を見据え、その基盤を誰が握るのかという、IT大手による壮大な主導権争いの表れと言えるでしょう。これらの投資が、どのような革新的なAIサービスを生み出すのか、世界が注目しています。

NVIDIAクラウドゲーム強化、人気メカアクションなど10作追加

NVIDIAは今週、クラウドゲーミングサービス「GeForce NOW」に新作メカアクション『Mecha BREAK』など10タイトルを追加しました。最新描画技術「DLSS 4」に対応し、高品質なストリーミング体験を提供します。また、『Alan Wake 2』などがGeForce RTX 5080対応となり、LG電子との連携も発表されるなど、サービス全体の強化が進んでいます。 新たに追加された『Mecha BREAK』は、多様なメカを操りチーム対戦を繰り広げるマルチプレイヤーゲームです。DLSS 4技術により、クラウド経由でも鮮明なビジュアルと滑らかなフレームレートを実現。デバイスを問わず、いつでもどこでも迫力あるアクションを楽しめる点が大きな魅力です。 カプコンの人気法廷ゲーム『逆転裁判123 成歩堂セレクション』も対応しました。シリーズ初期3作品を収録し、デバイスを問わず手軽に法廷バトルを楽しめます。このほかPC Game Pass対応の新作など計10タイトルが今週追加され、ゲームの選択肢がさらに広がりました。 高性能ストリーミングも強化しており、新たに『Alan Wake 2』などがGeForce RTX 5080サーバー対応タイトルに追加されました。最高峰のグラフィックス性能を要求するゲームも、クラウドを通じて快適にプレイできます。ユーザーは手元のデバイス性能に依存せず最新ゲームを楽しめるのが利点です。 ハードウェアとの連携も進んでいます。LG電子は、世界で初めてGeForce NOWの4K 120fpsストリーミングにネイティブ対応したOLEDテレビを発表しました。これを記念したキャンペーンも実施しており、クラウドゲーミングがリビングの大画面でより手軽に楽しめる環境が整いつつあります。

マイクロソフト、イスラエル軍へのクラウド提供停止 パレスチナ人監視利用で

マイクロソフトは2025年9月25日、イスラエル国防省の一部門に対し、クラウドサービス「Azure」と一部AIサービスの提供を停止したと発表しました。内部調査の結果、同社の技術がパレスチナ人の通話データを監視・保存するために利用されていたことが判明したためです。この決定は「民間人の大量監視を助長しない」という同社の原則に基づくもので、大手テック企業が国家の利用方法を問題視し、契約を打ち切る異例の対応となります。 同社のブラッド・スミス副会長はブログで「我々はこの原則を世界中の国で適用してきた」と強調しました。顧客のプライバシー保護のため通常は利用内容を確認できませんが、8月の英ガーディアン紙の報道が調査のきっかけになったと説明。報道がなければ問題を認識できなかったとし、その重要性を認めました。 問題視されたのは、イスラエル軍の諜報部門「ユニット8200」による利用です。同部門はパレスチナ人の通話データを監視・収集し、その膨大なデータをAzureのクラウドストレージに保管していたと報じられていました。マイクロソフトは、この利用が標準的な利用規約に違反すると判断しました。 この問題を巡り、マイクロソフトは社内外から厳しい批判にさらされていました。イスラエルとの契約に反対する従業員による抗議活動が頻発し、幹部のオフィスでの座り込みや、抗議を理由とした従業員の解雇といった事態にも発展していました。今回の決定は、こうした圧力も背景にあるとみられます。 今回の決定は、AIやクラウドを提供する企業が、技術の利用方法についてより強い倫理的責任を負うことを示唆します。顧客が国家機関であっても、倫理規定に反すればサービスを停止するという厳しい姿勢は、他のテック企業にも影響を与える可能性があります。技術の意図せぬ利用リスクをどう管理するかが、今後の大きな課題となるでしょう。

OpenAI巨額契約の資金源、循環投資モデルに専門家が警鐘

クラウド大手のオラクルが、150億ドル(約2.1兆円)規模の社債発行を計画していることが報じられました。これはAI開発をリードするOpenAIとの年間300億ドル規模の歴史的なインフラ契約などに対応する動きです。一連の巨額取引は、投資資金が還流する「循環投資」の様相を呈しており、その実効性やリスクについて専門家から疑問の声が上がっています。 なぜこれほど巨額の資金が必要なのでしょうか。オラクルOpenAIに対し、次世代AIモデルの訓練と運用に必要な計算資源を供給します。さらに、メタとも200億ドル規模の同様の契約について交渉中と報じられており、AIインフラの需要は爆発的に拡大しています。今回の資金調達は、こうした巨大な需要に応えるための設備投資を賄うことが目的です。 この取引はオラクルだけではありません。半導体大手NVIDIAも、OpenAIに最大1000億ドルを投資すると発表しました。注目すべきは、OpenAIがその資金を使ってNVIDIAのシステムを導入する点です。つまり、NVIDIAが投じた資金が、巡り巡って自社の売上として戻ってくるという構造になっています。 このような「循環投資」モデルは、業界関係者の間で議論を呼んでいます。インフラ提供者がAI企業に投資し、そのAI企業が最大の顧客になるという構図です。これは真の経済的投資なのでしょうか、それとも巧妙な会計操作なのでしょうか。その実態について、多くの専門家が疑問の目を向けています。 取引の仕組みはさらに複雑化する可能性があります。NVIDIAは自社製チップOpenAIに直接販売するのではなく、別会社を設立して購入させ、そこからリースする新事業モデルを検討中と報じられています。この手法は、循環的な資金の流れをさらに何層にも重ねることになり、関係性の不透明さを増すとの指摘もあります。 OpenAIサム・アルトマンCEO自身も、先月「AIはバブルだ」と認め、「誰かが驚異的な額の金を失うだろう」と警告しています。AIへの期待が天文学的な予測に達しない場合、何が起こるのでしょうか。現在の巨額投資が過剰だったと判明するリスクは、認識すべき課題と言えるでしょう。 もしAIバブルが崩壊した場合、建設された巨大データセンターはすぐには消えません。2001年のドットコムバブル崩壊後、敷設された光ファイバー網が後のインターネット需要の受け皿となったように、これらの施設も他用途に転用される可能性はあります。しかし、その場合でも投資家はAIブームの価格で投資した分の巨額損失を被る可能性があります。

Google、次期チップ「Tensor G5」でPixel 10のAI機能を大幅強化

Googleは9月24日、公式ポッドキャストで、次期スマートフォン「Pixel 10」シリーズに搭載する最新チップ「Tensor G5」の詳細を明らかにしました。同社のシリコンチーム担当者が解説し、Tensor G5がGoogle史上最大のアップグレードであり、デバイス上のAI機能を飛躍的に進化させることを強調しました。これにより、スマートフォンの利便性が新たな段階に入ることが期待されます。 Tensor G5は、AI処理能力の向上に特化した設計が特徴です。Googleのシリコンチーム担当者によれば、このチップは技術的なブレークスルーであり、これまでのチップから大幅な性能向上を実現したとのことです。スマートフォンの「頭脳」が進化することで、複雑なAIタスクをデバイス上で高速に処理できるようになります。 新機能で特に注目されるのが、自分の声でリアルタイム翻訳を行う「Live Translate」です。従来の翻訳機能と異なり、まるで自分がその言語を話しているかのような自然なコミュニケーションを可能にします。Tensor G5の高度な音声処理能力が可能にするこの機能は、海外とのビジネスなどで大きな変革をもたらす可能性があります。 さらに、ユーザーの意図を先読みしてアシストするエージェント機能「Magic Cue」や、Pixel 10 Proに搭載される「100x ProRes Zoom」もTensor G5の性能によって実現されます。これらの機能は、単なる操作の補助にとどまらず、ユーザーの生産性を高めるパートナーとしてのスマートフォンの役割を強化することを示唆しています。 今回の発表は、AI処理がクラウドから個人のデバイス(エッジ)へ移行する流れを象徴します。デバイス上でAIが完結すれば、プライバシーと応答速度の向上が両立します。経営者エンジニアにとって、この「エッジAI」の進化がもたらす新たなビジネスチャンスや生産性向上の可能性は、注視すべき重要なトレンドと言えるでしょう。

Google、月額5ドルのAIプランを新興国40カ国超に拡大

Googleは9月24日、月額約5ドルの安価なAIサブスクリプションプラン「AI Plus」を、インドネシアやメキシコなど40カ国以上で提供開始しました。標準プランが高価な新興国市場で有料ユーザーを獲得し、先行するOpenAIに対抗する狙いです。この動きは、世界のAIサービス市場の勢力図に影響を与える可能性があります。 このプランでは、最新AIモデル「Gemini 2.5 Pro」へのアクセスが可能です。加えて、画像生成ツール「Flow」や動画生成ツール「Veo 3 Fast」など、クリエイティブな作業を支援する機能も含まれます。GmailやDocsといったGoogleの各種アプリ内でもAI機能が使えるようになり、業務効率の向上が期待できます。 さらに、AIリサーチアシスタントNotebookLM」の拡張機能や、200GBのクラウドストレージも提供されます。専門的な情報収集や資料作成、データ保管といったビジネスシーンでの実用性を高めており、コストパフォーマンスに優れたサービス内容となっています。 この動きの背景には、OpenAIとの激しい顧客獲得競争があります。OpenAIインドネシアなどで月額5ドル未満の「ChatGPT Go」を展開済みです。月額20ドルの標準プランが浸透しにくい市場で、両社は低価格戦略を加速させ、次なる巨大市場の主導権を争っています。 月額料金は多くの国で約5ドルに設定されていますが、ネパールやメキシコなど一部地域では、最初の6ヶ月間は50%割引が適用されます。巨大IT企業による価格競争は、今後さらに多くの地域で高機能なAIツールの普及を後押しすることになるでしょう。

Google Cloud、次世代AI企業の囲い込みで覇権狙う

Google Cloudが、次世代のAIスタートアップ企業の獲得に全力を注いでいます。NvidiaOpenAI提携など、巨大企業同士の連携が加速するAIインフラ市場で、Googleは将来のユニコーン企業を早期に囲い込む戦略を選択。クラウドクレジットの提供や技術支援を通じて、自社プラットフォームへの取り込みを急いでいます。これは、AI市場の主導権を巡る競争が新たな局面に入ったことを示しています。 AIインフラ市場では、NvidiaOpenAIの1000億ドル規模の提携や、MicrosoftAmazonOracleによる大型投資など、既存大手間の連携が加速しています。こうした巨大ディールは特定の企業連合が市場を支配する構図を生み出しており、Google Cloudは一見するとこの流れから取り残されているように見えます。 しかし、Google Cloudは異なる賭けに出ています。同社のフランシス・デソウザCOOによれば、世界の生成AIスタートアップの60%がGoogle Cloudを選択。同社は将来有望な企業が巨大化する前に「主要コンピューティングパートナー」として関係を築くことに注力し、今日の巨人を巡る争いよりも価値があると見ています。 GoogleはAIスタートアップに対し、最大35万ドルのクラウドクレジットや、同社の技術チームへのアクセス、マーケットプレイスを通じた市場投入支援などを提供しています。これにより、スタートアップは初期コストを抑えながら、Googleのエンタープライズ級のインフラとAIスタックを活用できるという大きな利点を得られるのです。 Google Cloud戦略の核となるのが「オープンな姿勢」です。自社のAIチップTPU」を他社のデータセンターに提供する異例の契約を結ぶなど、あらゆる階層で顧客に選択肢を提供。競合に技術を提供してもエコシステム全体の拡大を優先する、長年の戦略を踏襲しています。この戦略は、競合他社との差別化にどう影響するのでしょうか。 この戦略は、独占禁止法に関する規制当局の懸念を和らげる狙いもあると見られています。オープンなプラットフォームとして競争を促進する姿勢を示し、自社の検索事業における独占的な地位をAI分野で乱用するとの批判をかわす狙いです。同時に、未来の巨大企業との関係構築で長期的な優位性を確保します。

アリババ、NVIDIAと提携し物理AI開発基盤を導入

中国の電子商取引大手アリババは24日、米半導体大手NVIDIAとの提携を発表しました。NVIDIAが提供するロボットや自動運転向けの物理AI開発ツールを、自社のAIクラウドプラットフォームに統合します。この提携は、物理世界で動作するAIの開発を加速させることが目的です。 具体的には、NVIDIAの「Physical AI」ソフトウェアスタックを顧客に提供します。これにより開発者は、現実世界の環境を忠実に再現した3Dのデジタルツインを構築できます。この仮想空間で生成された合成データを用いることで、AIモデルを効率的かつ安全に訓練することが可能になります。 この技術は、特にロボティクスや自動運転車、スマート工場、倉庫といった分野での活用が期待されています。現実世界でのテストが困難または危険なシナリオでも、仮想環境でAIを訓練できるため、開発サイクルが大幅に短縮される可能性があります。 今回の提携は、AI事業を強化するアリババの戦略の一環です。同社はAI技術への投資を従来の500億ドルの予算を超えて拡大すると表明。ブラジルやフランスなどでデータセンターを新設し、世界91拠点にまでインフラを拡大する計画も明らかにしました。 アリババは同日、最新の大規模言語モデル(LLM)「Qwen 3-Max」も発表しました。1兆パラメータで訓練されたこのモデルは、同社史上最大かつ最も高性能とされ、特にコーディングやAIエージェントとしての活用に適していると主張しています。 一方のNVIDIAも、AI分野で積極的な投資を続けています。最近ではインテルへの50億ドルの出資や、OpenAIへの最大1000億ドルの投資計画を発表しており、AIエコシステムにおける影響力を一層強めています。

マイクロソフト、エージェントAIでアプリ近代化を数日に短縮

マイクロソフトは2025年9月23日、アプリケーションの近代化と移行を加速させる新しいエージェント型AIツールを発表しました。GitHub CopilotとAzure Migrateに搭載される新機能で、レガシーシステムの更新という企業の大きな課題に対応します。自律型AIエージェントがコード分析から修正、展開までを自動化し、開発者の負担を軽減。これにより、従来は数ヶ月を要した作業を数日で完了させ、企業のイノベーションを後押しします。 中核となるのはGitHub Copilotの新機能です。Javaと.NETアプリケーションの近代化を担う自律型AIエージェントが、レガシーコードの更新作業を自動化します。従来は数ヶ月かかっていた作業が数日で完了可能になります。AIが面倒で時間のかかる作業を代行するため、開発者は付加価値の高いイノベーション活動に集中できるようになります。Ford Chinaではこの機能で70%の時間と労力を削減しました。 AIエージェントは、.NETとJavaの最新バージョンへのアップグレードを具体的に自動化します。コードベースを分析して非互換性の変更点を検出し、安全な移行パスを提案します。依存関係の更新やセキュリティ脆弱性のチェックも自動で実行するため、開発者は手動での煩雑な作業から解放されます。これにより、パフォーマンスやセキュリティの向上が迅速に実現できます。 Azure Migrateにも、チーム間の連携を円滑にするエージェント型AI機能が追加されました。移行・近代化プロジェクトが停滞する原因となりがちなIT、開発、データ、セキュリティ各チームの足並みを揃えます。AIが主要なタスクを自動化し、ガイド付きの体験を提供するため、特別な再教育なしで迅速な対応が可能です。 新しいAzure MigrateはGitHub Copilotと直接連携し、IT部門と開発者が同期して近代化計画を立案・実行できるようになります。アプリケーションポートフォリオ全体の可視性も向上し、データに基づいた意思決定を支援します。新たにPostgreSQLや主要なLinuxディストリビューションもサポート対象に加わり、より多くのシステム移行に対応します。 マイクロソフトは技術提供に加え、新プログラム「Azure Accelerate」を通じて企業の変革を包括的に支援します。このプログラムでは、専門家による直接支援や対象プロジェクトへの資金提供を行います。企業のクラウド移行とAI活用を、技術、資金、人材の全ての面から後押しする体制を整えました。

LLMの情報漏洩対策、準同型暗号でデータを秘匿したまま処理

プライバシー技術専門企業のDuality社は、大規模言語モデル(LLM)への問い合わせを秘匿したまま処理するフレームワークを開発しました。データを暗号化したまま計算できる完全準同型暗号(FHE)という技術を活用し、ユーザーの質問とLLMの回答をすべて暗号化します。これにより、企業の機密情報や個人情報を含むやり取りでも、情報漏洩リスクを懸念することなくLLMの恩恵を受けられるようになります。 このフレームワークの核心は、FHEによるエンドツーエンドの機密性保護です。ユーザーが入力したプロンプトはまずFHEで暗号化され、LLMに送信されます。LLMはデータを復号することなく暗号化された状態で処理を行い、生成した回答も暗号化したままユーザーに返します。最終的な結果は、ユーザーの手元でのみ復号されるため、途中でデータが盗み見られる心配がありません。 Duality社が開発したプロトタイプは、現在GoogleのBERTモデルなど、比較的小規模なモデルに対応しています。FHEとLLMの互換性を確保するため、一部の複雑な数学関数を近似値に置き換えるなどの調整が施されています。しかし、この変更によってもモデルの再トレーニングは不要で、通常のLLMと同様に機能する点が特長です。 FHEは量子コンピュータにも耐えうる高い安全性を誇る一方、大きな課題も抱えています。それは計算速度の遅さです。暗号化によってデータサイズが膨張し、大量のメモリを消費します。また、暗号文のノイズを定期的に除去する「ブートストラッピング」という処理も計算負荷が高く、実用化のボトルネックとなってきました。 Duality社はこれらの課題に対し、アルゴリズムの改良で挑んでいます。特に機械学習に適した「CKKS」というFHE方式を改善し、効率的な計算を実現しました。同社はこの技術をオープンソースライブラリ「OpenFHE」で公開しており、コミュニティと連携して技術の発展を加速させています。 アルゴリズムの改良に加え、ハードウェアによる高速化も重要な鍵となります。GPUASIC(特定用途向け集積回路)といった専用ハードウェアを活用することで、FHEの処理速度を100倍から1000倍に向上させることが可能だとされています。Duality社もこの点を重視し、OpenFHEにハードウェアを切り替えられる設計を取り入れています。 FHEで保護されたLLMは、様々な分野で革新をもたらす可能性があります。例えば、医療分野では個人情報を秘匿したまま臨床結果を分析したり、金融機関では口座情報を明かすことなく不正検知を行ったりできます。機密データをクラウドで安全に扱う道も開かれ、AI活用の可能性が大きく広がるでしょう。

カリフォルニア州、AI安全新法案を可決 大手ITに報告義務

カリフォルニア州で、AIの安全性確保を目指す新たな法案「SB 53」が議会を通過し、現在ニューサム知事の署名を待っています。この法案が成立すれば、OpenAIGoogleといった売上5億ドル超の大手IT企業に対し、最も高性能なAIモデルの安全性テストに関する報告書の公表が義務付けられます。 今回の法案は、2024年に否決された「SB 1047」の修正版です。前法案がAIによる損害の法的責任を企業に負わせる厳しい内容だったのに対し、「SB 53」は自己報告と透明性の確保に重点を置いています。この変更により、IT業界からの反発は以前より和らいでいる模様です。 AI企業の反応は分かれています。Anthropicは法案への支持を表明し、Metaも「正しい方向への一歩」と評価しています。一方、OpenAIや大手ベンチャーキャピタルのAndreessen Horowitzは、州ごとの規制ではなく連邦政府による統一基準を設けるべきだと主張しています。 法案を提出したスコット・ウィーナー上院議員は、連邦政府のAI規制が進まない現状に危機感を示しています。特にトランプ政権がIT業界の意向を強く受け、安全性よりも経済成長を優先していると指摘。そのため、カリフォルニア州が率先してルール作りを主導する必要があると強調します。 この法案が特に重視するのは、AIが悪用された場合の壊滅的なリスクです。具体的には、生物兵器や化学兵器の開発、国家規模のサイバー攻撃、多数の人命を脅かす事態などを想定しています。AI開発者自身から、こうしたリスクへの懸念の声が上がったことが法案提出のきっかけでした。 法案には、大手IT企業の従業員がAIの安全に関する懸念を政府当局へ報告できる保護された仕組みの創設も含まれます。さらに、巨大テック企業以外もAI研究を進められるよう、州が運営する計算資源(クラウドクラスター)「CalCompute」を設立する計画も盛り込まれました。

オラクル、AI覇権へ共同CEO体制 新世代リーダー2名起用

米ソフトウェア大手オラクルは22日、クレイ・マゴウイルク氏とマイク・シシリア氏を共同最高経営責任者(CEO)に昇格させたと発表しました。AI(人工知能)インフラ市場での主導権獲得を加速させる狙いです。2014年から同社を率いてきたサフラ・カッツ氏は、取締役会の執行副議長という新たな役職に就きます。 この経営刷新の背景には、AI分野での急速な事業拡大があります。オラクルは最近、OpenAIと3000億ドル、メタと200億ドル規模のクラウドコンピューティング契約を締結したと報じられました。AIの学習と推論に不可欠な計算資源の供給元として、その存在感を急速に高めています。 新CEOに就任する両氏は、オラクルの成長を支えてきた実力者です。マゴウイルク氏はAWS出身で、オラクルクラウド事業の創設メンバーとしてインフラ部門を率いてきました。一方、シシリア氏は買収を通じてオラクルに加わり、インダストリー部門のプレジデントとして事業を推進してきました。 カッツ氏は声明で「オラクルは今やAIの学習と推論で選ばれるクラウドとして認知されている」と述べました。さらに「会社の技術と事業がかつてないほど強力な今こそ、次世代の有能な経営陣にCEO職を引き継ぐ適切な時期だ」と、今回の交代の意義を強調しました。 オラクルのAIへの注力は、OpenAIソフトバンクと共に参加する5000億ドル規模のデータセンター建設計画「スターゲイト・プロジェクト」にも表れています。今回の新体制は、巨大プロジェクトを推進し、AI時代におけるクラウドの覇権を確固たるものにするという強い意志の表れと言えるでしょう。

OpenAI、インドネシアで廉価版ChatGPT投入、Google追撃

OpenAIは、インドネシアで廉価版サブスクリプションプラン「ChatGPT Go」を開始しました。料金は月額75,000ルピア(約4.50ドル)です。8月に開始したインド市場での成功を受け、新興国への展開を加速します。この動きは、同市場で先行する米Googleの類似プランに対抗するもので、生成AIの顧客基盤拡大を狙います。 ChatGPT Goプランは、無料版と月額20ドルの「Plus」プランの中間に位置します。無料版の10倍の利用上限が設定され、質問やプロンプトの送信、画像生成、ファイルアップロードがより多く利用できます。また、過去の会話を記憶する能力が向上し、ユーザーごとに最適化された応答が期待できます。 先行して同プランを導入したインドでは、有料購読者数が2倍以上に増加したといいます。価格を抑えたプランが新興市場のユーザー獲得に有効であることを証明したかたちです。この成功が、今回のインドネシアへの迅速な展開につながったのでしょう。各市場の特性に合わせた価格戦略の重要性を示唆しています。 この動きは、競合するGoogleへの直接的な対抗策です。Googleは今月初め、インドネシアで同様の価格帯の「AI Plus」プランを先行して発表しました。同プランでは、高性能な「Gemini 2.5 Pro」や画像動画生成ツール、200GBのクラウドストレージなどを提供しており、競争は激化しています。 AI大手が新興国で廉価版プランの投入を急ぐ背景には、将来の巨大市場での主導権争いがあります。一度ユーザー基盤を確立すれば、長期的な収益源となるためです。日本企業も、海外市場へAIサービスを展開する際には、現地の経済状況に合わせた価格設定と競合の動向を分析することが成功の鍵となるでしょう。

NVIDIA、OpenAIに最大14兆円投資 巨大AI基盤構築

半導体大手のNVIDIAと「ChatGPT」を開発するOpenAIは2025年9月22日、AI開発のインフラを共同で構築する戦略的パートナーシップを発表しました。NVIDIAは、OpenAIが建設するAIデータセンターの規模に応じて、最大1000億ドル(約14兆円)を段階的に投資します。OpenAINVIDIA製のGPUを数百万個規模で導入し、少なくとも10ギガワットの計算能力を確保する計画です。次世代AIモデルの開発・運用に不可欠な膨大な計算資源を確保する狙いがあります。 今回の提携は、NVIDIAのジェンスン・フアンCEOが「史上最大のAIインフラプロジェクト」と評する大規模なものです。OpenAIは、NVIDIAの次世代プラットフォーム「Vera Rubin」を含むシステムを導入。OpenAIサム・アルトマンCEOは「計算インフラは未来経済の基盤になる」と述べ、AIのブレークスルー創出への期待を示しました。今後のAI開発の行方を大きく左右する動きとなりそうです。 OpenAIはこれまで、最大の投資家であるMicrosoftクラウドに大きく依存してきました。しかし、今年1月に提携内容を変更して以降、Oracleとの大規模契約など、計算資源の調達先を積極的に多様化しています。今回の提携もその戦略を加速させるものです。特定の企業への依存リスクを低減し、AI開発の主導権を維持する狙いがうかがえます。 NVIDIAによる投資は、OpenAINVIDIAGPUを購入するための資金となり、最終的にNVIDIAの売上に還流する構造です。市場関係者はこれを「好循環」と見ており、AIインフラ市場における同社の支配的地位をさらに強固にする動きとして評価しています。AIの需要拡大が自社の成長に直結するビジネスモデルを確立したと言えるでしょう。 計画されている10ギガワットという電力は、原子力発電所約10基分に相当します。AIデータセンター電力消費は世界的に急増しており、国際エネルギー機関(IEA)も警鐘を鳴らしています。電力網への負担や環境への影響は、AIの普及における大きな課題となり、解決策として原子力などの活用も模索されています。 AIの能力向上を支えるインフラ投資競争は、業界全体で激化しています。Metaは2028年末までに6000億ドルを投じる計画で、MicrosoftAmazonも原子力発電所と提携するなど、大規模なデータセンター建設と電力確保に奔走しています。AI競争は、もはやモデル開発だけでなくインフラ確保の競争でもあるのです。 今回の計画では、最初のシステムが2026年後半に稼働を開始する予定です。AIが社会に浸透するにつれ、その頭脳を支える「AI工場」の重要性は増すばかりです。この巨大プロジェクトの成否は、AI業界全体の未来を左右する可能性があります。企業は自社のAI戦略において、計算資源の確保をどう進めるか問われています。

NVIDIA、クラウドゲームに新作11本追加、日本で高性能版提供開始

NVIDIAは9月18日、同社のクラウドゲーミングサービス「GeForce NOW」に、「Dying Light: The Beast」を含む11本の新作ゲームを追加したと発表しました。これにより、ユーザーは高性能なゲーミングPCを所有していなくても、様々なデバイスで最新のゲームタイトルを快適に楽しむことができます。サービスの魅力向上とユーザー体験の強化が狙いです。 今回のアップデートで特に注目されるのは、人気サバイバルホラーシリーズの最新作「Dying Light: The Beast」です。高速なパルクールと戦闘が特徴の本作を、GeForce NOWを通じてクラウドから直接ストリーミングできます。デバイスの性能に依存せず、映画のような映像と高速なロード時間を体験できるのが強みです。 日本のユーザーにとって重要なのは、GeForce RTX 5080クラスの性能を提供するサーバーが日本でも稼働を開始した点です。これにより、国内ユーザーはこれまで以上に低遅延で高品質なクラウドゲーミングを享受できるようになります。NVIDIAは今後も世界各地域でサーバーのアップグレードを進める計画で、サービスの競争力強化を図ります。 新作には、SEGAの経営シミュレーションゲーム「Two Point Campus」や「Two Point Museum」、Ubisoftの「Assassin’s Creed Shadows」の最新拡張コンテンツ「Claws of Awaji」なども含まれます。多様なジャンルのタイトルを拡充することで、幅広いゲーマー層のニーズに応えていく方針です。 NVIDIAはRTX 5080対応タイトルの拡充にも力を入れています。「Dying Light: The Beast」に加え、「Kingdom Come: Deliverance II」や「Monster Hunter Wilds」などが既に対応済みです。クラウド上で最新技術を活用できるゲームが増えることで、サービスの付加価値はさらに高まるでしょう。

Nvidia追撃のGroqが7.5億ドル調達 AI推論特化LPUで69億ドル評価へ

資金調達と企業価値

新規調達額は7.5億ドルを達成
ポストマネー評価額69億ドルに到達
1年間で評価額2.8倍に急伸
累計調達額は30億ドル超と推定

技術的優位性

NvidiaGPUに挑む独自チップLPUを採用
AIモデル実行(推論)特化の高性能エンジン
迅速性、効率性、低コストを実現
開発者200万人超が利用、市場浸透が加速

AIチップベンチャーのGroqは先日、7億5000万ドルの新規資金調達を完了し、ポストマネー評価額69億ドル(約1兆円)に到達したと発表しました。これは当初予想されていた額を上回る結果です。同社は、AIチップ市場を支配するNvidiaGPUに対抗する存在として、推論特化の高性能なLPU(言語処理ユニット)を提供しており、投資家の高い関心を集めています。

Groqの核となるのは、従来のGPUとは異なる独自アーキテクチャのLPUです。これは、AIモデルを実際に実行する「推論(Inference)」に特化して最適化されており、推論エンジンと呼ばれます。この設計により、Groqは競合製品と比較して、AIパフォーマンスを維持または向上させつつ、大幅な低コストと高効率を実現しています。

Groqの技術は開発者や企業向けに急速に浸透しています。利用する開発者の数は、わずか1年で35万6000人から200万人以上へと急増しました。製品はクラウドサービスとして利用できるほか、オンプレミスのハードウェアクラスターとしても提供され、企業の多様なニーズに対応できる柔軟性も強みです。

今回の調達額は7.5億ドルですが、注目すべきはその評価額の伸びです。Groq評価額は、2024年8月の前回の資金調達時(28億ドル)からわずか約1年で2.8倍以上に膨らみました。累計調達額は30億ドルを超えると推定されており、AIインフラ市場における同社の将来性に、DisruptiveやBlackRockなどの大手が確信を示しています。

創業者のジョナサン・ロス氏は、GoogleTensor Processing Unit(TPU)の開発に携わっていた経歴を持ちます。TPUGoogle CloudのAIサービスを支える専門プロセッサであり、ロス氏のディープラーニング向けチップ設計における豊富な経験が、Groq独自のLPU開発の基盤となっています。

MSペイントがプロジェクトファイル対応、プロ用途に進化

MSペイントの機能拡張

Photoshopライクな編集機能の導入
レイヤー情報を保持したプロジェクトファイルに対応
新しい拡張子「.paint」を導入
編集途中からのシームレスな再開を実現

標準アプリの生産性向上

鉛筆・ブラシに不透明度スライダーを追加
Snipping Toolにクイックマークアップを搭載
NotepadにAI機能を無料提供開始
Copilot Plus PCでローカルAIモデルを優先利用

Microsoftは、Windows 11の標準アプリ群を大幅に強化しています。特にMSペイントでは、Adobe Photoshopのような編集機能が導入され、プロジェクトファイル形式(.paint)とレイヤー情報の保存に対応しました。これにより、標準アプリながらも高度で効率的な画像編集作業が可能となり、ビジネスにおける生産性向上に寄与します。

新しく導入される.paintファイルは、編集途中の状態を完全に保持するプロジェクト形式です。ユーザーは作業を中断しても、次回ファイルを開くだけで前回終了した場所からシームレスに再開できます。これは複数のステップが必要なデザイン作業やフィードバック対応において、作業効率を飛躍的に高めます。

.paintファイルには、編集に使用したレイヤー情報も格納されます。さらに、鉛筆やブラシツールには不透明度(オパシティ)スライダーが追加され、ピクセル単位での透明度の微調整が容易になります。これにより、プロのツールに匹敵する、柔軟かつ非破壊的な画像合成や編集が可能です。

画像編集機能の進化はペイントだけではありません。スクリーンショットを扱うSnipping Toolにもクイックマークアップ機能が追加されました。ハイライター、ペン、消しゴムなどが利用可能となり、キャプチャ後の注釈付けやクロップ作業が迅速に行えるようになり、資料作成時の生産性が向上します。

また、メモ帳(Notepad)には、Copilot Plus PCユーザー向けにAIによる文章作成、要約、書き換え機能が無料で提供されます。これはMicrosoft 365のサブスクリプションを必要とせず、ローカルモデルとクラウドモデルを切り替えて利用できるため、機密性の高いビジネス文書の処理にも柔軟に対応できる点が大きな特徴です。

Hugging Face、仏Scalewayを推論プロバイダーに統合しAI利用の選択肢拡大

統合の核心と利点

Scalewayを新たな推論プロバイダーに追加。
gpt-ossQwen3など人気モデルへ容易にアクセス。
モデルページからサーバーレスで即時推論可能。
ウェブUIとクライアントSDKからシームレス利用。

Scalewayの技術的強み

欧州データセンターによるデータ主権と低遅延。
トークンあたり€0.20からの競争的価格
構造化出力、ファンクションコーリングに対応。
高速応答(200ms未満)を実現。

柔軟な課金体系

カスタムキー利用でプロバイダーに直接請求
HF経由の請求は追加マークアップなし
PROユーザーは毎月2ドル分の推論クレジット付与。

Hugging Faceは、フランスのクラウドプロバイダーであるScalewayを新たな「Inference Provider(推論プロバイダー)」としてハブに統合しました。これにより、経営者エンジニアgpt-ossQwen3などの人気オープンウェイトモデルを、Scalewayの提供するフルマネージドなサーバーレス環境で利用可能になります。この統合は、AIモデルのデプロイと利用の柔軟性を高め、特に欧州におけるデータ主権への要求に応えるものです。

Scalewayが提供するのは「Generative APIs」と呼ばれるサーバーレスサービスであり、トークンあたり0.20ユーロ/100万トークンからという競争力のある従量課金制が特徴です。ユーザーはシンプルなAPIコールを通じて、最先端のAIモデルにアクセスできます。この手軽さとコスト効率は、大規模な本番環境での利用を検討する企業にとって大きなメリットとなります。

インフラストラクチャはパリの欧州データセンターに置かれており、欧州の利用者に対してデータ主権の確保と低遅延の推論環境を提供します。応答速度はファーストトークンで200ミリ秒未満を達成しており、インタラクティブなアプリケーションやエージェントワークフローへの適用に最適です。テキスト生成とエンベディングモデルの両方をサポートしています。

Scalewayのプラットフォームは高度な機能にも対応しています。具体的には、応答形式を指定できる構造化出力や、外部ツール連携を可能にするファンクションコーリング、さらにマルチモーダル処理能力を備えています。これにより、より複雑で実用的なAIアプリケーションの開発が可能になります。

利用者は、HFのウェブサイトUIだけでなく、PythonやJavaScriptのクライアントSDKからシームレスに推論を実行できます。課金方式は二通りあり、ScalewayのAPIキーを使う場合は直接プロバイダーに請求されます。HF経由でルーティングする場合は、HFによる追加のマークアップは発生しないため、透明性が高い価格で利用できます。

Hugging FaceのPROプランユーザーには、毎月2ドル分の推論クレジットが特典として提供されます。このクレジットは、Scalewayを含む複数のプロバイダーで横断的に使用可能です。本格的な商用利用や高いリミットが必要な場合は、PROプランへのアップグレードが推奨されています。

GV、CI/CDのBlacksmithに再投資 ベアメタル活用で開発を加速

異例の速さで資金調達

GVがわずか4ヶ月で追加投資
シリーズAで1000万ドルを調達完了
ARR(年間収益)は350万ドルに急増

開発速度を革新する技術

CI/CD処理にベアメタルを採用
処理速度を最大2倍に高速化
計算コストを最大75%の大幅削減

継続的インテグレーション・デリバリー(CI/CD)を提供するスタートアップBlacksmithは、シードラウンドからわずか4ヶ月で、Google Ventures(GV)主導のシリーズAラウンドを実施し、1000万ドル(約15億円)を調達しました。AI駆動のソフトウェア開発が加速する中、コードのリリース速度を劇的に高める同社の実績と市場拡大の可能性が評価され、GVは異例の速さで追加投資を決定しました。

Blacksmithの成長は目覚ましいものがあります。今年2月にわずか4人のチームでARR(年間経常収益)100万ドルを達成しましたが、現在は従業員8名体制でARRは350万ドルに急増しています。顧客数も700社を超えており、この短期間での確かな実績が、GVが短期間で大規模な追加投資を決断する決め手となりました。

同社の最大の強みは、従来のCI/CDプロセスが抱える高コストで予測不可能なテスト実行の課題を解消した点です。一般的なクラウドサービスをレンタルするのではなく、高性能なゲーミンググレードのCPUをベアメタル環境で活用しています。これにより、同社はリソースの経済性を完全に制御しています。

この独自のアプローチの結果、Blacksmithは顧客企業に対し、処理速度を最大2倍に高め、計算コストを最大75%削減できると主張しています。導入も容易であり、既存のコードを一行変更するだけで切り替えが完了します。これにより、企業は数分以内にコードの出荷プロセスを高速化することが可能です。

Blacksmithは、主にエンジニアを500人以上抱える大規模な開発チームをターゲットとしています。同サービスはGitHub Actionsと連携し、テスト分析や深い可視化機能を提供することで、既存のCI/CDプラットフォームを補完します。AIエージェントの普及は開発市場を広げ、同社の成長を後押ししています。

創業者は、Cockroach LabsやFaireなどの企業で大規模な分散システムを構築した経験を持ちます。CIにおけるビルドやユニットテストの非効率性を痛感した経験が、このサービス開発の原点です。今回のシリーズAには、Cockroach LabsのCEOら既存投資家も再参加しています。

Google、アイオワ州に70億ドル追加投資。AIとクラウド基盤を強化

大規模投資の概要

追加投資額は70億ドル規模
投資地域は米国アイオワ州
クラウドとAIインフラの大幅増強
技術人材育成プログラムを推進

戦略的効果と目標

米国におけるAIリーダーシップ維持
AI主導経済のエネルギー基盤強化
数百万のキャリア機会と雇用創出
米国サイバーセキュリティ強化

Googleは2025年9月、米国アイオワ州に対し、クラウドおよびAIインフラ強化を目的として、追加で70億ドルの大規模投資を行うと発表しました。この投資は、技術基盤の拡充だけでなく、人材育成プログラムにも充当されます。AIが牽引する新たな経済時代において、米国でのイノベーションと経済機会の創出を加速させる、戦略的な一歩です。

今回の70億ドルの資金は、主にデータセンターなどの技術インフラと研究開発に投入されます。特にAI主導の経済を支えるため、エネルギー容量の拡大に注力しているのが特徴です。Googleは、AIを安全かつ効率的に運用するための強固な基盤整備を進め、今後の大規模なAI需要に対応する構えです。

この大規模投資の背景には、米国のAI分野における世界的なリーダーシップを維持する狙いがあります。技術インフラの強化を通じて、先端的な科学的ブレイクスルーを推進するとともに、米国サイバーセキュリティ体制の強化にも寄与します。これは、国家的な技術優位性を確保するための重要な手段となります。

投資は地域経済に大きな波及効果をもたらし、特に数百万人のアメリカ人に新たなキャリア機会を創出すると期待されています。インフラ投資と並行して、Googleワークフォース・デベロップメント(人材育成)プログラムにも資金を投じます。これにより、AI時代に求められるスキルを持った労働力を育成し、市場価値向上を支援します。

Salesforce、国家安全保障特化のAI部門「Missionforce」設立

AI導入に特化

新ビジネスユニット「Missionforce」発足
国家安全保障分野に重点を置く
政府・軍隊のワークフローをAIで近代化
運用をよりスマートかつ迅速に

注力する三領域

人事、ロジスティクス、意思決定へのAI統合
CEOはGovernment CloudのKendall Collins氏

テック企業の動向

OpenAIAnthropicGoogleも政府向けサービスを強化
$1/年など破格でAI提供する動きが顕著

CRM(顧客関係管理)の巨大企業であるセールスフォースは、国家安全保障に特化した新事業部門「Missionforce」の設立を発表しました。これは、AI、クラウド、プラットフォーム技術を国防分野のワークフローに統合し、政府機関や軍の業務効率を劇的に向上させることを目的としています。

新部門は、特に米国防総省や連邦政府機関を対象に、AIを活用した近代化を推進します。Missionforceを率いるのは、Government CloudのCEOを務めるケンドール・コリンズ氏であり、「奉仕する人々を支援する上で、今ほど重要な時はない」と、この分野へのコミットメントを強調しています。

Missionforceが注力する核心領域は三つです。具体的には、人員管理(Personnel)、ロジスティクス(Logistics)、および意思決定(Decision-making)へのAI導入を通じて、戦闘員や支援組織がよりスマートかつ迅速に、効率的に活動できるよう支援します。

セールスフォースはこれまでも米陸軍、海軍、空軍を含む連邦政府機関と長年にわたり契約を結んできました。今回の新部門設立は、既存の強固な政府向け事業基盤を活かし、AIブームの中で新たな収益源を確保するための戦略的な一歩と見られます。

国家安全保障向けAI市場は競争が激化しています。OpenAIAnthropicGoogleといった主要テック企業も、政府機関専用のAIサービスを相次いで展開中です。特にOpenAIは、政府機関向けにエンタープライズ版ChatGPTを年間わずか1ドルで提供するなど、シェア獲得に向けた動きが顕著です。

経済成長を加速させるGoogleの「AI政策10原則」

AI導入基盤の整備

クラウド容量の増強と「クラウドファースト」政策
公共部門データのオープン化と活用促進

広範なAI普及策

政府業務へのAI統合で効率を向上
中小企業SMB)のAI活用を助成金等で支援
包括的なAI人材育成計画の実行

実現に向けた法規制

国際標準の採用と既存規制の活用を優先
TDMを可能にする著作権プライバシーの均衡

Googleは、AI活用による経済成長を加速させるための「AI政策10のゴールドスタンダード」を発表しました。これは、特に新興経済国がAI変革を達成するための実用的なロードマップを提供するものです。ゴールドマン・サックスの試算によれば、AIの広範な導入は世界のGDPを10年間で7%押し上げる可能性があり、各国政府に対し、デジタルリーダーシップ確立に向けた行動を促しています。

これらの政策基準は、AI変革を実現するための三段階、すなわち「AI対応エコシステムの構築」「広範なAI導入の達成」「政策環境の整備」に分類されます。企業がAIを使いこなすためには、まず政府がクラウドファースト政策を導入し、AI利用の基盤となるコンピューティング能力を確保することが最優先事項です。

さらに、高品質なデータへのアクセスはAI開発の鍵です。公共部門のデータをオープンソース化し、一元的なデータリポジトリを確立する必要があります。ルワンダなどの事例のように、官民連携を推進し、スタートアップに優しい政策環境を整備することが、活発なAIエコシステムへの投資を呼び込みます。

AIの恩恵を国家全体に行き渡らせるには、政府自身がAIの主要な採用者となるべきです。ブラジルでは政府業務にAIを組み込み、行政サービスを効率化しています。また、経済の主要な雇用主である中小企業SMBに対し、助成金や研修を通じてAIソリューションへのアクセスを支援することが不可欠です。

AI時代に備えた人材育成は、市民全体を対象とする包括的な計画が必要です。UAEでは、公務員やSTEM学生を含む幅広い層に対しAIトレーニングを提供中です。Google.orgも世界で100万人の政府職員を訓練する取り組みを支援しており、官民一体となったスキルアップが強く求められます。

長期的な成功のためには、予見性のある規制環境の整備が欠かせません。規制の分断を避けるため、各国はISO 42001のような国際的なAI標準を国内規制に採用すべきです。また、シンガポールや日本のように、AIのトレーニングに必要なTDM(テキスト・データマイニング)を可能とする、バランスの取れた著作権制度を支援します。

新しいAI特化型規制を性急に導入する前に、既存の規制がAIにどのように適用できるかをまず評価すべきです。イスラエルのAIプログラムのように、セクターごとの規制当局を強化するなど、「ソフトな」規制ツールを活用することで、規制の断片化を回避しつつ、柔軟かつ段階的な枠組みの発展を目指すことが推奨されています。

Google、Windows向け新検索アプリ提供 生産性向上のAIハブ狙う

瞬時に統合検索

Mac Spotlight類似のデスクトップ検索機能
Alt + Spaceで即座に起動しフロー中断回避
ローカル、Drive、Webの情報源を統合
デスクトップ上に検索バーを常時配置可能

AIとLens連携

内蔵されたGoogle Lensによる画面検索
画像・テキストの翻訳や宿題解決の支援
AI Modeによる高度な検索応答と質問継続
検索結果の表示モード(AI, 画像, 動画など)を切り替え

現状と要件

現在、Search Labs経由の実験機能として提供
Windows 10以降が必要、当面は米国・英語限定

Googleは、Windowsデスクトップ向けに新しい検索アプリの実験提供を開始しました。これはMacのSpotlightに似た機能を持つ検索バーをPCにもたらし、ユーザーの生産性向上を強力に支援します。ローカルファイル、Google Drive、ウェブ上の情報を瞬時に横断検索できる統合機能が最大の特長です。AIモードも搭載されており、作業フローを中断することなく、高度な情報処理と検索を可能にします。

このアプリは、ショートカットキー「Alt + Space」を押すだけで即座に起動し、現在作業中のウィンドウを切り替えることなく利用できます。文書作成中やゲーム中でも、必要なファイルや情報にすぐにアクセス可能です。特に、ローカルPC内のファイルとGoogle Drive上のクラウドデータを一元的に検索できる点は、ハイブリッドなデータ環境を持つビジネスパーソンにとって大きなメリットとなります。

さらに、Googleのビジュアル検索機能「Google Lens」が内蔵されています。これにより、画面上の任意の画像やテキストを選択し、そのまま検索したり、翻訳したりできます。AI Modeを有効にすれば、複雑な数式問題の解答補助など、より深いAI駆動型の応答を得ることも可能です。検索を単なる情報発見から課題解決ツールへと進化させています。

MicrosoftCopilot Plus PCなどで検索とAI機能をOSレベルで強化していますが、Googleはこのデスクトップアプリで対抗します。Googleは、Windows環境においても、WebとDriveの圧倒的なデータ連携力と、独自のAI技術を武器に検索における優位性を確立しようとしています。これは、両社のAI戦略の主戦場がOS/デスクトップ環境に移っていることを示唆します。

この新アプリは、ウィンドウの切り替え工数を削減し、情報探索時間を短縮することで、ユーザーの集中力を維持させます。特に大量の文書やデータを行き来する経営者やリーダー、エンジニアにとって、タスクフローを中断しないシームレスな検索体験は、生産性の大幅な改善に直結します。今後の機能拡張次第では、業務における「AIハブ」となる可能性を秘めています。

現在、この新アプリはGoogleのSearch Labsを通じた実験段階にあり、利用はWindows 10以降のPCで、米国ユーザーのみ、言語は英語に限定されています。しかし、この戦略的な動きは、GoogleデスクトップOSの垣根を越えて検索体験の主導権を握る意図を示しています。今後の対応言語や機能の拡大に注目が集まります。

YC最注目株:AIエージェントとインフラが主戦場

AIインフラと業務特化

AI向けStripe統合基盤の開発(Autumn)
AIエージェント自動デプロイ基盤(Dedalus Labs)
本番環境のバグを修正するAIエンジニア(Keystone)
保険金請求を自動化する業務特化AI(Solva)

ニッチ市場と成長性

AI生成デザインクラウド評価(Design Arena)
会話に特化したAI言語家庭教師(Pingo AI)
女性向け友人マッチングAIの急成長(RealRoots)
コスト効率の高いドローン兵器(Perseus Defense)

先週開催されたYCサマー2025デモデイでは、160社超のスタートアップが登壇しました。今回の傾向は、従来の「AI搭載」製品から、AIエージェントとそれを開発・運用するための専門インフラへの明確なシフトです。投資家の間で特に注目を集めたのは、複雑な課金管理やインフラ自動化を担うB2Bソリューション群でした。

最も求められるスタートアップ9社からは、AI市場の成熟度が見て取れます。特に、複雑な従量課金モデルに対応する「Stripe for AI」や、エージェントの自動デプロイを可能にする「Vercel for AI agents」など、AI経済を足元から支えるツールが多数登場しました。これは市場が本格的な収益化フェーズに入ったことを示唆します。

B2B領域では、AutumnがAI特有の複合的な課金モデルを簡素化し、既に40社のYCスタートアップで採用されています。また、Dedalus Labsは、AIエージェントオートスケーリングや負荷分散を自動化し、数時間かかっていたデプロイ作業を数クリックで完了させます。インフラ効率化が成長の鍵です。

業務特化型AIも高い収益性を示しています。保険金請求プロセスを自動化するSolvaは、ローンチからわずか10週間で年間経常収益(ARR)24.5万ドルを達成。また、本番環境のバグをAIが自動修正するKeystoneも、多額の買収提案を断るほどの評価を受けています。

消費者向けサービスでは、AIを活用したニッチな社会的課題解決が成功事例となりました。女性の孤独解消を目的とした友人マッチングAI「RealRoots」は、月間収益78.2万ドルを稼ぎ出しています。また、会話に特化したAI家庭教師「Pingo AI」も月次70%成長と驚異的な伸びです。

異色な注目株としては、軍事・防衛分野のPerseus Defenseが挙げられます。同社は、安価なドローン群を迎撃するためのコスト効率の高いミニミサイルを開発しており、複数の米国軍関係機関からデモ実演に招かれるなど、国防技術の需要の高まりを反映しています。

GPT-5-Codexが開発生産性を劇的に向上させる理由

エージェント能力の進化

複雑なタスクで最長7時間以上の独立稼働
タスクに応じた思考時間の動的な調整
迅速な対話と長期的な独立実行の両立
実世界のコーディング作業に特化しRL学習を適用

ワークフローへの密着

CLI、IDE拡張機能、GitHubへシームレスに連携
ローカル環境とクラウド間のコンテキスト維持
画像やスクリーンショットを入力可能

品質と安全性の向上

コードレビューの精度が大幅に向上
重大なバグを早期に発見しレビュー負荷を軽減
サンドボックス環境による強固なセキュリティ

OpenAIは、エージェントコーディングに特化した新モデル「GPT-5-Codex」を発表し、開発環境Codexを大幅にアップグレードしました。これはGPT-5を実世界のソフトウェアエンジニアリング作業に最適化させたバージョンです。開発者はCLI、IDE、GitHubChatGPTアプリを通じて、より速く、信頼性の高いAIアシスタントを活用できるようになります。

最大の進化は、タスクの複雑性に応じて思考時間を動的に調整する能力です。GPT-5-Codexは、大規模なリファクタリングデバッグなどの複雑なタスクにおいて、最長7時間以上にわたり独立して作業を継続できることが確認されています。これにより、長期的なプロジェクトの構築と迅速なインタラクティブセッションの両方に対応します。

モデルは、既存のコードベース全体を理解し、依存関係を考慮しながら動作検証やテスト実行が可能です。特にコードレビュー機能が強化されており、コミットに対するレビューコメントの正確性と重要性が向上。重大な欠陥を早期に特定し、人間のレビュー工数を大幅に削減します。

開発ワークフローへの統合も一層強化されました。刷新されたCodex CLIとIDE拡張機能(VS Codeなどに対応)により、ローカル環境とクラウド環境間でシームレスに作業を移行できます。コンテキストが途切れないため、作業効率が劇的に向上します。

さらに、Codex画像やスクリーンショットを入力として受け付けるようになりました。これにより、フロントエンドのデザイン仕様やUIバグなどを視覚的にAIへ共有し、フロントエンドタスクの解決を効率化します。また、GitHub連携によりPRの自動レビューや編集指示も可能です。

安全性確保のため、Codexはデフォルトでサンドボックス環境で実行され、ネットワークアクセスは無効です。プロンプトインジェクションリスクを軽減するとともに、開発者セキュリティ設定をカスタマイズし、リスク許容度に応じて運用することが可能です。

AIで人事業務を変革。msgがBedrock活用し高精度な人材配置を実現

導入の背景と目的

HRデータが非構造化・断片化
候補者マッチングやスキル分析の非効率
人員配置・人材育成の迅速化が急務

Bedrock活用の仕組み

AWS BedrockによるLLM駆動のデータ連携
ハイブリッド検索アプローチで精度向上
SaaSソリューションmsg.ProfileMapの中核機能

経営インパクトと実績

マニュアル検証作業を70%以上削減
高確度な統合提案の精度95.5%達成

ドイツのITサービス企業msgは、Amazon Bedrockを導入し、人事部門におけるデータ連携(ハーモナイゼーション)の自動化に成功しました。これにより、従業員のスキルや能力に関する断片的なデータを高精度で統一。手作業による検証負荷を70%以上削減し、人材配置や育成計画の精度を大幅に向上させています。

多くの企業が直面するのは、HRデータが非構造化文書やレガシーシステムに散在し、フォーマットが不整合である点です。このデータの「不協和音」が、候補者マッチングやスキルギャップ分析を妨げていました。msgは、この課題を解決するため、スケーラブルで自動化されたデータ処理基盤の構築を目指しました。

msgのスキル・能力管理SaaS「msg.ProfileMap」は、多様な入力データを抽出し、AI駆動の調和エンジンに送ります。ここではAmazon BedrockのLLMが活用され、異なるテキスト記述であっても意味的な一致性(セマンティック・エンリッチメント)を確保。重複を防ぎ、一貫性のあるデータへと変換します。

このAI駆動のデータ調和フレームワークは高い効果を発揮しました。社内テストでは、高確率で統合すべき推奨概念について95.5%という高精度を達成しています。また、外部の国際的なベンチマーク(OAEI 2024 Bio-ML)においてもトップクラスのスコアを獲得し、その汎用性の高さを証明しました。

msgがAmazon Bedrockを選定した主な理由は、低遅延な推論実行、柔軟なスケーリング、および運用上のシンプルさです。サーバーレスな完全マネージド型サービスであるため、インフラ管理のオーバーヘッドが不要。消費ベースの課金体系がSaaSモデルに適し、迅速な拡張を可能にしました。

さらに、Bedrockは欧州連合(EU)のAI法やGDPR(一般データ保護規則)などの厳格なコンプライアンス要件を満たす上で重要な役割を果たしました。msgの事例は、複雑なインフラを構築せずに、生成AIとクラウドサービスを組み合わせることで、高精度かつコンプライアンス対応可能なプラットフォームが実現することを示しています。