エネルギー(インフラ)に関するニュース一覧

Orbital、GPU衛星網で宇宙AI推論へ

衛星1万基の計画

GPU搭載小型衛星のメッシュ網
太陽光発電で各100kW確保
推論特化で設計を簡素化
a16z出資、2027年打ち上げ

技術課題と展望

放射線によるGPU誤動作リスク
真空中の放熱が大きな壁
軌道上の修理・保守が困難
実用化に10〜20年との指摘も

ロサンゼルスのスタートアップOrbitalが、AI推論に特化した宇宙データセンターの構築計画を発表しました。Andreessen Horowitz(a16z)の支援を受け、太陽光発電で稼働するGPU搭載小型衛星を低軌道に打ち上げ、地上データセンターが直面する電力不足を回避する構想です。創業者のEuwyn Poon氏は「地上の電力容量では足りない。唯一の道は宇宙だ」と語っています。

計画では、テニスコート大のソーラーパネルと同等サイズの放熱パネルを備えた冷蔵庫サイズの衛星を最大1万基配備します。各衛星は約100キロワットの電力GPUサーバーラックを駆動し、衛星間はレーザー光通信で接続されます。ユーザーのリクエストは地上局から衛星に転送され、処理結果が同じ経路で返される仕組みです。

推論に特化している点は技術的に合理的です。大規模モデルの学習にはGPUクラスタの密結合が必要ですが、推論は1リクエストあたりの計算負荷が小さく、独立したノードへの分散が容易です。衛星1基あたり100キロワットに抑えることで設計も大幅に簡素化されるとPoon氏は説明しています。成功すればOpenAIAnthropicといった大手AIラボにAPI経由で推論能力を提供する計画です。

一方、宇宙ならではの課題は山積しています。放射線がGPUにビットフリップなどのエラーを引き起こすリスク、空気のない環境での放熱の難しさ、故障時の修理困難性が大きな壁です。テキサスA&M;大学のAmit Verma教授は、チャットボットやレコメンド機能には数十ミリ秒の遅延は許容できるものの、リアルタイム株式取引のような用途には不向きだと指摘しています。

Orbitalは2027年にSpaceXFalcon 9で試験衛星を打ち上げ、軌道上でのGPU稼働と商用推論処理を検証する予定です。2028年にはロサンゼルスに製造施設を建設する計画ですが、工学物理学者のAndrew Côté氏は宇宙データセンターの実用化には少なくとも10〜20年かかると予測しており、Orbitalの工程表は野心的と言えるでしょう。

カリフォルニア州知事候補がAI失業者への雇用保証を提案

雇用保証の具体策

トークン課税で財源確保
住宅・医療エネルギー分野で雇用創出
訓練・見習いプログラムへの大規模投資
失業保険の適用範囲拡大

AI労働者保護の枠組み

AI労働者保護局の新設
労組・学者・技術者による規則策定
全米で広がるAI雇用対策の動き
連邦政府の規制抑制との緊張関係

カリフォルニア州知事選に出馬中のトム・ステイヤー氏が、AIによって職を失った労働者に福利厚生付きの雇用を保証する政策を発表しました。州全体の選挙で候補者がこうした公約を掲げるのは全米初です。同氏は3月に公表したAI政策の枠組みを拡充し、カリフォルニアを「世界初の雇用保証を実現する主要経済圏」にすると宣言しています。

財源にはAI企業へのトークン課税を充てます。これはAIが処理するデータ1単位あたりごくわずかな税を課す仕組みで、税収はゴールデンステート政府系ファンドに積み立てられます。資金は住宅建設、医療エネルギーインフラの近代化といった分野の雇用創出に振り向けられる計画です。トークン課税の概念はAnthropicダリオ・アモデイCEOやOpenAIも支持しており、産業界からも一定の理解を得ています。

計画にはさらに失業保険の拡充と、AI労働者保護局の設立が含まれます。同局は労働組合のリーダー、学者、技術者で構成され、労働者の権利を守る規則を策定します。民主党予備選の対立候補ベセラ氏もAI対策を打ち出していますが、具体的な財源は示していません。

一方、トランプ大統領は2025年12月にAI規制を進める州への連邦通信助成金停止を可能にする大統領令に署名しており、州レベルの規制と連邦政府の方針には緊張が生じています。ニューヨークではAI規制を掲げる議会候補にシリコンバレー系スーパーPACが対抗するなど、政治的対立も激化しています。ステイヤー氏は「AIを規制しないのは合理的ではない」と述べ、起業家だけが恩恵を受ける未来を拒否する姿勢を鮮明にしました。

米エネルギー長官とNVIDIA、AI電力基盤でGenesis計画推進

Genesis計画の全容

DOEの17国立研究所が参画
Argonne研に10万GPUスパコン建設
5000エクサフロップスの科学専用計算力
融合研究向けAIエージェント開発

エネルギーとAIの相互依存

電力生産の停滞がAI成長の障壁に
SMR3基が7月までに臨界達成予定
Blackwellでワット性能25倍向上
送電網審査をAIで年単位から週・時間へ

2026年5月7日、SCSP AI+ Expoで米エネルギー省(DOE)のクリス・ライト長官とNVIDIA副社長イアン・バックが対談し、AI時代の米国エネルギー戦略「Genesis計画」の進捗を語りました。同計画はDOEの17国立研究所とNVIDIAが連携し、AIを科学的発見に応用する国家規模の取り組みです。

NVIDIAとDOEはアルゴンヌ国立研究所に2台のAIスーパーコンピュータを共同建設中です。1台目のEquinoxは1万基のGrace Blackwell GPUで現在構築中、2台目のSolsticeは次世代Vera Rubinチップ10万基を搭載し、5000エクサフロップスの演算能力を実現します。これは現在のTOP500スパコン合計の5倍に相当します。

具体的な成果として、NVIDIAは150万本の物理学論文で訓練し、10万本の核融合論文で微調整したオープンソースAIモデルを開発しました。DOE研究者はこの専門AIエージェントを使い、融合研究を加速できます。バック氏は「NVIDIAは世界中のAIラボが使うのと同じ技術を、すべての世界の科学に開放する」と述べました。

ライト長官はエネルギー面の課題を指摘しました。米国は過去20年で石油生産を3倍、天然ガスを2倍に増やしましたが、電力生産はほぼ横ばいです。対策として小型モジュール炉(SMR)3基を今年7月4日までに臨界させるほか、大型原子炉の新設や核融合戦略室の設置を進めています。

AI自体もエネルギー効率改善に貢献しています。NVIDIAはHopper世代からBlackwell世代でワットあたり性能を25倍向上させました。さらにAIは送電網の相互接続審査を年単位から数週間・数時間に短縮する可能性があります。ライト長官は「データセンター建設は電力コストを下げ、送電網を強化する仕組みだ」と強調し、AIとエネルギーの好循環を訴えました。

Google、FitbitアプリをGoogle Healthに刷新しAIコーチ公開

アプリ統合と新ブランド

FitbitアプリがGoogle Healthアプリに改称
ウェアラブル医療記録・他社アプリのデータを一元管理
Google Fitユーザーも年内に移行予定

AIヘルスコーチの一般提供

Gemini搭載のAIコーチが5月19日に正式公開
運動・睡眠・栄養・生理周期を横断的に個別最適化
月額9.99ドル、Google AI Pro/Ultra会員は追加費用なし

新デバイスFitbit Air

画面なし・12gの超小型トラッカーを99ドルで発売
ステファン・カリー共同デザインの特別版は129ドル

Googleは2026年5月7日、FitbitアプリをGoogle Healthアプリへリブランドし、GeminiベースのAIヘルスコーチの一般提供と、新型スクリーンレストラッカーFitbit Airの発売を同時に発表しました。5月19日からの展開で、既存Fitbitユーザーのアプリは自動更新されます。Googleウェアラブル・健康データ・AI指導を統合し、パーソナライズされたヘルスケア体験を打ち出します。

Google Healthアプリは、Fitbitデバイス、Pixel Watch、Health Connect、Apple Healthに加え、米国では医療記録も統合できる包括的な健康プラットフォームです。Today・Fitness・Sleep・Healthの4タブ構成に刷新され、PelotonやMyFitnessPalなど数百の外部アプリとも連携します。将来的にはGarminやWhoop、Ouraなどサードパーティウェアラブルにも対応予定です。

Google Health CoachGeminiモデルを基盤とし、フィットネス・睡眠・栄養・メンタルヘルスを横断的に分析して24時間対応のパーソナルコーチングを提供します。昨年10月のパブリックプレビューには約50万人が参加し、100万件超のフィードバックを反映して改良されました。月額9.99ドルまたは年額99ドルのGoogle Health Premium(旧Fitbit Premium)に含まれ、Google AI ProおよびUltraの加入者は追加費用なしで利用可能です。

新デバイスのFitbit Airは、わずか5.2g(本体のみ)の画面なしトラッカーで、心拍数・血中酸素・皮膚温度など主要センサーを搭載します。バッテリーは約1週間持続し、5分の急速充電で1日分の電力を確保できます。Pixel Watchとの同時ペアリングにも対応し、日中はスマートウォッチ、夜間はAirという使い分けが可能です。

NBA4度の優勝を誇るステファン・カリーGoogleのパフォーマンスアドバイザーとしてAIコーチの開発に参画し、特別版バンドを共同デザインしました。特別版は129.99ドルで5月26日に店頭発売されます。GoogleはFitbitの健康データを広告に利用しないとの方針を維持しつつ、Whoop・Apple Watchなど競合がひしめくAIヘルス市場でプラットフォーム統合を武器に差別化を図ります。

AlphaEvolve、研究から実用段階へ拡大

科学・社会課題への応用

DNA解析のエラー補正を改善
災害予測の精度向上を実現
電力網安定化をシミュレーションで実証
分子シミュレーション・神経科学にも貢献

ビジネスへの展開

Google自社インフラの効率化に活用
Cloud顧客のML最適化・創薬を加速
サプライチェーンと倉庫設計を最適化

Google DeepMindは2026年5月7日、Geminiを基盤とする進化的アルゴリズムエージェントAlphaEvolve」が研究段階を超え、科学・ビジネスの実問題解決に本格展開していると発表しました。AlphaEvolveは1年前に公開され、複雑な問題に対して最適化されたアルゴリズムを反復的に発見する仕組みです。

科学分野では、DNA配列解析のエラー補正精度を向上させたほか、災害予測の精度改善や電力網の安定化シミュレーションで成果を上げています。さらに複雑な分子シミュレーションの高速化や、神経科学における新たな知見の獲得にも寄与しています。

ビジネス面では、Googleの自社インフラ効率化に加え、Google Cloudの顧客企業が機械学習モデルの改善、創薬の加速、サプライチェーンの改善、倉庫設計の最適化に活用しています。自己改善型アルゴリズムの実用範囲は着実に広がっています。

Googleは今後、AlphaEvolveの能力をさらに多くの実世界の課題に展開する計画です。研究成果を実用に転換する自己改善型AIの代表例として、企業のAI活用戦略に影響を与える可能性があります。

TSMC、台湾沖で1GW洋上風力の30年契約を締結

大型風力電力契約の概要

1GW超の洋上風力を30年購入
カナダNorthland Powerと契約
台湾海峡の3風力サイトが対象
2027年に全面稼働予定

台湾エネルギー危機の背景

中東紛争でLNG供給が3分の1減少
天然ガスが電力の約半分を占める構造
燃料備蓄はわずか2週間分
豪州・米国から代替調達で急場しのぎ

半導体受託製造最大手のTSMCは、カナダの電力大手Northland Powerとの間で、台湾海峡に位置する洋上風力プロジェクト「海龍(Hai Long)」の発電量100%を購入する30年間の電力購入契約を締結しました。対象となる3つの風力発電所の合計出力は1GWを超え、台湾の100万世帯以上に相当する電力を賄える規模です。

海龍プロジェクトは2025年にすでに台湾の送電網への電力供給を開始しており、2027年の全面稼働を予定しています。AI向け半導体の需要急増に伴い、TSMCの製造拠点では膨大な電力消費が見込まれるなか、再生可能エネルギーの長期確保に踏み切った形です。

この動きの背景には、台湾が直面する深刻なエネルギー危機があります。2026年3月、中東紛争の激化によりイランの無人機攻撃でカタールの天然ガス施設が損傷し、同国は生産を停止しました。台湾は電力の約半分を天然ガス火力に依存しており、通常のLNG供給の3分の1を一度に失う事態となりました。

台湾の燃料備蓄はわずか2週間分しかなく、政府はオーストラリア米国など代替供給元の確保に奔走しています。TSMCの洋上風力契約は、こうしたエネルギー安全保障上のリスクを軽減し、化石燃料への依存から脱却する戦略的な一手といえます。

AnthropicがSpaceXAIの巨大データセンターと計算資源契約を締結

契約の概要と背景

Colossus 1の全計算資源を取得
300MW超・GPU約22万基の大規模契約
Claude Pro/Max利用者の容量拡大へ
軌道上データセンターにも関心表明

xAIの戦略転換とIPO

Grok利用減でネオクラウド事業に軸足
Colossus 2へ移行し旧施設を収益化
SpaceXAI上場に向けた投資家訴求
GoogleMetaと異なる計算資源外販路線

AI業界の計算資源争奪戦

Anthropicクラウド総契約が3000億ドル超規模に
主要クラウドの受注残の半分をAI企業が占有

AnthropicSpaceXAIは2026年5月6日、AnthropicxAIのメンフィス所在データセンターColossus 1」の計算資源を利用する契約を締結したと発表しました。Anthropicは同社の年次開発者カンファレンスで発表し、SpaceXAI側もブログ記事で詳細を公開しています。この契約により、Anthropic300メガワット超電力容量と約22万基のNvidia GPU(H100、H200、GB200)へのアクセスを得ます。

Anthropicはこの計算資源を「Claude Pro」「Claude Max」の利用者向け容量拡大に充てる方針です。近年、Claude Codeなどのサービスでは利用制限やサービス中断への不満が高まっており、開発者は週平均20時間以上Claude Codeを使用しているとされます。また、Anthropic軌道上AI計算基盤の共同開発にも関心を示しており、SpaceXAIの宇宙データセンター構想の将来的な顧客となる可能性があります。

この提携xAIの戦略的転換を象徴しています。xAIはすでにトレーニングを新施設Colossus 2に移行済みで、旧施設を外部に貸し出すことで収益化を図りました。TechCrunchの分析によれば、画像生成問題でGrokの利用者が減少するなか、xAIは計算資源の販売を主軸とする「ネオクラウド」企業へと変貌しつつあります。GoogleMetaが自社のAI開発のために計算資源を囲い込む戦略とは対照的です。

SpaceXAIにとって、この契約はIPOを控えた重要な実績となります。Anthropicという有力顧客の存在は、軌道データセンターを含む今後の大規模インフラ投資の収益性を投資家に示す材料になります。一方で、競合に計算資源を販売する姿勢は、xAI自身のソフトウェア開発やコーディングツールへの野心と矛盾するとの指摘もあります。

AI業界全体では計算資源の争奪が激化しています。AnthropicGoogle Cloudに2000億ドル、Amazonに1000億ドル超のコミット契約を結んでおり、AnthropicOpenAIの契約だけで主要クラウド事業者の受注残2兆ドルの半分以上を占めるとも報じられています。計算資源の確保がAI開発の成否を左右する時代が本格化しています。

海上浮体式AIデータセンターに1.4億ドル調達

波力発電で演算処理

波の動力でタービン発電
船上AIチップ推論実行
衛星回線で結果を送信
エネルギー輸送をデータ輸送に転換

冷却と立地の優位性

海水による自然冷却電力節約
淡水消費ゼロの冷却方式
陸上用地不足の代替手段
オレゴン州で試作工場建設へ

Palantir共同創業者ピーター・ティール氏らシリコンバレー投資家が、海洋波力でAIデータセンターを稼働させるスタートアップPanthalassaに1億4000万ドルの資金を投じました。陸上でのAIデータセンター建設が用地確保や電力供給の面で困難を増すなか、海上での演算処理という新たなアプローチが注目を集めています。

Panthalassaの「ノード」は、巨大な鋼鉄球が海面に浮かぶ構造で、下部に垂直の管状構造を備えます。波の動きが管内の水を加圧タンクへ押し上げ、放水時にタービンを回転させて再生可能エネルギーを生成します。この電力で搭載AIチップを直接駆動し、推論結果を衛星通信で世界中の顧客に送信する仕組みです。

ペンシルベニア大学のコンピュータアーキテクト、ベンジャミン・リー氏は「エネルギーの輸送問題をデータの輸送問題に変換する発想だ」と評価しています。海上ノードにAIモデルを転送し、プロンプトへの応答を返すという構成で、従来の送電インフラに依存しない点が革新的です。

冷却面でも大きな利点があります。陸上データセンターは冷却に大量の電力と淡水を消費しますが、海上ノードは周囲の海水で直接チップを冷却できるため、環境負荷を大幅に低減できます。今回の資金はオレゴン州ポートランド近郊のパイロット製造施設の完成と、ノード配備の加速に充てられる予定です。

Googleが2026年4月のAI発表を総括

Cloud Nextの主要発表

Gemini Enterprise Agent Platform公開
第8世代TPUエージェント時代対応
Deep Research Maxで高度分析自動化

開発者・教育向け新機能

Gemma 4がオープンモデル最高性能
Colab Learn Modeでコーディング指導
AI Studio利用枠を有料会員に拡大

生活・ヘルスケア領域

Google Vidsの動画生成を無料開放
Google翻訳が20周年記念機能追加

Googleは2026年4月に実施した主要なAI関連発表をまとめた月次レポートを公開しました。同月はラスベガスで開催されたCloud Next '26を中心に、エンタープライズ向けAIエージェント基盤から開発者ツール、ヘルスケアまで多岐にわたる発表が行われ、参加者3万2,000人超に対して260以上の新機能が披露されました。

企業向けでは、自律型エージェントの構築と管理を可能にするGemini Enterprise Agent Platformが発表されました。また、エージェントAI時代の大規模計算需要に対応する第8世代TPUが登場し、電力効率と絶対性能の両面で大幅な向上を実現しています。Google CloudのAI利用率は顧客の約75%に達し、330以上の組織が過去1年で1兆トークン以上を処理していることも明らかになりました。

開発者向けには、パラメータあたりの知能で最高水準を誇るオープンモデルGemma 4がリリースされました。累計ダウンロード数は5億回を超えています。Google Colabには対話的なコーディング指導機能Learn Modeが追加され、コードの「なぜ」と「どうやって」をステップごとに説明します。さらにGoogle AI Studioの利用枠がPro・Ultra会員向けに拡大されました。

研究・分析分野では、高度なリサーチタスクを自律的に遂行するDeep Research Maxが発表されました。大量データの統合・分析にかかる作業負荷を大幅に削減する自律エージェントとして位置づけられています。

生活領域では、Google Vidsが無料で月10本の動画生成を開放し、Google翻訳は20周年を迎えて発音練習ツールを新搭載しました。ヘルスケア分野では、Google.orgとジョンソン・エンド・ジョンソン財団が1,000万ドルを投じて米国農村部の医療従事者向けAI研修を開始しています。Fitbitの健康コーチ機能もGeminiを活用してさらに個人最適化が進みました。

GoogleのAIエネルギー支援、2期生募集開始

アクセラレーターの概要

出資不要の支援プログラム
9月から11月までの3カ月間実施
Google Cloud基盤とAIツール提供
技術メンタリングとGTM戦略支援

対象と応募条件

北米・欧州・イスラエルが対象地域
プレシードからシリーズA後が対象
エネルギー効率・送電網・需要最適化の3領域
欧州は6月12日、北米は6月30日締切

Google for Startups Acceleratorは2026年5月4日、AIを活用してエネルギー分野の課題解決に取り組むスタートアップの応募受付を開始しました。2年連続の開催となる本プログラムは、送電網の近代化やエネルギー利用の効率化・低コスト化をAIで推進する企業を対象としています。

プログラムは9月から11月まで実施され、参加企業はエクイティフリー(出資不要)で支援を受けられます。Google Cloudのインフラや最先端AIツールへのアクセスに加え、AI・機械学習、プロダクトデザイン、市場戦略、リーダーシップ開発に特化したカリキュラムが提供されます。20以上のエネルギー関連企業やVCもパートナーとして参加します。

2025年の第1期では具体的な成果が報告されています。米国ArtemisGemini統合により太陽光画像の3D抽出エラー率を半減させ、スペインのDelfosは風力・太陽光設備の故障を最大300日前に予測するAIを構築しました。フランスのTilt Energyは2カ国に展開を拡大し、数百MWの分散型フレキシブル容量を運用しています。

対象領域は3つです。第1にエネルギー効率化と活用(家庭や産業のエネルギーコスト削減)、第2に送電網の近代化(送電分析やGET技術)、第3に需要の柔軟化と最適化(仮想発電所や負荷集約)。IEAの予測では今後5年間の世界の年間電力需要が過去10年比で50%増加する見通しで、AI活用による電力インフラ整備の重要性が一段と高まっています。

Cerebras、最大266億ドル評価でIPO準備へ

IPOの概要

28百万株を115〜125ドルで売出し
最大35億ドルの調達見込み
2026年最大のテックIPOとなる可能性
需要は募集額の約3倍に到達

OpenAIとの深い関係

OpenAI10億ドルを融資済み
3300万株超のワラント付与
Sam Altmanら幹部が個人投資
複数年100億ドル超の計算資源契約

AIチップメーカーのCerebras Systemsは2026年5月4日、新規株式公開(IPO)の準備を正式に発表しました。2800万株を1株あたり115〜125ドルで売り出し、最大35億ドルを調達する計画です。上限価格で算出した時価総額は約266億ドルに達し、実現すれば2026年最大のテックIPOとなります。

Cerebrasの最大の強みはOpenAIとの深い関係です。OpenAIは2025年12月にCerebrasへ10億ドルを融資し、3300万株超を取得可能なワラントを保有しています。さらに複数年で100億ドル超の計算資源契約を締結しており、Cerebrasの主要顧客です。CEOのSam Altmanをはじめ、Greg Brockman、Ilya SutskeverらOpenAI創業メンバーも個人で出資しています。

同社はGPUベースの競合に対抗する独自チップWafer-Scale Engine 3」を提供しています。推論処理でGPUより高速かつ省電力と主張しており、AI推論需要の急増を追い風にしています。投資家にはAlpha Wave、Benchmark、Eclipse、Fidelity、Foundation Capitalのほか、Tiger Global、Coatue、AMD、アブダビのG42など著名な機関投資家が名を連ねます。

Cerebrasは2024年にもIPOを試みましたが、G42からの投資に対する米連邦政府の審査で延期となった経緯があります。その後2025年9月に81億ドル評価で11億ドル、2026年2月に230億ドル評価で10億ドルを調達し、今回のIPOに至りました。Bloombergによれば、すでに募集額35億ドルに対し約100億ドルの注文が集まっており、公開価格が提示レンジを上回る可能性が高いとされています。

Googleがオクラホマ州で電力料金の負担抑制へ長期契約

エネルギー契約の概要

OG&E;と長期エネルギー契約締結
地域住民・企業への料金転嫁を防止
送電網の増強と新規電源の開発を支援

クリーンエネルギーの拡大

太陽光発電所の電力購入契約を締結済み
ステファンズ郡・マスコギー郡の施設が対象
OG&E;への容量提供で地域電力を補完
2007年以来の長期的な地域投資継続

Googleは2026年4月30日、オクラホマ州の電力会社Oklahoma Gas and Electric(OG&E;)との長期エネルギー契約を発表しました。この契約は、同州マスコギーとスティルウォーターで建設中のデータセンターキャンパスへの電力供給を目的としており、データセンター拡大に伴うインフラ費用をGoogleが負担することで、地域の一般家庭や企業への電気料金転嫁を防ぐ仕組みです。

契約の核心は、Google自社の成長に必要なインフラ建設費用を長期的に負担する点にあります。これにより電力会社は新たな電源の開発や送電網の増強に必要な投資の裏付けを得られます。Googleエネルギー需要の拡大と料金の手頃さは両立できるという立場を示しています。

クリーンエネルギーの導入も進めています。2025年11月にはステファンズ郡とマスコギー郡の太陽光発電から電力を購入する契約を締結しました。Googleはこれらの施設の容量購入契約をOG&E;に提供し、地域全体の電力需要増加に対応するための新規エネルギー調達の一部を補う計画です。

Googleは2007年からオクラホマ州に拠点を構えており、地元の電気技師の育成支援や学校への省エネ設備寄付など、地域貢献を続けてきました。今回の契約はAI関連のデータセンター需要拡大に伴う電力コスト問題への対応策として、テック企業と地域社会の共存モデルを示す取り組みといえます。

Oracle、OpenAIに社運賭けた巨額契約の行方

3000億ドルの賭け

OpenAI向けDC建設に430億ドル借入
伝統的DB事業からAI基盤へ全面転換
CDS市場でAIリスクの代理指標に

OpenAIの不安要素

売上・ユーザー成長の目標未達
IPO計画にも暗雲
幹部の相次ぐ離脱と経営混乱

外部リスクと成長機会

イラン戦争で資材・エネルギー高騰
ByteDanceが大口顧客に成長

Oracleが、OpenAIとの3000億ドル規模のデータセンター契約に社運を賭けています。創業者ラリー・エリソン氏の主導のもと、同社は伝統的なデータベース事業からAIインフラ事業へと大胆に舵を切りました。2026会計年度だけで430億ドルの負債を抱え、5つの大規模データセンター建設に乗り出しています。

この戦略の最大のリスクは、パートナーであるOpenAI自体の不安定さです。OpenAIは売上とユーザー成長の目標を達成できず、CFOが将来のコンピューティング契約の支払いに懸念を示していると報じられています。Stargateプロジェクトの主要幹部がMeta等に流出し、IPO計画にも不透明感が漂います。Oracleの残存履行義務5530億ドルのうち、3000億ドル超がOpenAI関連であり、同社の命運はOpenAIの経営に大きく左右されます。

外部環境もOracleに逆風を送っています。イラン戦争によるホルムズ海峡封鎖は、半導体製造に不可欠なヘリウムの供給やアルミニウム価格に影響を与え、データセンター建設コストを押し上げています。さらに、米国11州がデータセンター建設のモラトリアムを検討するなど、地域住民の反対運動も激化しています。

一方で明るい材料もあります。ByteDanceNvidiaの輸出規制を回避するためにOracleからチップを借り受け、大口顧客に成長しています。米政府との契約も増加しており、メディケア・メディケイドや空軍との案件を獲得しました。エリソン氏が描く「プライベートAI」構想では、Oracleが既に保有する企業の機密データにAIを適用し、推論サービスで収益を上げるビジョンを掲げています。

Oracleの信用リスクを示すCDSは、AI業界全体のリスク指標として注目されています。債券市場では12月にジャンク債並みの価格で取引される場面もありました。今後の焦点は、データセンター建設を予定通り完遂できるか、そしてOpenAIが契約通りの支払いを履行できるかです。エリソン氏の大胆な賭けが成功するかどうかは、AI産業全体の行方を占う試金石となるでしょう。

中東データセンターへの攻撃で大手IT企業が投資凍結

施設被害と投資判断

Pure DC、中東全投資一時停止
イラン攻撃でAWS施設3拠点が被害
構造損傷・電力障害・水損害が発生

クラウドへの波及

銀行・決済など広範囲で障害
配車アプリCareemにも影響
戦争被害は保険適用外で企業負担
湾岸DC計画の根本的見直し

ロンドン拠点のデータセンター開発企業Pure Data Centre Groupは、イランのミサイルまたはドローン攻撃により自社施設が損傷したことを受け、中東における全プロジェクトへの投資を凍結しました。同社のゲイリー・ウォイタシェクCEOはCNBCの取材に対し、「状況が落ち着くまで、誰も大規模な新規資本を投入しない」と語っています。Pure DCは欧州・中東・アジアで1ギガワット超のデータセンター容量を運営・開発しています。

今回の判断の背景には、2月28日の米国・イスラエルによるイラン攻撃を発端とするイラン戦争があります。イランはホルムズ海峡の封鎖による貿易妨害に加え、湾岸地域の米軍基地やエネルギーインフラへの攻撃で応酬しました。シリコンバレー投資家やテック企業が湾岸諸国で進めてきた数兆ドル規模のAI・クラウド向けデータセンター建設計画は、根本的な見直しを迫られています。

イランはアラブ首長国連邦のAWSデータセンター2拠点を直接攻撃したほか、バーレーンの3拠点目も自爆ドローンの至近弾で損傷させました。AWSは3月1日にサービスダッシュボードを通じて、構造的損傷、電力供給の途絶、消火システム作動による水損害が発生したと報告しています。

この被害により、銀行や決済プラットフォーム、ドバイ拠点の配車アプリCareem、データクラウドSnowflakeなど、AWSの顧客企業に広範なクラウドサービス障害が波及しました。戦争による被害は保険の適用対象外であり、データセンター開発企業が自らコストを負担せざるを得ない状況です。地政学リスクが、AIインフラの立地戦略そのものを揺るがしています。

Stanford大、ゼロ演算を省く疎行列チップでAI効率70倍に

スパース計算の原理

モデルの大半がゼロ値パラメータ
ゼロ演算の省略で高速化
圧縮格納によるメモリ削減
GPUは非構造化スパースに非対応

Onyxチップの成果

CPUの70分の1エネルギー消費
平均8倍の計算速度
構造化・非構造化の両方に対応
密・疎の両ワークロードを1チップで処理

スタンフォード大学の研究チームが、AIモデル内のゼロ値パラメータを活用する専用チップOnyx」を開発しました。大規模言語モデルでは重みや活性値の大半がゼロまたはゼロに近い値であり、この「スパース性」を利用すれば不要な演算を省略できます。Onyxは従来のCPUと比較して平均で消費エネルギーを70分の1に抑え、計算速度を8倍に向上させています。

AIモデルの巨大化が進む中、Metaの最新Llamaは2兆パラメータに達しています。モデルの大型化は性能向上につながる一方、エネルギー消費と処理時間の増大が深刻な課題です。低精度演算や小型モデルの利用といった対策が取られてきましたが、スパース計算はモデルの性能を維持しつつ効率を高める第三の選択肢として注目されています。Cerebrasの研究では、LLMのパラメータの最大70〜80%をゼロに設定しても精度を損なわないことが示されました。

しかし、既存のGPUやCPUはスパース計算に最適化されていません。NVIDIAGPUは「4要素中2つがゼロ」という構造化スパースにしか対応しておらず、任意の位置にゼロが存在する非構造化スパースでは性能が大きく低下します。CPUはより柔軟ですが、圧縮データの間接参照によるメモリアクセスがボトルネックとなります。Appleは独自チップのプリフェッチャー改良で対応を試みていますが、汎用アーキテクチャの根本的な制約は残ります。

Onyxは粗粒度再構成可能アレイ(CGRA)をベースに設計されており、FPGAの柔軟性とCPUの効率性を両立しています。メモリタイルが圧縮行列を格納し、演算タイルが不要なゼロ演算をすべて省略します。専用コンパイラがソフトウェア命令をCGRA構成に自動変換するため、開発者は疎・密の両方のワークロードを同一チップ上で実行できます。エネルギー遅延積ではIntel Xeon CPUの最大565倍の効率を達成しました。

研究チームは次世代チップの開発を進めており、行列演算だけでなく正規化やソフトマックスなど全演算のスパース対応を目指しています。密・疎アーキテクチャのチップ上での統合効率化や、複数チップでの分散処理にも取り組んでいます。スパースハードウェアの普及は、AI計算の実行コスト・消費電力・環境負荷を大幅に低減する可能性があります。

アメリカ農村部でAIデータセンター建設への反対運動が拡大

農村部への建設ラッシュ

計画中の67%が農村部に集中
3年間で160以上の新施設が建設
安い土地と税優遇を求め都市から移転

住民の反発と世論の変化

水資源への影響を懸念し反対運動
イリノイ州で住民運動により計画撤回
環境・電力コスト・生活の質で否定的評価
Pew調査で有害との認識が優勢に

アメリカの農村部で、AIやクラウドコンピューティング向けデータセンターの建設に対する住民の反発が広がっています。従来は都市部に集中していたデータセンターですが、安価な土地と税制優遇を求めて農村地域への進出が急増しており、Pew Research Centerの調査によると計画中のデータセンター67%が農村部に立地する一方、既存施設の87%は都市部にあります。

イリノイ州タズウェル郡では、農家のマイケル・デパート氏が地元の地下水資源への影響を懸念し、反対運動の先頭に立ちました。同氏はカボチャやトウモロコシ、大豆の栽培に帯水層の水を利用しており、約13キロ先に計画されたデータセンターが同じ水源を使用することで、作物の収穫量や利益が損なわれることを恐れたのです。住民たちは市議会に押しかけ、署名活動を展開した結果、開発業者ウェスタン・ホスピタリティ・パートナーズによる計画は数カ月後に撤回されました。

こうした抵抗運動はタズウェル郡に限った話ではありません。調査会社Data Center Watchのミケル・ビラ氏は「農村コミュニティがターゲットになっている」と指摘しています。Bloombergのデータによれば、過去3年間で160以上のAI特化型データセンター米国全土に新設され、総数は約70%増加しました。

データセンター産業の拡大に伴い、世論も厳しさを増しています。Pewの調査では、環境への影響、国内の電力コスト、周辺地域の生活の質のいずれにおいても、アメリカ人はデータセンターを有益よりも有害と見なす傾向が強いことが明らかになりました。AI需要の急成長を支えるインフラ整備と、地域住民の暮らしや環境の保全をどう両立させるかが、今後の大きな課題となりそうです。

MITがAI消費電力を秒単位で予測するツールを開発

EnergAIzerの仕組み

数秒電力消費を推定
AIワークロードの反復パターンを活用
GPU構成の変更にも対応
未展開の新設計にも適用可能

データセンターへの影響

推定誤差は約8%の高精度
従来手法は数時間〜数日が必要
リソース配分の最適化に貢献
モデル展開前の消費電力評価が可能

MITMIT-IBM Watson AI Labの研究チームが、データセンターで特定のAIワークロードを実行した際の消費電力数秒で予測できるツール「EnergAIzer」を開発しました。ローレンス・バークレー国立研究所の推計では、2028年までにデータセンター米国の総電力消費の最大12%を占めるとされており、AI時代のエネルギー効率改善は喫緊の課題です。

EnergAIzerは、AIワークロードに含まれる反復的なパターンに着目しています。ソフトウェア開発者GPU上で効率的に動作するよう最適化を施す際、並列処理コアへの作業分散やデータ移動に規則的な構造が生まれます。この構造を捉えることで、従来のように個々のステップを逐一エミュレーションする必要がなくなりました。

ただし高速推定だけでは全コストを網羅できない課題もありました。GPUがプログラムを実行する際のセットアップコストや、帯域幅の競合による速度低下に伴う追加電力などです。研究チームは実際のGPUから測定データを収集し、補正項を推定モデルに組み込むことでこの問題を解決しました。

実際のAIワークロードとGPUを使ったテストでは、EnergAIzerの推定誤差は約8%にとどまり、数時間かかる従来手法と同等の精度を実現しています。ユーザーはAIモデルの種類や入力の数・長さといったワークロード情報を入力するだけで、GPU構成や動作速度を変えた場合の電力消費の変化も確認できます。

データセンター運営者にとっては限られたリソースの効率的な配分に、アルゴリズム開発者にとってはモデル展開前のエネルギー評価に活用が期待されます。研究チームは今後、最新GPU構成への対応や、複数GPUが協調するワークロードへのスケーリングを目指すとしています。本研究はIEEE International Symposium on Performance Analysis of Systems and Softwareで発表されました。

Meta、宇宙太陽光で夜間データセンター電力を確保へ

契約と技術の概要

1GW電力容量を予約契約
近赤外線ビームで地上の太陽光発電に送電
高出力レーザーやマイクロ波より安全な方式
2028年1月に初の宇宙送電実験を計画

展開計画と事業規模

2030年から衛星打ち上げ開始予定
静止軌道に約1000機を配備
米西海岸から西欧までカバー
各衛星の運用寿命は10年以上

Metaは、宇宙空間から地上のデータセンターへ夜間電力を供給する新たな取り組みを発表しました。バージニア州アッシュバーンに拠点を置くスタートアップOverview Energyと容量予約契約を締結し、最大1ギガワット電力を宇宙から受け取る計画です。2024年時点でMetaデータセンターは年間1万8000ギガワット時以上を消費しており、AI需要の拡大に伴い電力確保が急務となっています。

Overview Energyの技術は、宇宙空間で豊富な太陽光を集め、近赤外線に変換して地上の大規模太陽光発電所に照射するというものです。高出力レーザーやマイクロ波による送電と異なり、人体に無害な広域赤外線ビームを使用するため、安全性や規制面での課題を回避できるとしています。既存の地上太陽光インフラをそのまま活用できる点も大きな利点です。

同社は既に航空機からの地上への送電実験に成功しており、2028年1月には低軌道衛星からの初の宇宙送電実験を予定しています。本格的な衛星打ち上げは2030年に開始し、静止軌道上に約1000機の衛星群を構築する計画です。各衛星は10年以上の運用が見込まれています。

衛星群が完成すれば、地球の約3分の1をカバーし、米西海岸から西欧まで電力を届けられます。地球の自転に伴い、夜を迎える各地の太陽光発電所に順次宇宙からの光を供給することで、蓄電池や化石燃料への依存を軽減できます。CEO のMarc Berte氏は、発電と送電の両方を担えることが競争優位になると語っています。

Google DeepMindが韓国政府と科学研究で提携

提携の概要と背景

韓国科学技術情報通信部との公式提携
AlphaGo戦から10周年の節目
ソウルにAIキャンパス設立へ

科学分野での協業

AlphaFold等5モデルを韓国研究機関に提供
生命科学・気象エネルギー分野が対象
SNU・KAIST等と共同研究開始

人材育成と安全性

韓国学生向けインターン機会を創出
韓国AI安全研究所と安全性で協力

Google DeepMindは2026年4月27日、韓国科学技術情報通信部(MSIT)との新たなパートナーシップを発表しました。10年前にソウルで行われた歴史的なAlphaGo対局を起点とし、AIを国家経済発展の柱に据える韓国政府の戦略を支援する枠組みです。韓国スタンフォードAI Index 2026でAI革新密度世界一とされ、主要30カ国中で最も速いAI導入率を記録しています。

具体的な取り組みとして、Googleはソウルオフィス内にAIキャンパスを設立します。ここを拠点に韓国の大学・研究機関とGoogle DeepMindの研究者が共同で科学的ブレークスルーを目指します。ソウル大学(SNU)、KAIST、MSITのAIバイオイノベーションハブとの協業が最初の対象です。

提供されるAIモデルは多岐にわたります。アルゴリズム設計エージェントAlphaEvolve、ゲノム解析モデルAlphaGenome、タンパク質構造予測のAlphaFold韓国で既に8万5千人以上が利用)、仮説生成を支援するAI co-scientist気象予測のWeatherNextの5つです。生命科学、エネルギー、気候変動の分野で研究の加速が期待されます。

人材育成面では、韓国学生Google DeepMindでのインターンシップ機会を提供する方針です。これはGoogle韓国で提供してきた5万件のAI Essentials奨学金に続く取り組みとなります。また、2024年のAIソウルサミットで表明したフロンティアAI安全コミットメントに基づき、韓国AI安全研究所(AISI)と安全性に関する研究やベストプラクティスの策定でも協力します。

韓国政府は5月に開所予定の国立AI for Science Center(NAIS)への投資も進めており、今回の提携はその基盤整備と連動しています。Google DeepMindの最先端モデルと韓国の科学人材の融合により、次世代の科学的発見を目指す大規模な官民連携が本格化します。

メイン州知事がデータセンター建設一時停止法案を拒否権で阻止

拒否権行使の背景

全米初の州単位モラトリアム法案
2027年11月までの新規許可停止を提案
特定プロジェクトの適用除外を知事が要求
除外条項なく知事が拒否権行使

広がる反対運動と影響

各地でデータセンター反対の動き拡大
ニューヨーク州も3年間停止を検討
電力料金と環境への影響が争点
法案提出者は電力網への悪影響を警告

アメリカ・メイン州のジャネット・ミルズ知事(民主党)は2026年4月、新規データセンターの建設許可を一時的に凍結する法案L.D. 307に対し、拒否権を行使しました。この法案は2027年11月1日まで新規許可を停止する内容で、成立すれば全米初の州単位でのデータセンター建設モラトリアムとなるはずでした。

ミルズ知事は州議会への書簡で、他州での大規模データセンターが環境や電力料金に与えている影響を踏まえると、建設の一時停止は「適切」であるとの認識を示しました。しかし、ジェイ町で計画されているデータセンター事業が地元の強い支持を得ていることを挙げ、この事業を適用除外とする条項が盛り込まれていれば「署名していた」と述べています。

AI需要の急増に伴い、アメリカ各地でデータセンター建設への住民反対運動が広がっています。ニューヨーク州でも3年間の新規建設停止法案が議論されるなど、エネルギー消費と環境負荷をめぐる懸念は全米規模の課題となりつつあります。

法案を提出した民主党のメラニー・サックス州議会議員は、知事の拒否権行使について「全ての電力料金支払者、電力網、環境、そしてエネルギーの将来に重大な影響を及ぼしうる」と批判しました。データセンター建設をめぐる規制の在り方は、今後も各州で激しい議論が続く見通しです。

CohereがAleph Alphaと合併、主権AI企業を設立へ

合併の構造と資金

Cohere主導で新会社設立
Schwarz Groupが5億ユーロ出資
評価額は約200億ドル
Series Eの主幹事も兼務

主権AIの狙い

カナダとドイツの政府が支援
規制業種と公共部門が対象
米国AI大手への代替を提供
STACKIT基盤のクラウド活用

カナダのAIスタートアップCohereドイツAleph Alphaを統合し、大西洋をまたぐ主権AI企業を設立すると発表しました。両社はそれぞれ自国のAI企業として注目を集めてきましたが、OpenAIなど米国勢に対抗するため、合併による規模拡大を選びました。新会社はCohereが主導し、当局と株主の承認を経て発足します。

資金面では、Aleph Alphaの主要株主であるスーパーマーケットチェーンLidlの親会社Schwarz Groupが全面的に支援します。同社は5億ユーロ(約6億ドル)の構造化融資を提供するとともに、CohereのSeries Eラウンドの主幹事として参画します。独経済紙Handelsblattによれば、評価額は約200億ドルに設定されました。Cohereの2025年ARRは2億4000万ドル、Aleph Alphaの収益は限定的であり、合算収益だけでは説明しにくい水準です。

新会社は防衛、エネルギー、金融、医療、製造、通信といった高度規制業種と公共部門をターゲットにします。プライバシーと独立性の要件を満たせない米国AI大手への代替として、企業の需要を取り込む戦略です。Schwarz GroupのIT部門が運営する主権クラウドサービスSTACKITの活用も見込まれています。

カナダとドイツの両政府もこの動きを歓迎しています。両国は最近「主権技術同盟」を立ち上げ、AI能力の強化と戦略的な技術依存の低減を掲げました。記者会見にはドイツのデジタル大臣とカナダのカウンターパートも登壇しています。ただし、欧州の組織がカナダを含む枠組みを十分に「主権的」とみなすかどうかは今後の課題です。

技術面では、Aleph Alphaの小規模言語モデル欧州言語向けトークナイザーの専門性が、大規模言語モデルに強みを持つCohereと補完関係にあるとCEOのAidan Gomez氏は説明しました。Aleph Alphaの約250名のチームも新会社に合流する見通しです。一方で、IPOの可能性が残る中、将来的な所有構造がどうなるかは不透明な部分もあります。

The Verge編集長が提唱する「ソフトウェア脳」とAI嫌悪の構造

ソフトウェア脳とは何か

世界をDB・コードで把握する思考様式
法律とコードの構造的類似性への指摘
ビジネス自動化との親和性
現実はDBに還元できないという限界
DOGE失敗が示した制御の幻想
人間の曖昧さを排除できない本質

AI嫌悪が広がる理由

Z世代のAI好感度18%に急落
NBC調査でAIの支持率がICE以下に
米国民の過半数がAIは害と回答
日常体験がマーケティングを無効化
データセンター反対が政治争点化
自動化の押し付けへの本能的拒否

業界と市民の断絶

OpenAIが2億ドルの広告投資で対応
Altman自身がマーケ不足と認識
Amodei発言が雇用不安を増幅
人間をDBに適合させる要求の無理
エネルギー消費の社会的許可未獲得
コンピュータが人に合わせるべきとの主張

The Verge編集長のNilay Patel氏は、Decoderポッドキャストで「ソフトウェア脳」という概念を提唱しました。これは世界をデータベースとコードの集合体として捉える思考様式を指し、ZillowやUberなど現代の主要サービスがこの発想で構築されてきたと指摘しています。Marc Andreessenが2011年に「ソフトウェアが世界を食う」と予言した流れがAIによって加速し、テック業界と一般市民の間に巨大な認識の溝が生まれていると分析しました。

AI嫌悪を示す世論調査の結果は深刻です。NBC Newsの調査ではAIの好感度がICE(移民・関税執行局)を下回り、Quinnipiacの調査では米国民の過半数がAIは害をもたらすと回答しました。特にZ世代はAIを最も多く使用しながら最も否定的で、Gallup調査によるとAIに希望を持つZ世代はわずか18%にとどまり、怒りを感じる割合は31%に上昇しています。

Patel氏は、テック業界がこの問題をマーケティングの課題と誤認していると批判します。OpenAIのAltman氏はTBPNポッドキャストに2億ドルを投じてAIの好感度向上を図りましたが、ChatGPTの週間利用者が9億人に達し、Google検索AI Overviewを日常的に目にしている人々に対して、広告で体験への反応を変えることはできないとPatel氏は断じています。

「ソフトウェア脳」の限界は複数の事例で示されています。Elon MuskのDOGEは政府のデータベースを掌握しようとして失敗し、データベースが現実と一致しないという根本的な問題に直面しました。また法律分野でのAI活用についても、法体系の本質は曖昧性にあるためコードのように決定論的に処理できないと指摘しています。ミシガン州最高裁元長官のBridget McCormack氏が提案したAI仲裁システムも、ソフトウェア脳の典型例として紹介されました。

Patel氏の核心的な主張は、AI産業が人間にデータベースへの適合を求めている点にあります。Ezra Klein氏がシリコンバレーで観察したように、AI推進派はメール・カレンダー・メッセージをすべてAIに開放し、自分自身をAIに「読み取り可能」にしようとしています。しかしPatel氏は、人々がコンピュータに適応するのは失敗であり、コンピュータこそが人に適応すべきだと主張します。雇用喪失・エネルギー消費・サイバーセキュリティリスクを伴うAIの現状に対し、一般市民が反発するのは当然の帰結だと結論づけました。

データセンター用ガス発電の排出量、国家規模を超える恐れ

米国の排出実態

11施設で年間1.29億トンのCO2排出可能性
モロッコ一国分を上回る温室効果ガス
xAIのメンフィス施設が住民の抗議を招く
送電網を介さない自家発電方式が急増
Stargate計画関連だけで年2400万トン
Fermiのトランプ冠施設は年4030万トン規模

環境目標との矛盾

Metaのオハイオ3施設で年550万トン排出
4年間の削減実績の10%超を相殺する恐れ
効率的タービンの世界的な不足が問題悪化
天然ガスから原子力への移行時期は不透明
再エネ投資と化石燃料依存の二面性が鮮明に
Googleはオーストリアに持続可能性重視の新施設

業界の今後

2026年初頭で100GWのガス発電が計画段階
2024年初頭の4GWから25倍に急増
ホワイトハウスの電力料金保護誓約は象徴的
上院民主党議員が排出量の説明を要求
Fermi CEOの突然の退任で先行き不透明に
許可取得と実際の建設は別問題

AI需要の急増に伴い、米国各地でデータセンター専用のガス発電施設の建設が加速しています。WIREDの調査によると、米国内11か所のデータセンター向け天然ガスプロジェクトは、合計で年間1億2900万トン以上の温室効果ガスを排出する可能性があり、これは2024年のモロッコ一国の排出量を上回る規模です。送電網に接続せず自前で発電する「ビハインド・ザ・メーター」方式が、AI企業の間で主流になりつつあります。

排出規模が特に大きいのは、テキサス州アマリロ近郊に建設中のFermiの「ドナルド・J・トランプ先端エネルギー・知能キャンパス」で、年間4030万トン以上のCO2換算排出が見込まれます。OpenAIStargate計画関連では3施設で年間2400万トン超、xAIのメンフィスとサウスヘイブンの2施設は合計で年間約1280万トンに達します。Microsoftがシェブロン系企業から電力購入を検討する西テキサスの施設は、単独でジャマイカ一国を超える年間1150万トンの排出が許可されています。

一方、Googleはオーストリアのクロンストルフに同社初のアルプス地域データセンターを発表しました。太陽光パネル付き緑化屋根、排熱回収システム、地元エンス川の水質改善基金など持続可能性を前面に打ち出しています。100人の直接雇用を創出し、上部オーストリア応用科学大学との人材育成連携も開始します。大手テック企業が環境負荷の大きいガス発電に依存する中、対照的なアプローチです。

気候への影響は深刻です。Metaはオハイオ州の3施設だけで年間最大550万トンを排出する可能性があり、同社が過去4年間で削減したとする2380万トンの10%超を相殺しかねません。エネルギー研究者ジョン・クーメイ氏は、データセンターは一般の発電所と異なり需要変動に応じた出力調整が不要なため、許可上の最大排出量に近い実排出になると指摘しています。さらに高効率タービンの世界的不足が、非効率な機器の使用を余儀なくさせています。

ただし、すべての計画が実現するとは限りません。Fermiは4月にCEOとCFOが相次いで退任し、株価が20%以上急落しました。OpenAIStargate計画の英国展開を一時停止しています。各社は天然ガスを原子力への「橋渡し」と位置づけますが、ガスタービンの廃止時期は明示されていません。2026年初頭時点でビハインド・ザ・メーター方式のガス発電計画は100GWに達しており、2024年初頭の4GWから25倍に膨れ上がっています。研究者マイケル・トーマス氏は「これが10倍になったらどうなるか」と警鐘を鳴らしています。

AIが熱電発電素子の設計を1万倍高速化

AIツールTEGNetの成果

従来比1万倍の設計速度を実現
ニューラルネットで熱電物理を近似
数千の素子構成をミリ秒で評価
試作品が既存最高水準と同等性能

産業応用への展望

廃熱から約9%の変換効率を達成
ビスマステルル化物の代替も可能に
製造コスト低減で実用化に前進
初の産業競争力ある発電コストを見込む

日本の物質・材料研究機構の森孝雄副拠点長らの研究チームが、熱電発電素子の設計を従来の1万倍の速度で行えるAIツール「TEGNet」を開発しました。この研究成果は2026年4月15日付のNature誌に掲載されています。熱電発電素子は温度差から直接電力を生み出す固体素子で、タービンなどの可動部品が不要ですが、電気を通しつつ熱を遮断する材料の探索に時間がかかることが普及の障壁となっていました。

TEGNetはニューラルネットワークを基盤とし、熱電材料の熱流や電気輸送を記述する複雑な物理方程式を近似的に学習します。従来は1つの構成を評価するのに数日から数週間かかっていた作業を、ミリ秒単位で実行できるようになりました。これにより数千もの素子設計を網羅的にスクリーニングし、見落とされがちな最適構成を発見することが可能です。

研究チームはTEGNetを用いて2種類の発電素子設計を最適化しました。セグメント型ユニカップルと、n型・p型半導体を組み合わせた構成です。AIが特定した設計に基づき放電プラズマ焼結法で試作した結果、いずれも産業廃熱の典型的な温度条件下で約9%の変換効率を達成しました。これは熱力学的な上限であるカルノー限界の範囲内で最高水準の性能です。

コスト面でも大きな進展が見込まれています。従来の熱電素子は希少なテルルを含むビスマステルル化物に依存し、結晶成長の精密制御が必要でしたが、TEGNetが発見した設計の一部はより簡易な製造手法で作製でき、ビスマステルル化物を使わない構成も含まれます。森氏は「熱電発電の歴史上初めて、産業競争力のある発電コストを予測できる」と述べており、工場や製油所などの産業廃熱回収への実用化に道を開く成果です。

AI無料時代の終焉、各社が収益化を加速

収益化圧力の背景

最低7%のROIC達成が必要
年間2兆ドルのAI収益が目標
トークン消費5万〜10万倍増が条件

各社の対応と業界変化

Anthropicサードパーティ制限強化
企業向け料金を従量課金へ移行
オープンソースへの移行が加速

今後の見通し

市場統合で大手2社に集約の予測
用途特化型モデル活用が主流へ

AI企業の無料・低価格提供の時代が終わりを迎えつつある。Anthropicが人気AIエージェントツールOpenClawの利用を大幅に制限し、OpenAIChatGPT広告を導入するなど、主要AI企業が相次いで収益化策を打ち出しています。投資家OpenAIAnthropicなどに注いだ数千億ドルの回収期が到来し、長年にわたる無料・格安アクセスの提供から方針転換を迫られている状況です。

Gartnerの試算によると、2024年から2029年にかけてAIデータセンターへの設備投資は約6.3兆ドルに達する見込みです。この投資に対して最低7%のROICを確保するには、2029年までに累計約7兆ドルのAI関連収益が必要とされます。現在のトークン処理量は年間100〜200京トークンですが、目標達成には5万〜10万倍の増加が求められるという途方もない数字です。

推論コストの増大も収益圧迫の要因となっています。AIエージェント推論モデルは従来のチャットボットに比べてはるかに多くのトークンを消費します。バックグラウンドでの思考プロセスやサブエージェントの起動、精度検証などにより、ユーザーが目にしない裏側で膨大なトークンが使われています。直接的なインフラ電力コストだけなら妥当な利益率を確保できるものの、次世代モデルの訓練費用を加えると「持続不可能」な状態だとGartnerは指摘しています。

こうした状況を受け、企業顧客側も対応を進めています。オープンソースモデルへの移行やセルフホスティングの採用が広がり、用途に応じて高価な最新モデルと安価なモデルを使い分ける戦略が一般化しつつあります。法律AIスタートアップEveは、高コストな推論モデルの利用を25〜30%に抑え、残りをオープンソースや小型モデルで賄っています。

Gartnerのアナリストは、今後どの地域市場でも大規模言語モデル提供者は2社以下に集約されると予測しています。VC補助による成長期は市場獲得に必要だったものの、持続可能なビジネスモデルへの移行が急務です。AI技術がテック市場だけでなく看板やレジ端末など経済全体に浸透し、提供者がその取引から収益を得る構造が実現しなければ、評価額の下落や投資の枯渇につながるリスクがあると警告されています。

Google、第8世代TPUを訓練用と推論用の2チップ体制に刷新

訓練特化のTPU 8t

前世代比約3倍の121EFlops
100万チップ超の単一クラスタ構成
97%のgoodputで訓練効率最大化

推論特化のTPU 8i

Boardflyで低遅延ネットワーク実現
オンチップSRAM3倍でエージェント処理高速化
性能対コスト80%改善

垂直統合の競争優位

自社設計でNvidia税を回避
Axion ARM CPU搭載で電力効率2倍

Googleは4月22日、Cloud Nextカンファレンスで第8世代TPU(Tensor Processing Unit)を発表しました。従来の単一チップ路線を転換し、訓練専用のTPU 8t推論専用のTPU 8iの2チップ体制へ移行します。エージェントAI時代の異なるワークロード要件に対応するため、2024年にロードマップの分割を決断したと、同社SVPのAmin Vahdat氏が明かしました。

TPU 8tは大規模モデル訓練に特化し、1ポッドあたり9,600チップ、2ペタバイトの共有HBMを搭載します。前世代Ironwoodの約3倍となる121 FP4 EFlopsの演算性能を実現し、新開発のVirgoネットワークにより100万チップ超を単一論理クラスタとして接続可能です。フロンティアモデルの訓練期間を数カ月から数週間に短縮することを目指します。

TPU 8iはエージェントAIの推論ワークロードに最適化されています。288GBのHBMに加え、前世代の3倍となる384MBのオンチップSRAMを搭載し、大規模なKVキャッシュをチップ上に保持できます。新設計のBoardflyトポロジーでネットワーク径を50%以上削減し、リアルタイム推論レイテンシを最大5倍改善しました。1ポッドあたり1,152チップで、前世代比80%の性能対コスト向上を実現します。

チップとも自社設計のAxion ARMベースCPUをホストに採用し、前世代比2倍の電力効率を達成しました。Googleはシリコンからデータセンターまでの垂直統合設計により、OpenAIAnthropicなどNvidia GPUに依存する競合が支払う「Nvidia税」を回避できる点を強調しています。JAX、PyTorch、SGLang、vLLMなど主要フレームワークをサポートし、ベアメタルアクセスも提供します。

TPUの一般提供は2026年後半を予定しています。現時点ではGoogle自社ベンチマークのみで、独立した第三者検証はこれからです。また、CUDA/PyTorchエコシステムからの移行コストは依然として考慮すべき要素です。Citadel Securitiesなど先進企業がTPU採用を表明しており、フロンティアAI開発の競争軸が「GPUの調達力」から「スタック全体の設計力」へ移行しつつあることを示す発表となりました。

NVIDIA AIで地球を守る5つの取り組み

気候・防災への応用

Earth-2で高精度気象予測
津波警報を従来比100億倍高速化
衛星画像処理を秒単位に短縮

環境保全と資源循環

オランウータン巣の自動検出
AI選別で廃棄物回収率90%達成
リサイクル施設のCO2排出大幅削減
Planet社の地球観測データ即時分析

NVIDIAはアースデーに合わせ、AI技術で地球環境を保護する5つのプロジェクトを紹介しました。気候シミュレーション基盤「Earth-2」による高精度気象予測、絶滅危惧種オランウータンの保全、AIロボティクスによるリサイクル、津波早期警報、衛星画像のリアルタイム解析という5分野で、加速コンピューティングが環境課題の解決を後押ししています。

気象分野では、Earth-2がオープンなAI気象ソフトウェアスタックとして観測データの前処理から15日間の予測まで全工程を高速化します。Earth-2 Nowcastingは生成AIを活用し、国規模の予測をキロメートル解像度・6時間先までの局地予報に数分で変換します。データ同化モデル「HealDA」はNOAAやMITREと共同開発され、単一GPUで大気の全球スナップショットを数分で生成できます。

野生動物保全では、ボルネオとスマトラの熱帯雨林でGPU加速AIがオランウータンの巣をドローン画像から自動検出する研究が成果を上げています。従来は1時間のドローン飛行で30時間の画像分析が必要でしたが、AIモデルは1,800枚の画像を5分以内に処理します。InceptionV3ベースのモデルは99%超の精度を達成し、3種すべてが絶滅危惧種であるオランウータンの迅速な個体数モニタリングを可能にしています。

リサイクル分野では、NVIDIA InceptionメンバーのAMP社がAIロボティクスで廃棄物回収率90%を実現し、従来施設の約75%を大きく上回っています。これまでに20億ポンド以上の素材を埋立処分から転換し、推定73万9千トンのCO2排出を削減しました。NVIDIA Hopper GPUの採用でAI推論の消費電力も半減しています。

防災では、テキサス大学オースティン校のチームがカスカディア断層の津波予測でACMゴードンベル賞を受賞しました。物理モデルの事前計算とGPU処理により、従来手法の100億倍の速度で津波予測を完了し、沿岸住民の避難時間を確保します。また、Planet社はNVIDIAとの協業で衛星の生データからの画像処理パイプラインをGPUネイティブで構築し、山火事などの災害情報を従来の数時間から秒単位で提供する基盤を整えています。

AIエージェントが12時間でRISC-V CPUコアを自律設計

自律設計の仕組み

219語の仕様書のみで開始
人間の設計工程を模倣した構造化ハーネス
RTL記述からレイアウトまで全自動
サブエージェントとツール連携で反復処理

性能と意義

クロック1.48GHz、2011年相当の性能
RISC-V CPUコアのAI完全設計は初
シミュレーションでuCLinux動作を確認
4月末に設計ファイル公開予定

スタートアップのVerkor.ioは、AIエージェントシステム「Design Conductor」を用いて、RISC-V CPUコア「VerCore」をわずか12時間で設計したと発表しました。219語の設計仕様書を入力するだけで、設計・実装・テスト・レイアウトまでを自律的に完了し、EDAソフトウェアで使用可能なGDSIIファイルを出力します。これはAIエージェントによるRISC-V CPUコアの完全設計として初の事例です。

Design Conductorは、LLMを構造化されたステップに沿って動作させるハーネスです。人間のチップ設計者が踏む工程を模倣し、仕様分析からRTL記述、電力供給やタイミング検証、レイアウトまでを段階的に処理します。一部のタスクではOpenROADなどの外部ツールも呼び出します。SynopsysやCadenceもAIツールを提供していますが、仕様から完成まで全工程を自律処理する点がDesign Conductorの特徴です。

VerCoreのクロック速度は1.48GHzで、CoreMarkベンチマークで3,261点を記録しました。これは2011年のIntel Celeron SU2300と同等の性能です。最先端CPUには及びませんが、RISC-Vはオープン標準で無償利用可能なため、コスト面での実用性があります。チップはまだ物理製造されておらず、RISC-Vリファレンスシミュレータ「Spike」と学術用7nmプロセスキット「ASAP7 PDK」で検証されています。

ただし、LLMには人間の直感が欠けるという限界もあります。タイミングエラーの修正で非効率な試行錯誤を繰り返すなど、経験ある設計者なら避けられる問題に陥ることがあります。Verkor.ioのDavid Chin副社長は「経験を計算資源で代替している」と表現しています。設計の複雑さが増すほど計算コストは非線形に増大するため、専門家の知見との併用が現実的です。

それでも、小規模チームでのチップ設計を可能にする点で大きな意義があります。Verkor.ioによると、現時点では5〜10人の専門家チームがあれば量産可能な設計に到達できるとのことです。同社は4月末に設計ファイルを公開し、6月のDAC(設計自動化カンファレンス)でFPGA実装のデモを予定しています。

AI原発スタートアップFermi、CEOとCFOが突然退任し株価22%急落

経営陣の突然の退任

共同創業者CEOが会長職も辞任
CFOも退任し取締役に就任
独立取締役が新会長に昇格
株価22%の急落

事業の行方

テキサス州にAIデータセンター建設中
原子炉による電力供給を計画
主要顧客との摩擦が表面化
Fermi 2.0」で再出発を表明

AI向け原子力発電を手がけるスタートアップFermiの共同創業者兼CEOトビー・ノイゲバウアー氏とCFOマイルズ・エバーソン氏が突然退任し、2026年4月20日の取引で株価が22%急落しました。ノイゲバウアー氏は会長職も辞任しましたが取締役には残留し、筆頭独立取締役のマリウス・ハース氏が新会長に就任しています。

Fermiは元米エネルギー長官リック・ペリー氏が共同創業した企業で、テキサス州アマリロに原子炉でAIデータセンター電力を供給する大型キャンパス「Project Matador」を建設中です。しかし近月、主要顧客との摩擦が報じられるなど、プロジェクトの進捗に懸念が出ていました。

同社はこの経営刷新をダラスへの本社移転などと合わせて「Fermi 2.0」と銘打ち、戦略的進化として投資家にアピールしています。しかし市場はCEO・CFO同時退任を深刻なリスクシグナルと受け止め、株価の大幅下落につながりました。

AI需要の急増に伴い、データセンター向け原子力発電は成長分野として注目を集めています。Fermiの経営混乱が同分野全体の信頼性にどう影響するか、今後の動向が注視されます。

米データセンター建設の約4割に遅延、衛星画像で判明

衛星画像が示す建設遅延の実態

計画の約4割が年内完成困難
MicrosoftOracle等の大型案件に影響
土地造成・基礎工事の進捗を衛星で分析
許認可書類との照合で3か月超の遅延を確認

労働力・電力・関税の三重苦

電気工や配管工など技能労働者が不足
電力需要増に送電網の拡張が追いつかず
中国製変圧器への関税が調達を圧迫
地元住民の反対運動も計画を阻害

2026年4月、Financial Timesが地理空間データ企業SynMaxの衛星画像を用いて、米国内のデータセンター建設計画の進捗を調査しました。土地の造成状況や基礎工事の進み具合を衛星から確認し、業界調査グループIIR Energyが集めた許認可書類や公式発表と照合した結果、約40%のプロジェクトが予定通りの完成に至らない見込みであることが明らかになりました。

遅延が確認されたのはMicrosoftOracleOpenAIといった大手テック企業の主要プロジェクトです。これらの案件では完成予定日から3か月以上の遅れが生じる可能性が指摘されています。シリコンバレー各社がAI向けに数千億ドル規模の投資を進める中、計画と現実の乖離が浮き彫りとなりました。

建設業界の幹部十数人への取材からは、労働力・電力・機材の慢性的な不足が主因であると判明しています。特にOpenAI関連のプロジェクトでは、電気工や配管工といった技能労働者の確保が複数の現場で同時に困難になっている状況が報告されました。

電力面では、計画されたデータセンターが数十万世帯分に相当する電力を必要とするため、発電能力の増強と送電インフラの拡張が大きなボトルネックとなっています。さらに、トランプ政権が課した中国製変圧器などへの関税が機材調達のコストと期間を悪化させており、AI基盤整備の足かせとなっています。

AI開発コスト激減でSaaS離れ加速、企業ガバナンスが追いつかず

SaaS置き換えの実態

35%がSaaSを自社開発に置換
ワークフロー自動化が最多の対象
管理ツールやBIも置換候補に
78%が2026年に自社開発拡大予定

シャドーIT拡大の背景

60%がIT部門の管理外で開発
調達プロセスが開発速度に未対応
本番稼働の51%が週6時間以上節約

ガバナンス整備の必要性

データプライバシーが最大の懸念
AI関連の情報漏洩は1件65万ドル超

AIの進歩によりソフトウェア開発コストが劇的に低下し、企業における「買うか作るか」の判断基準が大きく変化しています。Retoolが817人の開発者を対象に実施した2026年の調査によると、35%のチームがすでに少なくとも1つのSaaSツールを自社開発に置き換えており、78%が2026年中にさらなるカスタムツール開発を計画しています。

置き換えの対象として最も多いのはワークフロー自動化ツール(35%)と内部管理ツール(33%)です。これらは企業固有の業務プロセスに依存するため、汎用的なSaaS製品との相性が悪く、以前から課題を抱えていました。AI開発支援やローコードプラットフォームの成熟により、数週間かかっていた開発が数日で完了するようになったことが置き換えを後押ししています。

一方で深刻な問題も浮上しています。60%の開発者がIT部門の管理外でツールやワークフローを構築しており、いわゆるシャドーITが拡大しています。回答者の64%はシニアマネージャー以上であり、経験豊富な人材でさえ既存の調達プロセスよりも開発速度を優先している実態が明らかになりました。

シャドーITの拡大はセキュリティリスクを増大させます。IBMの調査ではAI関連のデータ漏洩コストは1件あたり65万ドル以上に達しており、Deloitteの調査でも73%の企業がデータプライバシーセキュリティを最大のAI懸念事項に挙げています。35%の組織がAIの生産性指標を持たないことも、投資対効果の証明を困難にしています。

調査は、データ接続性・セキュリティモデル・デプロイ審査プロセスの3要素を備えたチームが本番稼働に成功していると指摘しています。開発者エネルギーガバナンスが確立された環境に誘導することが、シャドーITのリスクを抑えながら自社開発の恩恵を享受する鍵となります。

MIT、水中での人間とロボットの協働技術を開発

ダイバーとAUVの連携

水中自律型無人潜水機との協働研究
海洋インフラ点検・機雷処理など軍事任務を想定
ダイバーの器用さとロボットの速度・持久力を融合

航法と認識の技術課題

海流下での位置推定アルゴリズムを改良
音響・光学データを統合するAI分類器を開発
低帯域の水中通信でのデータ圧縮手法を研究

実海域での検証と今後

ニューハンプシャー沖やチャールズ川で実証試験
五大湖でダイバーとAUVの実地テストを実施

MIT リンカーン研究所の研究チームが、水中で人間のダイバーと自律型無人潜水機(AUV)が協力して任務を遂行するための技術開発を進めています。海底ケーブルの点検・修理、捜索救助、港湾進入、機雷除去といった軍事・民間の海洋ミッションにおいて、人間の優れた器用さ・物体認識力とロボットの高速移動・演算能力・持久力を組み合わせることが狙いです。

航法面では、MIT海洋ロボティクスグループが開発したダイバー・AUV連携アルゴリズムを実任務向けのAUVに統合しました。しかし実際の海流環境では、ダイバーとAUVの双方の位置を推定する最適化問題が急速に複雑化することが判明し、ダイバー側にも追加のセンシング能力が必要であることがわかりました。チームは圧力・深度センサーや慣性計測装置、測距モデムを搭載した筒型プロトタイプ端末「チューブレット」を開発しています。

認識面では、光学センサーとソナーの両方のデータを処理できるAI分類器の開発が進んでいます。分類器が不確実な物体を検出した場合、ダイバーに画像情報を送って確認を求めるフィードバックループを構築する構想です。水中音響通信の低帯域・高遅延という制約の中で、有用な情報を最小限に圧縮して伝送する手法も研究されています。

実証試験はニューハンプシャー大学の調査船を代替ダイバーとして使った外洋テスト、チャールズ川での小型ボートによる試験、さらにミシガン工科大学の五大湖研究センターでの実ダイバーとの試験を段階的に実施してきました。五大湖の透明度の高い水中では、光学分類器でソナー分類器を訓練する「知識転移」の研究も進められています。

研究チームは現在、内部資金による研究プログラムの終了に伴い、軍や民間パートナーへの技術移転に向けた外部スポンサーを探しています。主任研究者のマデリン・ミラー氏は、海底通信・電力ケーブルが破壊的な行為者に対して脆弱であることを指摘し、AIと人間の能力を組み合わせることがアメリカの海中領域での戦略的優位性を維持する鍵になると述べています。

Google、AI影響研究に1500万ドルの助成金を発表

助成プログラムの概要

1500万ドルの新規助成
シンクタンク・大学が対象
累計3500万ドル超に拡大
2023年開始の第2期募集

研究の3つの柱

労働市場へのAI影響分析
AI基盤とエネルギー需要の研究
安全保障・ガバナンス枠組み構築
製造業・医療分野の変革調査

Google.orgは2026年4月14日、AI(人工知能)が社会に与える影響を研究するため、シンクタンクや学術機関を対象とした総額1500万ドル(約22億円)の新たな助成金を発表しました。2023年に開始した「Digital Futures Fund」の第2期にあたり、累計の助成総額は世界全体で3500万ドルを超えます。

今回の助成対象となる研究は、3つの柱で構成されています。第1の柱「労働と経済」では、AIが労働市場や製造業・医療などの特定セクターに与える変革を分析し、労働者の機会を最大化する政策環境を探ります。第2の柱「イノベーションとインフラ」では、AI推進に必要なインフラエネルギー需要と国家競争力への波及効果を研究します。

第3の柱「安全保障とガバナンス」では、責任あるイノベーションの枠組み開発と、AIが重要機関・企業のセキュリティをどう強化できるかを評価します。2026年の新規助成先には、American Compass、戦略国際問題研究所(CSIS)、Urban Institute、チリの国立AI研究センター(CENIA)などが含まれています。

第1期の助成先はすでに成果を出しており、農業従事者から科学者まで幅広い労働者へのAI活用、サイバー脅威への対応策、イノベーション促進と規制のバランスといったテーマで研究を進めてきました。Googleは産業界・学界・政府・市民社会のマルチステークホルダー対話を通じ、AIの恩恵を広く届けることを目指すとしています。

Kepler、軌道上最大の計算クラスタを商用開放

宇宙エッジ計算の現在地

衛星10基GPU約40基搭載
レーザー通信で衛星間を接続
顧客数は18社に到達
Sophia Spaceが新規顧客として参加

大規模DCとの差別化戦略

推論特化の分散GPU構成を採用
GPU稼働率100%を実現
受動冷却技術で放熱課題に対応
地上DC規制が宇宙計算の追い風に

カナダのKepler Communicationsは、2026年1月に打ち上げた衛星10基からなる軌道上最大の計算クラスタを商用顧客に開放しました。同クラスタはNvidia Orin エッジプロセッサ約40基を搭載し、衛星間をレーザー通信で接続しています。現在18社の顧客を抱え、最新の顧客としてSophia Spaceとの提携を発表しました。

Kepler CEOのMina Mitry氏は、同社をデータセンター企業ではなく宇宙アプリケーション向けインフラと位置づけています。他の衛星や航空機向けにネットワークサービスを提供するレイヤーとなることを目指しており、合成開口レーダーなど高負荷センサーの処理オフロード需要を見込んでいます。米軍のミサイル防衛向け衛星にも宇宙対空レーザーリンクをデモ済みです。

提携先のSophia Spaceは、大規模宇宙データセンターの課題であるプロセッサの放熱問題を受動冷却で解決する技術を開発中です。今回の提携ではKepler衛星上に独自OSをアップロードし、2機の衛星にまたがる6基のGPUでの起動・設定を軌道上で初めて試みます。2027年末の自社衛星打ち上げに向けたリスク低減が狙いです。

SpaceXやBlue Originが構想する大規模宇宙データセンターの実現は2030年代とされる中、Keplerは訓練よりも推論ワークロードに特化した分散型GPUアーキテクチャで差別化を図ります。Mitry氏は「キロワット級の消費電力で稼働率10%のGPUより、常時100%稼働する分散GPUの方が有用」と述べています。米国では地上データセンター建設を禁止する自治体も出始めており、宇宙計算への関心が高まる背景となっています。

UberがAmazon独自AIチップの採用を拡大

契約拡大の内容

Graviton利用の拡大決定
AI半導体Trainium3の試験導入
AWS上でライドシェア機能を強化
OracleGoogleからの移行が背景

クラウド競争への影響

AWSOracleの主要顧客を獲得
自社設計チップが差別化要因に
AnthropicOpenAIAppleも採用済み
Trainiumは数十億ドル規模の事業へ成長

Amazonは2026年4月7日、配車サービス大手UberAWSとのクラウド契約を拡大し、自社設計チップの利用を増やすと発表しました。Uberは低消費電力のARMベースCPU「Graviton」の利用を拡大するとともに、Nvidiaに対抗するAI半導体Trainium3」の試験運用を新たに開始します。ライドシェア関連機能の多くをAWS上で稼働させる方針です。

Uberは2023年にオンプレミスのデータセンターからクラウドへ移行する方針を打ち出し、OracleおよびGoogle Cloudと大型契約を締結していました。特にOracle Cloud上ではAmpere製ARMチップを活用し、x86中心だった環境からの転換を進めていました。今回のAWS契約拡大は、こうしたマルチクラウド戦略の中でAmazon独自チップの競争力が評価された結果といえます。

この契約はAWSにとって、Oracleの主要顧客を引き寄せた象徴的な成果です。Oracleは2024年末にチップ設計企業Ampereの持ち分をSoftBankに売却し、自社でのチップ設計から撤退しています。一方のAWSTrainiumを軸に独自半導体戦略を推進しており、クラウド各社の差別化競争が激化しています。

AWSの独自チップを採用する大手企業は増え続けており、AnthropicOpenAIAppleもすでにTrainiumの利用を開始または拡大しています。AmazonのCEOアンディ・ジャシー氏は2025年12月、Trainiumがすでに数十億ドル規模の事業に成長していると述べており、Nvidiaに依存しないAIインフラの選択肢として存在感を高めています。

AIデータセンターのFirmusが評価額55億ドルに到達

大型資金調達の概要

Coatue主導で5.05億ドル調達
ポストマネー評価額55億ドル
6カ月間の累計調達額13.5億ドル
前回はNvidiaも出資参加

事業と技術基盤

豪州・タスマニアにAIデータセンター網構築
NvidiaVera Rubin基盤を採用
暗号資産の冷却技術からAI事業へ転換
「Project Southgate」として開発推進

シンガポール拠点のAIデータセンター企業Firmusは2026年4月7日、Coatueが主導する5億500万ドルの資金調達ラウンドを完了したと発表しました。ポストマネー評価額55億ドルに達し、過去6カ月間の累計調達額は13億5000万ドルに上ります。前回ラウンドではNvidia投資家として参加していました。

同社はオーストラリアおよびタスマニアにおいて、エネルギー効率の高いAIデータセンターネットワークProject Southgate」の構築を進めています。新たなデータセンターにはNvidiaのリファレンス設計が採用されており、Blackwellアーキテクチャの後継となる次世代AIコンピューティング基盤「Vera Rubin」プラットフォームが導入される予定です。

Firmusはもともとビットコインマイニング向けの冷却技術を提供していた企業です。暗号資産関連企業からAIインフラ事業者へと転換を遂げた点は、CoreWeaveRunPodなど同様の経路をたどる企業群の一つとして注目されています。

Vera Rubinプラットフォームは2026年下半期の出荷が見込まれており、Firmusのデータセンター稼働時期もそれに合わせて進められるとみられます。AI計算需要の急拡大を背景に、アジア太平洋地域におけるAIインフラ投資の活発さを示す事例となっています。

分散型AI訓練で太陽光住宅や遊休GPUを活用する動き

ハードウェアの分散活用

NvidiaやCiscoが拠点間接続技術を発表
Akash Networkが遊休GPUの貸借市場を構築
小規模GPUの活用で大規模訓練を実現

DiLoCoアルゴリズムの進展

Google DeepMindが低通信量の分散最適化手法を開発
Prime Intellectが5カ国横断で100億パラメータモデルを訓練
0G Labsが1070億パラメータモデルの分散訓練に成功

エネルギー問題への貢献

太陽光発電住宅をデータセンター化する構想
新規データセンター建設に頼らない訓練手法

AIの訓練には膨大なエネルギーが必要であり、データセンターの炭素排出量は増加の一途をたどっています。大手テック企業は原子力発電への関心を高めていますが、実用化にはまだ時間がかかります。こうした背景のもと、研究者や企業がAI訓練の分散化という手法でエネルギー問題に取り組んでいます。分散化とは、単一のデータセンターに依存せず、遊休サーバーや太陽光発電住宅のコンピュータなど既存のリソースを活用してモデル訓練を行う仕組みです。

NvidiaはSpectrum-XGSイーサネットを発表し、地理的に離れたデータセンター間での大規模訓練を可能にしました。Ciscoも分散AIクラスタ接続用のルーターを投入しています。一方、Akash Networkはオフィスや小規模データセンターの遊休GPUを貸し出すピアツーピア型クラウドマーケットプレイスを運営しており、「データセンターのAirbnb」を標榜しています。

ソフトウェア面では、Google DeepMindが開発したDiLoCoアルゴリズムが注目を集めています。DiLoCoは「計算の島」と呼ばれるチップ群を形成し、島同士の同期頻度を抑えることで通信コストと障害耐性の課題を解決します。改良版のStreaming DiLoCoでは、訓練と並行してバックグラウンドで知識を段階的に同期し、帯域幅の要件をさらに低減しました。Prime Intellectはこの手法で5カ国にまたがる100億パラメータモデルを訓練し、0G Labsは1070億パラメータの基盤モデルの分散訓練に成功しています。

Akash NetworkはStarclusterプログラムを立ち上げ、太陽光パネルを備えた住宅のデスクトップやノートパソコンをAI訓練に活用する構想を推進しています。参加にはバッテリーや冗長なインターネット接続が必要ですが、業界パートナーとの協力でバッテリーコストの補助を検討中です。2027年までに住宅がプロバイダーとして参加できるようになることを目指しており、学校やコミュニティ施設への展開も視野に入れています。

分散型AI訓練は、新たなデータセンターを建設せずに既存の処理能力を活かすことで、AIのエネルギー消費問題に対する有望な解決策となります。Akash共同創業者のGreg Osuri氏は「エネルギーをAIのところに持っていくのではなく、AIをエネルギーのあるところに持っていく」とその理念を語っています。

AIシステムの「静かな障害」が新たな信頼性課題に

従来監視の限界

稼働率や遅延では検知不能な障害の増加
自律システムの判断が徐々に目的から逸脱
コンポーネント正常でも全体結果が誤る構造
ダッシュボードは正常でも出力が劣化

行動制御という新概念

監視だけでなく制御層の必要性を提唱
産業分野の監督制御手法をAIに応用
出力の傾向変化や行動ドリフトを追跡
リアルタイム介入で障害を早期修正

米国電気電子学会(IEEE)の技術誌IEEE Spectrumは2026年4月7日、AIシステムがクラッシュせずに静かに障害を起こす問題について解説する記事を公開しました。自律的に動作するAIシステムでは、すべての監視指標が正常を示しているにもかかわらず、出力が徐々に誤った方向へ逸脱する「静かな障害」が増えていると指摘しています。

記事では具体例として、金融アナリスト向けの規制情報要約AIを挙げています。文書取得・要約生成・配信のすべてが技術的には正常に機能しているものの、更新された文書リポジトリが取得パイプラインに追加されないまま、古い情報に基づく要約を出し続けるケースです。アラートは一切発生せず、外部からはシステムが正常稼働しているように見えます。

従来のオブザーバビリティ(可観測性)は稼働率・レイテンシ・エラー率といった指標に依存しており、個々のリクエスト処理の正否を判定するには有効です。しかし自律型AIシステムでは、連続的な推論ループの中で各判断が次の行動に影響を与えるため、単一の計算結果だけでは正確さを評価できないと論じています。

解決策として記事が提唱するのは「行動制御」という考え方です。航空機の飛行制御や電力網運用で使われてきた監督制御システムをAIに応用し、出力パターンの変化や行動ドリフトを継続的に監視します。許容範囲を逸脱した場合には動作の制限や人間によるレビューへの回付など、リアルタイムで介入する仕組みを構築すべきだとしています。

筆者は、AIシステムの信頼性に対する工学的思考の転換が必要だと結論づけています。コンポーネントの正常動作を保証するだけでなく、システム全体の行動が目的と整合し続けているかを能動的に監視・制御する手法が、クラウド基盤・ロボティクス・大規模意思決定システムなど多くの領域で求められるようになると述べています。

MIT、ハードテック支援START.nanoに16社が新規参加

プログラムの概要と成長

16社が2025年に参加
前年比2倍以上の新規参加数
累計32社超と卒業11社の実績

注力分野と支援内容

医療・気候・エネルギー等に対応
MIT.nano施設の割引利用
MITイノベーション人脈への接続
参加企業の49%がMIT卒業生設立

MIT.nanoは2025年に16社のスタートアップが同組織のアクセラレータープログラム「START.nano」に新規参加したと発表しました。これは前年の新規参加数から2倍以上に増加した数字です。同プログラムはハードテック分野のイノベーションを市場に届けることを目的としており、MIT.nanoの共有施設の割引利用やMITのイノベーションエコシステムへのアクセスを提供しています。

新規参加の16社は、医療、気候変動、エネルギー半導体、新素材、量子コンピューティングといった幅広い領域で課題解決に取り組んでいます。たとえばAcorn Geneticsはポータブルな遺伝子解析デバイスを、Quantum FormaticsはAIを活用した超伝導体発見の加速を、Vertical Semiconductorは高電圧・高効率のGaN半導体の商用化をそれぞれ目指しています。

2021年に開始されたSTART.nanoは、ハードテックスタートアップの生存率向上を目標に掲げています。施設利用だけでなく、MIT主催カンファレンスでの展示機会や、新設されたPITCH.nanoコンペティションへの参加など、事業成長を後押しする場を提供しています。

MIT関係者でなくても参加は可能ですが、新規16社のうち5社はMIT卒業生が率いており、さらに3社がMIT関連の企業です。プログラム全体では参加企業の49%がMIT卒業生による設立となっています。現在、START.nanoは累計32社以上が参加し、11社がプロトタイピング段階を超えて卒業、一部は商用化に至っています。

OpenAIが超知能時代の産業政策を提言、富の再分配と週4日勤務を提案

税制と富の再分配案

ロボットの導入を提案
法人・キャピタルゲイン増税を示唆
公的資産ファンドで市民に還元
労働から資本への課税シフト構想

労働環境の変革提案

給与維持の週4日勤務補助
退職金・医療費の企業負担拡大
ポータブル福利厚生口座の創設

安全保障とインフラ整備

危険なAIの封じ込め計画策定
AIインフラ拡大への補助金・税控除

OpenAIは2026年4月6日、超知能(スーパーインテリジェンス)時代に向けた産業政策の提言書を公開しました。提言は、AI主導の繁栄をより広く分配すること、システミックリスクへの安全策を構築すること、AI能力への広範なアクセスを確保することの3つの目標を柱としています。同社は最大10万ドルのフェローシップや最大100万ドルのAPIクレジットを提供する研究助成プログラムも発表しました。

税制面では、AIの普及により法人利益が拡大する一方で労働所得が縮小し、社会保障やメディケイドなどの財源が空洞化するリスクを指摘しています。対策として、法人税やキャピタルゲイン税の引き上げに加え、人間の労働者を代替したロボットに同等の税負担を課すロボットの導入を提案しました。さらに、AI企業やインフラへの公的持分を通じて市民に利益を直接分配する公的資産ファンドの設立も盛り込んでいます。

労働政策としては、給与を維持したままの週4日勤務への補助制度を提案しています。企業に対しては退職金の上乗せ拠出、医療費負担の拡大、育児・介護費用の補助などを求めています。ただし、TechCrunchの報道によると、これらは企業責任として位置づけられており、AIによって職を失った人々が企業ベースの福利厚生を同時に失うリスクが指摘されています。ポータブルな福利厚生口座の提案もありますが、政府保証の普遍的保障には踏み込んでいません。

安全保障面では、AIの悪用やシステムが人間の制御を超えて動作するリスクを認め、危険なAIの封じ込め計画や新たな監視機関の設置、サイバー攻撃・生物兵器などの高リスク用途への対策を提案しています。同時に、AIを公益事業として扱い、電力インフラの拡充やAI基盤整備への補助金・税控除を通じて、少数の企業に集中しない広いアクセスを確保する方針も示しました。

今回の提言は、ライバルのAnthropicが半年前に発表した政策提言に続くものです。OpenAIは非営利から営利企業に転換した経緯があり、「AIは全人類に恩恵をもたらす」という設立理念と株主への受託者責任の整合性を問う声も上がっています。同社はこれらの提案を最終的な勧告ではなく議論の出発点と位置づけ、5月にワシントンDCで開設する「OpenAI Workshop」での対話を呼びかけています。

イラン革命防衛隊、OpenAIのアブダビデータセンターを攻撃対象に

イランの報復警告

Stargate施設の衛星画像を公開
アメリカのインフラ攻撃への報復を宣言
エネルギー・テック企業を標的に明示
動画で「完全な殲滅」を予告

中東AIインフラへの影響

AWSバーレーン拠点が既に被弾
ドバイのOracle施設にもミサイル着弾
NvidiaAppleにも名指しで脅迫
5000億ドル規模の投資に暗雲

イラン革命防衛隊(IRGC)は4月3日、OpenAIがアラブ首長国連邦アブダビに建設中のStargateデータセンターを攻撃対象とする動画を公開しました。動画にはGoogle Mapsから取得したとみられる衛星画像が含まれ、アメリカがイランの民間インフラを攻撃した場合、中東地域のアメリカ関連エネルギー・テクノロジー企業を「完全に殲滅する」と警告しています。

StargateプロジェクトはOpenAISoftBankOracleによる総額5000億ドル規模のAIデータセンター共同事業です。アブダビ施設だけで300億ドル以上の投資が見込まれ、16ギガワットの計算能力を備える計画ですが、建設は現在も進行中の段階にあります。

この脅迫は、トランプ大統領がイランに対しホルムズ海峡の再開を要求し、応じなければ火曜日までに発電所や橋梁を攻撃すると警告したことへの対抗措置です。イラン外務省は「あらゆる力をもって国家安全保障と主権を守る決意」を表明しました。

中東のデータセンターはすでに実際の被害を受けています。イランのミサイルがバーレーンとドバイのAWS施設を直撃し、ドバイのOracle施設にも着弾しました。先週にはNvidiaAppleも名指しで脅迫されており、AI産業の中東展開における地政学リスクが急速に高まっています。

Intelが先端パッケージングでAI半導体市場に攻勢

数十億ドル規模の商機

パッケージング収益が10億ドル超へ上方修正
GoogleAmazon大型契約交渉
粗利益率40%の高収益事業を目指す
顧客は製造工程の任意段階で利用可能

独自技術EMIB-Tの優位性

EMIB-T電力効率と信号品質を向上
TSMCより柔軟な「外科的」設計手法
ニューメキシコ工場で量産準備中
マレーシアでも生産能力を拡張

Intelが先端チップパッケージング事業をAI時代の成長エンジンとして本格的に推進しています。同社のファウンドリ部門責任者ナガ・チャンドラセカラン氏はWIREDの取材に対し、AIの普及により先端パッケージングが「シリコンそのもの以上に」半導体革命の鍵を握ると語りました。CFOのデイブ・ジンスナー氏は、パッケージング収益の見通しを数億ドル規模から「10億ドルを大きく超える」水準に上方修正しています。

複数の情報筋によると、IntelGoogleAmazonの少なくとも2社と先端パッケージングサービスの大型契約について交渉を進めています。両社はいずれも独自設計のカスタムチップを持ちながら、製造工程の一部を外部委託しており、Intelにとって理想的な顧客です。ジンスナー氏はモルガン・スタンレーの会議で「年間数十億ドル規模の契約締結に近づいている」と明らかにしました。

技術面では、Intelが2025年5月に発表したEMIB-T(組み込みマルチダイ相互接続ブリッジの次世代版)が差別化の要となっています。従来のEMIBを進化させ、チップ間の電力効率と信号品質を改善するもので、元Intel社員はTSMCの手法と比べて「より外科的」なアプローチだと評しています。2026年中に量産ラインへ投入される予定です。

Intelはニューメキシコ州リオランチョのFab 9とFab 11Xを先端パッケージングの中核拠点として数十億ドルを投資し、米国CHIPS法から5億ドルの助成金も獲得しました。さらにマレーシア・ペナンでも組立・テスト能力の拡張を進めており、グローバルな生産体制を構築しています。

ただし課題も残ります。業界アナリストのジム・マクレガー氏は、パッケージングの成功は実際に顧客との契約を獲得できるかにかかっていると指摘します。潜在顧客がIntelとの提携を公表しない背景には、Intel量産能力への懸念や、TSMCからのウェーハ配分が減るリスクへの警戒があるとされています。チャンドラセカラン氏は「設備投資の大幅な増加が、顧客獲得の明確なシグナルになる」と述べています。

Cisco、宇宙データセンター実現へ準備着手

自社シリコンが競争力の源泉

2016年買収独自シリコンが差別化要因
GPU接続用チップ製造は世界3社のみ
ハイパースケーラー向けが数十億ドル規模に

宇宙データセンター構想

電力無制限の宇宙空間に展開を支持
製品チームが宇宙環境対応の検討開始
住民反対電力制約の回避策にも

AI活用と事業展望

来年にはコードの70%がAI生成

CiscoのChuck Robbins CEOは、The Vergeのインタビューで、AI時代のインフラ戦略と宇宙データセンター構想について語りました。同氏は宇宙空間でのデータセンター建設を「実現する」と断言し、製品チームがすでに宇宙環境への対応を検討していることを明らかにしました。AIデータセンター向けネットワーキング需要の急増を背景に、ハイパースケーラー向け事業は数十億ドル規模に成長しています。

Ciscoの競争力を支えるのは、2016年にイスラエルの半導体企業Leaba買収して獲得した自社設計シリコンです。Robbins氏は「この技術がなければAI時代の成長には参加できなかった」と述べました。現在、GPU接続に必要なネットワーキングシリコンを製造できる企業は世界でわずか3社しかなく、これがCiscoの最大の差別化要因となっています。

宇宙データセンターについてRobbins氏は、Elon Muskの構想を積極的に支持しました。宇宙では電力が無制限かつ遮るものがなく、地上で課題となる住民反対電力供給の制約を根本的に回避できると説明しています。Ciscoの製品チームは2〜3か月前から宇宙環境での大気条件や温度への対応を検討し始めています。

社内でのAI活用も急速に進んでいます。今年中に5〜6製品が完全にAI生成コードで開発される予定で、来年にはコード全体の70%がAI生成になる見通しです。ただし、30年前のC++コードの変換では「徹底的なテストが不可欠」と慎重さも見せました。

Robbins氏は現在のAIブームをドットコムバブルと比較しつつ、「当時と異なりデータセンターは稼働初日からフル稼働している」と指摘しました。エージェント時代のセキュリティではネットワーク層での認証が必須とし、セキュリティ事業を持つ唯一のネットワーク企業であるCiscoの優位性を強調しました。

SpaceX、宇宙DC構想でIPO1.75兆ドルへ

巨額IPOと宇宙戦略

IPOで750億ドル調達、時価総額1.75兆ドル想定
軌道上データセンターをMuskが成長の柱に位置づけ
Starcloudが1.7億ドル調達しユニコーンに

地上DC反対と宇宙への期待

全米で地上データセンターへの反対運動が拡大
宇宙DCは社会的障壁より工学的課題が小さいとの見方
打ち上げ事業としてSpaceX自身の売上にも直結
実用規模には懐疑的な声も根強い

SpaceXが秘密裏にIPO申請を行い、750億ドルを調達して時価総額1.75兆ドルでの上場を目指していることが報じられました。CEOのイーロン・マスク氏は、軌道上データセンターを同社の将来の成長の柱として掲げています。

宇宙データセンター構想を巡っては、Y Combinator出身のStarcloudが1億7000万ドルのシリーズAを調達しユニコーン企業となったほか、ジェフ・ベゾス氏率いるBlue Originも衛星ネットワークの展開を進めています。半年から1年の間に急速にトレンド化しています。

背景にあるのは、全米各地で拡大する地上データセンターへの反対運動です。用地確保や電力供給の社会的課題が深刻化するなか、「工学的課題のほうが社会的課題より小さいかもしれない」との認識が宇宙DCへの関心を高めています。

一方で、軌道上DCの計算能力は地上施設と比べ「バケツの一滴」に過ぎず、地上DCを置き換えるシナリオは非現実的との指摘もあります。また打ち上げ事業自体がSpaceXの収益となるため、マスク氏の構想には自社利益との利益相反が潜むとの見方もあります。

IPOを控えたSpaceXにとって、宇宙DC構想は投資家の期待を喚起する「未来のビジョン」として機能します。現時点の収益力ではなく将来の可能性で企業価値を訴求するマスク氏の手法が、今回も発揮されている形です。

NVIDIA、ロボティクス週間で物理AI技術を紹介

物理AIの技術基盤

シミュレーションから実環境への展開加速
合成データによるロボット学習の効率化
認識・推論・行動を統合する基盤モデル

産業応用の広がり

農業・製造・エネルギー分野での導入拡大
仮想環境での訓練から実世界配備への移行
開発者向けプラットフォームの整備

NVIDIAは全米ロボティクス週間に合わせ、AIを物理世界に応用する「物理AI」分野の最新技術と成果を公開しました。農業、製造、エネルギーなど幅広い産業でロボット活用が進んでいる現状を紹介しています。

同社が注力するのは、ロボットの学習・シミュレーション基盤モデルの3領域です。これらの技術進歩により、仮想環境での訓練から実世界への展開がこれまでにない速度で可能になっていると説明しています。

NVIDIAシミュレーション合成データ生成、AI駆動のロボット学習の各プラットフォームを開発者に提供しています。これにより複雑な環境下で認識・推論・行動できるロボットの構築が可能になります。

同社は全米ロボティクス週間を通じて、物理AI技術に関する最新情報を継続的に発信する方針を示しており、今後の具体的な技術発表にも注目が集まっています。

MIT研究者がAIで次世代原子炉の設計革新に挑む

次世代原子炉の課題

米国94基が電力約20%を供給
小型モジュール炉の設計手法が未成熟
マルチフィジクス解析に膨大な計算コスト

AI活用の可能性

非線形方程式を解かず温度分布を予測
AI で新型炉の設計プロセスを加速
安全解析は既存枠組みを維持しAI が補完

人材育成と展望

MIT次世代リーダーの育成を推進
原子力工学の健全な研究環境を継承

米国では現在94基の原子炉が稼働し、国内電力約20%を供給しています。MITのDean Price助教授は、化石燃料に代わるクリーンエネルギーとして原子力の重要性が高まる中、次世代原子炉の設計と実用化に取り組んでいます。

Price氏の研究の中心はマルチフィジクスモデリングと呼ばれる手法です。原子炉内の中性子挙動と熱流体の相互作用を統合的に解析することで、さまざまな条件下での炉の挙動を予測できます。従来の大型炉では確立された手法ですが、小型モジュール炉やマイクロ炉への適用はまだ発展途上です。

こうした高度なシミュレーションにはスーパーコンピュータが必要で、膨大な計算コストが課題となっています。そこでPrice氏は2025年のMIT着任以降、AIと機械学習を活用して複雑な非線形微分方程式を解かずに同等の結果を得る手法の研究を進めています。

具体的には、AIが原子炉の出力レベルから3次元温度分布を予測するなど、データに隠れたパターンを発見する能力を活用します。これにより新型炉の設計初期段階でより良い判断が可能になり、開発期間の短縮が期待されています。

安全性に関しては、AIが直接安全上重要な判断を行うのではなく、過去50年間に構築された安全評価の枠組みを補完する形で活用されます。既存の安全基準を維持しつつ、知識のギャップを埋める役割をAIが担います。

Price氏はMITでの教育にも力を入れており、次世代の原子力エンジニアの育成を重要な使命と位置づけています。原子力工学コミュニティの協力的な文化を次世代に継承し、クリーンエネルギーの未来を担う人材を輩出することを目指しています。

AI大手が天然ガス発電所を競って建設、供給不足も深刻化

巨大ガス発電計画が相次ぐ

Microsoft、5GW級発電所を計画
Meta7.46GWへ拡張
Google、933MW発電所を建設へ
ガスタービン価格が195%上昇

建設遅延と政策の矛盾

計画中DCの約半数が遅延見込み
中国電力機器に依存する構造
関税が部品調達を圧迫

MicrosoftはChevronらと提携し、テキサス州西部で最大5GWの天然ガス発電所の建設を進めています。GoogleはCrusoeと組み北テキサスで933MWの発電所を計画し、Metaはルイジアナ州のデータセンターに7基を追加して7.46GWまで拡張しました。

ガスタービンの需要急増により、価格は2019年比で195%上昇する見通しです。新規発注は2028年まで不可能で、納入には6年を要するとWood Mackenzieが報告しています。設備コストの20〜30%をタービンが占めるため、建設費全体への影響も甚大です。

一方、トランプ政権の対中関税データセンター建設を阻んでいます。Bloombergによると、2026年に予定されていたデータセンターの約半数が遅延または中止の見込みです。変圧器や配電盤など中国製の電力機器に長年依存してきた構造が裏目に出ています。

これらの電力機器は2020年以前には納品まで24〜30カ月でしたが、現在は最大5年の待ち時間が発生しています。米国内の製造能力では需要を満たせず、多くの企業が関税を承知で中国からの調達を試みています。

天然ガスは米国電力の約40%を賄っており、テック企業の大量消費は一般家庭の電気料金上昇につながる懸念があります。寒波による供給途絶リスクや、有限資源への過度な依存という構造的な問題も指摘されています。

Google出資のデータセンター、大規模ガス発電で稼働へ

巨大ガス発電の実態

年間450万トンのCO2排出
平均ガス火力の10倍超の排出量
石炭火力を上回る温室効果ガス
テキサス州に900MW超のガス設備

AI競争と化石燃料回帰

送電網接続の長期待ちが背景
自家発電(BTM)方式が急拡大
米国100GWのガス開発進行
Microsoftもシェブロンと契約締結

気候目標との矛盾

Google、排出量5年で5割増
民主党議員がテック企業に質問状
再エネ公約と実態の乖離が顕在化

Googleが出資するテキサス州アームストロング郡の「Goodnight」データセンターが、年間450万トン以上の温室効果ガスを排出する大規模天然ガス発電設備で一部稼働する計画であることが、州の大気許可申請から明らかになりました。これは平均的なガス火力発電所の10倍以上、石炭火力をも上回る排出量です。

同キャンパスは全6棟で構成され、最初の4棟は送電網に接続する一方、5棟目と6棟目は敷地内ガス発電で賄われます。風力発電265MWも併設されますが、ガス発電は900MW超と圧倒的な規模です。AI基盤企業Crusoeが建設を担い、Googleは400億ドルのテキサスAI投資の一環として参画しています。

送電網への接続待ちが長期化するなか、データセンター各社は自家発電(Behind-the-Meter)に傾斜しています。米国では約100GWのガス火力がデータセンター専用に開発中で、OpenAIOracleの「Project Jupiter」は年間1400万トン排出の許可を申請済みです。Microsoftも今週、シェブロンと最大2.5GWのガス供給契約を締結しました。

Googleは過去5年間で総排出量が約50%増加したにもかかわらず、昨年のサステナビリティ報告書ではデータセンター排出を12%削減したと主張しています。再生可能エネルギーへの公約を掲げつつ、AI競争の激化に伴い化石燃料投資へと回帰する実態が浮き彫りになっています。

米国では民主党の上院議員3名がxAIOpenAIMetaなど複数のAI企業に対し、大規模データセンターの環境影響について質問状を送付しました。一方、ホワイトハウスは電気料金保護の非拘束合意をテック各社と取り交わしましたが、専門家は実効性に懐疑的です。気候目標との整合性が厳しく問われる局面を迎えています。

MIT、AI倫理を自動評価する新手法を開発

SEED-SETの仕組み

客観指標と主観価値を分離評価
LLMを人間評価者の代理に活用
階層構造で評価回数を大幅削減
事前データ不要で複数目的に適応

実証と今後の展望

電力網・交通の現実的シナリオで検証
基準手法の2倍以上の最適テスト生成
低所得地域への不公平配電を自動検出
大規模LLM意思決定評価へ拡張予定

MITの研究チームは、自律型AIシステムの倫理的整合性を自動評価する新手法「SEED-SET」を開発しました。電力配分や交通制御など高リスク領域でのAI判断が公平かどうかを、展開前に体系的に検証できます。

従来の評価手法は事前収集データに依存し、主観的な倫理基準のラベル付けが困難でした。SEED-SETは客観的な性能指標と主観的な倫理基準を階層的に分離し、少ない評価回数で最も情報価値の高いシナリオを効率的に特定します。

主観評価には大規模言語モデル(LLM)を人間の代理として活用します。各利害関係者の倫理的選好を自然言語プロンプトに変換し、シナリオ間の比較判定を行うことで、人間評価者の疲労による一貫性低下の問題を回避しています。

電力網と都市交通ルーティングの実験では、同じ時間内に基準手法の2倍以上の最適テストケースを生成し、他手法が見落としたシナリオも多数発見しました。たとえば高所得地域を優先するピーク時配電の不公平を自動的に検出できました。

研究チームは今後、実際の意思決定に役立つかを検証するユーザースタディを実施予定です。さらに大規模問題やLLMの意思決定評価にも拡張する計画で、研究は国際学習表現会議(ICLR)で発表されます。

GoogleがChromeOS Flex導入キットを約3ドルで発売

導入支援の概要

Back Market提携しUSBキット販売
価格は約3ドル(約3ユーロ)
動画・ガイド付きで初心者にも対応
公式サイトから無料ダウンロードも可能

環境・延命効果

Windows 10サポート終了PCを再活用
製造時CO2排出の回避に貢献
消費電力が他OSより平均19%低減
USBドライブは再利用可能でe-waste削減

Googleは2026年4月、リファービッシュ大手Back Market提携し、古いPCやMacにChromeOS Flexを簡単に導入できるUSBキットの販売を開始しました。価格は約3ドルで、インストール手順のガイドや動画チュートリアルも提供されます。

背景には、2025年10月にWindows 10のサポートが終了し、数億台のPCがセキュリティリスクにさらされている問題があります。ユーザーは高額な新端末の購入か、脆弱なまま使い続けるかの二択を迫られていました。

Googleは自社でもChromebookのアップデート期間を10年、Pixelスマートフォンを7年に延長するなど、ハードウェアの長寿命化に取り組んでいます。今回のキットはその延長線上にある持続可能性への新たな施策です。

環境面では、ノートPC製造時のCO2排出が大きな割合を占めるため、既存端末の延命は廃棄物削減と排出回避に直結します。さらにChromeOSは他の同等システムと比較して平均19%少ないエネルギーで動作するとされています。

Closing the Loopとの連携によりe-wasteの最小化も図られています。USBドライブは繰り返し使用可能で、対応端末はGoogleの認定モデルリストで確認できます。企業のIT部門にとっても、低コストで既存資産を活用できる選択肢となりそうです。

SpaceX上場申請、マスク氏にTesla・裁判・IPOが集中

SpaceX上場の行方

SpaceXが4月1日に秘密裏のIPO申請を提出
SEC審査を経て最短6月に上場の可能性
xAIを統合済み、裁判の情報開示がIPOに影響

Tesla事業の逆風

Cybercab幹部3名が相次ぎ離脱
自動運転の事故率は人間の4倍と判明
Cybertruck販売不振、FSDリコール調査も進行

Musk対Altman裁判

4月27日に陪審裁判が開始予定
マスク氏の薬物使用や政権との関係が争点に

SpaceXは2026年4月1日、米証券取引委員会(SEC)にIPOの秘密申請を提出しました。SEC審査の通常期間を考慮すると、最短で6月にも上場が実現する見通しです。xAIを統合済みのSpaceXにとって、直後に控える裁判の行方がIPO評価に影響を及ぼす可能性があります。

Teslaのロボタクシー事業「Cybercab」では、製造責任者マーク・ラプキー氏を含む幹部3名が相次いで退社しました。プログラムマネージャーやライドヘイリング基盤の構築者も離脱しており、過去2年間の人材流出は深刻な状況です。

Cybercabの自動運転についても懸念が高まっています。2026年2月時点のデータでは、Teslaの自律走行車の事故率は人間ドライバーの約4倍に達しており、Waymoと比較して著しく劣る結果となりました。ステアリングもペダルもない2人乗り設計にも疑問の声が上がっています。

Tesla本体の業績も厳しい状況です。Cybertruckの販売は不振で、車両ラインナップの老朽化が進んでいます。マスク氏の政治活動によるブランド毀損も深刻で、FSD(完全自動運転)にはリコール調査の可能性も浮上しています。一方、エネルギー事業は英国での電力会社参入やインド展開など明るい材料もあります。

4月27日にはMusk対Altmanの陪審裁判が始まります。OpenAIの営利化をめぐる対立が争点ですが、マスク氏側はケタミン使用歴やトランプ政権との関係を証拠から除外するよう求めています。元OpenAI理事でマスク氏の子ども4人の母であるシヴォン・ジリス氏との関係も論点となっており、裁判の行方がSpaceX IPOにも波及しかねない状況です。

Meta、AIデータセンター用に天然ガス発電所10基を建設へ

巨大データセンターの電力計画

ルイジアナ州に7.5GW規模の発電所群
サウスダコタ州全体に匹敵する電力消費量
既存3基に加え新たに7基を追加建設

気候目標との矛盾

年間CO2排出量1,240万トンの見込み
2024年の全社排出量の1.5倍に相当
メタン漏洩で石炭より環境負荷が悪化する可能性

再エネ推進企業の選択

太陽光・原子力の大口購入実績あり
ガスタービン価格は高騰傾向

Metaは2026年4月、ルイジアナ州のAIデータセンターHyperion」向けに、新たに7基の天然ガス発電所を建設する計画を発表しました。既存の3基と合わせて計10基、合計約7.5ギガワットの発電能力を確保します。

完成時の電力消費量はサウスダコタ州全体に匹敵する規模です。AIデータセンター電力需要米国の州レベルに達する事例として、業界全体のエネルギー問題を象徴しています。

TechCrunchの試算によると、これらの発電所は年間約1,240万トンのCO2を排出します。これはMetaの2024年の全社カーボンフットプリントの約1.5倍に相当し、同社の気候目標に大きな影響を与えます。

さらに天然ガスの主成分であるメタンはCO2の84倍の温室効果があり、米国ではパイプラインからの漏洩率が約3%に達します。研究によれば、わずか0.2%の漏洩でも石炭より環境負荷が高くなる可能性があります。

Metaはこれまで太陽光発電原子力発電所の20年契約など再生可能エネルギーの大口購入を進めてきました。一方でガスタービン価格が高騰するなか天然ガスへの大規模投資に踏み切った判断は、業界関係者の間でも疑問視されています。同社の最新サステナビリティ報告書にはメタンや天然ガスへの言及がなく、今後の情報開示が問われます。

NVIDIA、AIデータセンターを送電網の柔軟な資産に転換する構想を発表

AI工場と電力網の統合

NVIDIAとEmerald AIが柔軟なAI工場構想を発表
Vera Rubin DSX設計とConductorで電力と計算の一体制御を実現
AESやNextEraなど大手6社が発電容量拡大で協力
電力1Wあたりのトークン生成数が12年間で100万倍向上

送電網AI解析の進展

ThinkLabs AIがシリーズAで2800万ドル調達
NVentures・Edison Internationalが戦略出資
従来30日の送電網解析を3分未満に短縮
精度99.7%の物理ベースAIモデルを開発

エネルギーインフラの革新

Maximoが100MW規模ロボット太陽光設置を完了
TerraPowerが原子炉デジタルツインで設計期間を大幅短縮

NVIDIAとEmerald AIは、エネルギー分野の国際会議CERAWeekにおいて、AIデータセンター(AI工場)を送電網の柔軟な資産として運用する新構想を発表しました。AESやConstellation、NextEra Energyなど大手エネルギー企業6社がこの取り組みに参画しています。

この構想は、NVIDIA Vera Rubin DSXのAI工場リファレンス設計とEmerald AIのConductorプラットフォームを基盤としています。計算処理と電力制御を一体化し、送電網の状況に応じて動的に負荷を調整することで、ピーク需要に備えた過剰なインフラ建設を抑制します。

一方、送電網シミュレーションを手がけるThinkLabs AIは、Energy Impact Partners主導で2800万ドルのシリーズA資金調達を完了しました。NVIDIA投資部門NVenturesやEdison Internationalも出資しており、送電網のAI活用に対する戦略的な期待の高さがうかがえます。

ThinkLabs AIの技術は、従来30〜35日かかっていた送電網の潮流解析を3分未満で完了し、精度99.7%を達成しています。物理法則に基づくAIモデルにより、1000万通りのシナリオを10分で処理でき、数十億ドル規模の設備投資判断の迅速化を支援します。

エネルギーインフラの現場でもAI活用が進んでいます。ロボティクス企業Maximoは100メガワット規模の自律型太陽光パネル設置を完了し、TerraPowerはNVIDIA Omniverseを用いた原子力発電所のデジタルツインで設計期間を数年から数カ月に短縮する取り組みを発表しました。

GE Vernova、Schneider Electric、Vertivもデジタルツインや検証済みリファレンス設計を通じ、AI工場を信頼性の高い送電網参加者として拡張する基盤を整備しています。電力からチップインフラ、モデル、アプリケーションに至る「5層のAIケーキ」全体での業界協力が加速しています。

宇宙データセンターのStarcloudがシリーズAで1.7億ドル調達

資金調達と事業概要

評価額11億ドルでユニコーン到達
BenchmarkとEQT Venturesが主導
累計調達額は2億ドルに到達
初号機にNvidia H100搭載し打ち上げ済み

技術課題と競争環境

Starship商用化は2028〜29年見込み
冷却・電力GPU同期が技術的障壁
SpaceX100万基の衛星計画を申請
Aetherflux・Google等も参入相次ぐ

Starcloudは宇宙空間にデータセンターを構築する米スタートアップで、シリーズAラウンドで1億7000万ドルを調達しました。BenchmarkとEQT Venturesが主導し、評価額は11億ドルに達してユニコーン企業の仲間入りを果たしています。

同社は2025年11月にNvidia H100 GPU搭載の初号衛星を打ち上げ済みで、軌道上でのAIモデル訓練に世界で初めて成功したと発表しています。今年後半には複数GPU搭載の「Starcloud 2」を打ち上げ予定で、Nvidia Blackwellチップも搭載されます。

将来的にはSpaceXStarshipから打ち上げる3トン級の「Starcloud 3」を開発し、地上データセンターとコスト競争力を持つ水準を目指します。ただしStarshipの商用運用開始は2028〜29年と見込まれ、実現時期には不確実性が残ります。

技術面では宇宙空間での冷却・電力生成・GPU間同期が大きな課題です。Starcloud 2には民間衛星として最大級の放熱パネルを搭載予定で、大規模な訓練ワークロードには衛星間レーザー通信の確立が不可欠とされています。

競合環境も激化しており、AetherfluxGoogleの「Project Suncatcher」、Aetheroなどが宇宙データセンター事業に参入しています。さらにSpaceX自身も100万基の分散コンピューティング衛星の許可を米政府に申請しており、業界最大の脅威となる可能性があります。

米IRS、Palantirに税務調査対象の選定AIツール開発を委託

SNAPツールの概要

Palantirが180万ドルで開発
税務調査の対象選定を効率化
非構造化データから不正兆候を抽出
災害控除や贈与税など3分野が対象

IRS近代化の課題

100超の業務システムが断片化
1960年代以降の刷新が未完了
トランプ政権下で2.5万人削減
長官交代の頻発で長期計画が頓挫

米内国歳入庁(IRS)は、税務調査対象の選定を効率化するため、データ分析企業Palantirに180万ドルを支払い、「SNAP(Selection and Analytic Platform)」と呼ばれるカスタムツールの改良を委託していたことが、WIREDの情報公開請求で判明しました。

IRSは現在、数十年にわたり構築された100以上の業務システムと700の手法を用いて税務調査の対象を選定しています。しかしシステムの断片化により、作業の重複やコスト増大、対象選定の最適化不足といった問題が深刻化しており、SNAPはこれらの課題を解決するパイロットプログラムとして導入されました。

SNAPは契約書や車両、取引先に関する非構造化データから重要情報を抽出し、人間の監査官が見逃しがちな税務申告上の不審点を特定する設計です。対象分野には災害地域の控除申請、住宅クリーンエネルギー税額控除、贈与税申告書(Form 709)の3つが含まれています。

専門家によると、IRSは従来「DIF(識別情報関数)スコア」を主な選定基準としてきましたが、その算出方法はブラックボックスです。近年はCoinbaseとの仮想通貨取引分析や、SNSの公開投稿からの所得過少申告の手がかり発見など、新たな手法も試みています。

一方で、IRSの技術近代化には構造的な障壁があります。トランプ政権下で約10万3000人の職員のうち2万5000人以上が退職し、長官の交代も頻繁なため、複数年にわたるプロジェクトの継続が困難です。国民からの不人気も相まって、政治的な支援を得にくい状況が続いています。

米議会がデータセンター電力使用の義務報告を要求

電力と規制の攻防

超党派議員がEIAに義務報告要求
EIAはテキサス等で自主試行開始
7社が電気料金保護誓約に署名
NY州が新設3年凍結法案を審議

エネルギーと地政学リスク

イラン紛争でホルムズ海峡に機雷
天然ガス発電開発が31%増
冬季嵐でバージニア州の電力価格急騰
230超の団体が建設一時停止要求

テック各社の対応策

Microsoft超伝導体で省スペース化
MetaデータセンターPR広告に数百万ドル
宇宙データセンター構想が複数社で加速

ウォーレン上院議員とホーリー上院議員は2026年3月、米エネルギー情報局(EIA)に対しデータセンターの年間電力使用量の包括的な義務報告制度を求める書簡を送付しました。EIAはテキサス州など4地域で自主的な試行調査を開始していますが、両議員はより広範な義務化を要求しています。

トランプ大統領はGoogleMetaMicrosoftOracleOpenAIAmazonxAIの7社をホワイトハウスに招き、「電気料金保護誓約」への署名を実現しました。各社はデータセンター電力需要が周辺住民の電気料金を押し上げないよう、自社で電力供給を確保することを約束しています。

イラン紛争の激化により、世界の石油消費量の5分の1が通過するホルムズ海峡に機雷が敷設される事態となりました。エネルギー価格の上昇はデータセンターの運営コストに直結し、AI産業全体の電力戦略に深刻な影響を及ぼす可能性があります。

各地でデータセンター反対運動が活発化しています。オレゴン州ではAmazonデータセンター周辺で飲料水の硝酸塩濃度が州基準の10倍に達し、がんや流産の増加との関連が指摘されています。ニューヨーク州では新規建設の3年間凍結法案が審議され、230以上の団体が全米規模の一時停止を議会に要求しました。

テック企業は新たな解決策を模索しています。Microsoft高温超伝導体を用いたデータセンターの省スペース化を研究し、SpaceXxAIは合併して宇宙データセンター構想を発表しました。Anthropic電力網接続費用の全額負担を表明するなど、業界全体で地域社会との共存策が急務となっています。

米上院がデータセンターの電力使用量の報告義務化を要求

エネルギー報告の義務化

ウォーレン・ホーリー両議員がEIAに書簡
年次エネルギー使用量の包括的開示を要求
EIAが任意パイロット調査を開始
AI計算と一般クラウド消費電力の区別も要求

規制強化の動き加速

サンダース議員らがDC建設モラトリアム法案提出
ワーナー議員はDC課税で雇用支援を提案
バージニア州が税優遇廃止を検討
複数州でDC建設一時停止法案が審議中

エリザベス・ウォーレン上院議員(民主)とジョシュ・ホーリー上院議員(共和)は2026年3月26日、米エネルギー情報局(EIA)に対し、データセンター電力使用量に関する包括的な年次報告を義務化するよう求める書簡を送付しました。

両議員は、電力需要が急増する中で標準化されたデータの欠如が送電網計画に重大なリスクをもたらすと指摘しています。現在、連邦機関でデータセンター電力使用量を個別に収集している組織はなく、各社の自主開示に依存している状況です。

EIAは同日、テキサス州・ワシントン州・バージニア州の約200社を対象とした任意のパイロット調査を開始すると発表しました。ただし両議員が求めているのは、より広範な義務的報告であり、AI計算と一般クラウドサービスの消費電力の区別など詳細な情報収集を含みます。

一方、マーク・ワーナー上院議員(民主・バージニア州)は、データセンターへの課税によりAIによる雇用喪失対策の財源を確保する構想を提示しました。看護師育成やAIスキル向上プログラムへの充当を想定しており、バージニア州ヘンリコ郡がDC税収で手頃な住宅プロジェクトを開始した先例を挙げています。

NBCニュースの世論調査では、AIに対する否定的な見方が46%に達し、肯定的な26%を大きく上回っています。バージニア州では年間約20億ドルに上るデータセンター向け税優遇の廃止提案が浮上しており、他州にも波及する可能性があります。

前日にはバーニー・サンダース上院議員とAOC下院議員がデータセンター建設の全面モラトリアム法案を提出しており、ニューヨーク州でも3年間の建設一時停止法案が検討されるなど、全米で規制強化の動きが加速しています。ワーナー議員はモラトリアムには反対の立場で、中国との競争を理由に挙げています。

NVIDIA GTCで物理AI新時代、工場丸ごとシミュレーション基盤を発表

物理AIの新基盤

Cosmos 3等の最新モデル群発表
データファクトリー設計図を公開
Azure・Nebiusがクラウド提供開始

デジタルツイン実用化

Omniverse DSXでAI工場を事前検証
CADからOpenUSDへの変換自動化
KIONが倉庫twin構築に採用

産業ロボット連携拡大

ABB・FANUC等200万台基盤と統合
Isaacシミュレーションで政策検証

NVIDIAは2026年3月のGTCカンファレンスにおいて、ロボット・自動運転車・工場を対象とした物理AIの新たな基盤技術群を発表しました。Cosmos 3、Isaac GR00T N1.7、Alpamayo 1.5などのフロンティアモデルが公開され、単一用途から本格的な企業ワークロードへの拡大が示されました。

注目の発表の一つがPhysical AIデータファクトリーブループリントです。これは計算資源を大規模かつ高品質な学習データに変換するオープンな参照アーキテクチャで、Cosmos世界基盤モデルとOSMOオペレーターを基盤に、データのキュレーション・拡張・評価を単一パイプラインに統合します。

Omniverse DSXブループリントも発表され、AIファクトリーの熱設計・電力ネットワーク負荷・機械系統をデジタルツインで一元的にシミュレーションできるようになります。ラック設置前に性能と効率を最適化でき、建設の時間とコストを大幅に削減します。

製造・物流分野ではMega Omniverseブループリントにより、工場全体をロボットシステムとして扱うデジタルツインの構築が可能になりました。KIONはAccentureやSiemensと協力し、GXO向けの自律フォークリフト群を訓練・検証する大規模倉庫デジタルツインを構築しています。

産業ロボット大手のABB、FANUC、KUKA、安川電機は、合計200万台超のロボット設置基盤を持ち、OmniverseライブラリとIsaacシミュレーションを活用して複雑なロボットアプリケーションの検証を進めています。各社はJetsonモジュールをコントローラーに統合し、リアルタイムAI推論を実現しています。

a16zがAI特集ポッドキャストを大量公開

企業・産業への影響

SaaS崩壊リスクをAtlassian CEOが議論
ChatGPTがWeb利用でClaude30倍と判明
5兆ドル規模の未公開テック市場を分析
医療AI導入臨床現場の採用率向上

国防とAGIの最前線

国防総省が応用AIを最優先技術に指定
Palantir CEO がAI軍拡競争を警告
LLMとAGIの間に因果推論の壁
軍の電力インフラ刷新が急務に

創業者とメディア戦略

ファウンダーモードの功罪を検証
a16z攻めのメディア戦略を公開

a16zアンドリーセン・ホロウィッツ)は、自社ポッドキャスト「The a16z Show」でAIが産業・国防・医療・消費者市場に与える影響を多角的に取り上げる特集シリーズを一斉公開しました。投資家起業家・政府関係者が登壇し、各分野の最前線を語っています。

AtlassianのCEOマイク・キャノンブルックスは、SaaS企業の株価急落について「すべてのソフトウェア企業が同じAIリスクに直面しているわけではない」と指摘しました。記録型からプロセス型へのシフトと、エンタープライズワークフローにおけるAIエージェントの信頼構築が鍵だと述べています。

消費者AI市場では、ChatGPTがウェブ利用でClaudeの30倍の規模を維持していることが判明しました。a16zのオリビア・ムーアは、3大プラットフォームがそれぞれ異なるユーザー層に特化しつつあり、メモリ機能が最も過小評価されている機能だと分析しています。

国防分野では、エミール・マイケル国防次官が技術優先分野を14から6に絞り込み、応用AIを第1位に据えたことを明かしました。前政権下で締結された商用AI契約がベンダーロック危機を生み、現役の軍事作戦にリスクをもたらしていた経緯も初めて詳細に語られています。

AGI研究に関しては、コロンビア大学のヴィシャル・ミスラがトランスフォーマーの内部動作を数学的に解明した最新研究を紹介しました。LLMはパターンマッチングに留まっており、AGI到達には訓練後も学習を続ける能力と因果関係の理解が不可欠だと指摘しています。

NVIDIA連携のAI工場が電力網の安定化に成功

柔軟な電力制御の実証

96基のBlackwell Ultra GPUで検証
ピーク時に30%電力削減を40秒以内で実現
200超の電力目標に100%準拠
高優先度ワークロードの性能維持を確認

電力網への貢献

接続待ち時間の大幅短縮が可能に
インフラ過剰投資抑制に寄与
一般消費者の電気料金抑制に貢献
バージニアで実運用開始予定

Emerald AINVIDIA、EPRI、National Grid、Nebiusと連携し、AIデータセンター電力需要のピーク時に自律的に消費電力を調整する「電力柔軟型AIファクトリー」の実証実験をロンドンで実施しました。英国初の本格的な取り組みとして注目されています。

実験ではNVIDIA Blackwell Ultra GPU96基を搭載したクラスターで本番レベルのAIワークロードを稼働させ、EPRIとNational Gridが落雷や風力発電低下などの電力網ストレスシナリオをシミュレーションしました。Emerald AIのConductorプラットフォーム電力削減指示を受けて自動制御を行います。

象徴的なテストとして、EURO 2020のハーフタイムに英国全土で約1ギガワットの需要急増を引き起こした「TVピックアップ現象」を再現しました。AIクラスターは瞬時に電力消費を抑制し、電力網の衝撃吸収装置として機能することが実証されました。

結果として200以上の電力目標に対し100%の準拠率を達成し、高優先度のAIワークロードはピークスループットを維持しました。National Gridのスティーブ・スミス氏は、GPUだけでなくCPUやIT機器全体の総消費電力を含む包括的なテストに成功したと評価しています。

この技術により、AIデータセンターは大規模なインフラ増強を待たずに既存の電力網へ迅速に接続できるようになります。Emerald AIとNVIDIAは今年中にバージニア州のAurora AIファクトリーで実運用を開始する予定であり、英国でも経済成長を後押しする基盤として期待が高まっています。

サンダース議員らがAIデータセンター建設禁止法案を提出

法案の骨子

20MW超のDC新設を凍結
包括的AI規制成立まで無期限
AIモデルの事前審査・認証を要求
先端チップ輸出規制も盛り込む

社会的背景

米国民の過半数がAIに懸念
全米数十都市で地方モラトリアム
2025年Q2に980億ドル分が凍結・中止
共和党からも超党派で反対の声

バーニー・サンダース上院議員とアレクサンドリア・オカシオコルテス下院議員は2026年3月、ピーク電力負荷20メガワット超のAI用データセンターの新規建設を禁止する法案を上下両院にそれぞれ提出しました。包括的なAI規制が議会で成立するまで凍結は無期限で継続されます。

法案は環境負荷の抑制にとどまらず、AIの安全性全般に踏み込んでいます。AIモデルのリリース前審査・認証制度の導入、AI起因の雇用喪失への保護措置、データセンター建設における組合労働の義務化などを求めています。さらにAIで生まれた富を国民と共有する仕組みの整備も盛り込まれています。

法案には類似規制のない国への先端半導体チップの輸出禁止も含まれています。サンダース議員はイーロン・マスク氏やサム・アルトマン氏、ダリオ・アモデイ氏らテック業界の著名人がAIの危険性を自ら警告している点を根拠に挙げ、規制の必要性を訴えています。

Pew Researchの2026年3月の調査では、米国人の過半数がAIに対して期待より懸念を感じており、約4割がデータセンターは環境や電気料金に悪影響と回答しました。2025年第2四半期だけで980億ドル相当のデータセンター計画が住民の反対により凍結または中止されています。

データセンターへの反発は超党派に広がっています。共和党のジョシュ・ホーリー上院議員は電気料金高騰を抑える法案を提出し、フロリダ州のデサンティス知事はAI権利章典の制定を推進しました。一方、業界団体は建設凍結がインターネット容量や雇用に深刻な影響を与えると反論しており、法案成立の見通しはトランプ政権のAI推進姿勢もあり不透明です。

Armが自社初のデータセンター向けCPUを発表、Metaが初期顧客に

自社チップ参入の衝撃

Arm AGI CPUを正式発表
初の自社シリコン製品で歴史的転換
Metaが最初の顧客に決定
SK Hynix・Cisco・SAP等も採用予定

技術と市場戦略

世界最高の電力効率を実現
エージェントAI処理に最適化
TSMCで製造、サーバー参照設計も提供
Intel・AMDのx86市場を直接侵食

Armは、同社初となる自社設計・製造のデータセンター向けCPU「Arm AGI CPU」を発表しました。これまで設計ライセンス事業に徹してきた同社にとって、自社シリコンへの参入は創業以来最大の戦略転換となります。初期顧客としてMetaが採用を決定しています。

CEO のルネ・ハース氏は、ArmがIP企業から「コンピュートプラットフォーム企業」に進化したと説明しました。MicrosoftがSurfaceでWindowsエコシステムを強化し、GooglePixelAndroidを推進するのと同様に、Armも自社チップエコシステム全体を底上げする狙いがあると述べています。

新CPUの最大の強みは電力効率です。モバイルチップで培った省電力設計のDNAを活かし、AI時代のデータセンターが直面するエネルギー問題に対応します。さらに、エージェントAIの実行にはGPUではなくCPUが不可欠であり、この需要拡大がArm参入の追い風となっています。

製造はTSMCが担当し、Super MicroやFoxconnと協力してサーバー参照設計も提供します。ハース氏は約2,000人エンジニアを関連部門に増員したと明かしました。既存のコンピュートサブシステムで実績があるため、初号機から高い完成度を自信を持って見込んでいます。

この動きはIntelAMDのx86勢にとって直接的な脅威となります。一方、NvidiaのVera CPUもArm ベースであるため、Armエコシステムの拡大はNvidiaにもプラスに働くとハース氏は主張。ソフトバンク孫正義会長とは日常的に連携しており、今回の決断もパートナーとしての議論を経て進めたと語りました。

OpenAIが動画生成アプリSoraを終了、Disney契約も白紙に

Sora終了の経緯

SoraアプリとAPIを廃止発表
具体的な終了日は未定
データ保存方法を後日案内
ピーク月間DL数333万件から急減

戦略転換の背景

ロボティクス研究に計算資源再配分
Anthropic対抗のスーパーアプリ構想
AGI達成へリソース集中
エネルギーコスト高騰も一因

Disney提携の破綻

10億ドル出資契約が白紙撤回
実際の資金移動は未実行
Disney側は他AI活用を継続表明

OpenAIは2026年3月、動画生成アプリSoraの終了を発表しました。アプリとAPI双方が廃止対象で、具体的な終了日は未定ですが、ユーザーの作品保存方法については後日案内するとしています。発表はX上で突如行われました。

Soraは2024年2月のプレビューで世界を驚かせ、同年12月に正式公開されました。TikTok風のソーシャル機能やディープフェイク的な「カメオ」機能を搭載し、2025年11月にはダウンロード数が333万件に達しましたが、2026年2月には113万件まで急減していました。

最大の影響はDisneyとの提携破綻です。わずか4カ月前に発表された10億ドル規模の出資契約は白紙となりました。DisneyキャラクターをSoraで生成可能にする計画でしたが、実際の資金移動は行われておらず、Disney側は今後も他のAIプラットフォームとの連携を続けると表明しています。

OpenAIは終了の理由として、Soraの基盤技術をロボティクスや物理世界シミュレーション研究に転用する方針を示しました。競合AnthropicClaudeが企業向けで急成長する中、ChatGPTを核とした「スーパーアプリ」構想に経営資源を集中させる狙いがあります。

背景には米国・イスラエル対イラン戦争によるエネルギー価格高騰もあり、動画生成は特に計算コストが高い分野です。エンターテインメント領域から撤退し、製造・物流など収益性の高い市場へ舵を切る戦略転換といえます。同時に発表された非営利部門の再編では、ライフサイエンスや雇用分野に10億ドルを投資する方針も示されました。

Mozilla開発者がAIエージェント向け知識共有基盤「cq」を発表

cqの基本構想

エージェントの知識共有基盤
古いAPI呼び出しなど誤情報を防止
既解決の問題を再利用しトークン節約

仕組みと課題

未知の作業前にcommonsへ問い合わせ
新知見を提案し他エージェント検証
利用実績で信頼度を蓄積
セキュリティとデータ汚染が課題

Mozilla開発者ピーター・ウィルソン氏は、AIコーディングエージェント向けの知識共有プラットフォーム「cq」を発表しました。同氏はこれを「エージェント版Stack Overflow」と位置づけています。

現在のコーディングエージェントは、学習データの時期的な制約により、廃止済みのAPIを呼び出すなど古い情報に基づいた判断をしがちです。RAGなどの手法で最新情報を取得する場合もありますが、必要な場面で常に機能するわけではありません。

さらに、複数のエージェントが同じ問題に個別に取り組み、すでに解決済みの課題に対して大量のトークンとエネルギーを消費している現状があります。cqはこの非効率を解消し、一度得た知見を全エージェントで共有することを目指します。

cqの仕組みでは、エージェントが未知の作業に着手する前にcommonsと呼ばれる共有知識基盤に問い合わせます。たとえばStripe APIの特殊な挙動を別のエージェントが発見済みなら、その知見を即座に活用できます。新たな発見は提案として共有され、他のエージェントが有効性を検証します。

ただし、実用化に向けてはセキュリティ、データ汚染、正確性の担保が大きな課題です。現状ではclaude.mdなどの手動設定ファイルが主流ですが、cqはこれを自動化・体系化する試みとして注目されています。

MicrosoftとNVIDIA、原子力向けAI基盤で協業を発表

協業の全体像

許認可から運用まで一貫支援
デジタルツインで設計検証を高速化
規制文書のAI自動生成と整合性確認
4D・5Dシミュレーションで工期管理

導入企業の成果

Aalo Atomics、許認可を92%短縮
年間推定8000万ドル削減を実現
Southern Nuclear、Copilotを全社展開
INL、安全解析報告の標準手法を策定

エコシステム拡大

Everstar、原子力特化AIをAzureで提供
Atomic Canyon、MS Marketplaceに参入

MicrosoftNVIDIAは、原子力発電所の許認可・設計・建設・運用を一貫して支援するAI for nuclear協業を発表しました。デジタル時代の電力需要急増に対応し、カーボンフリー電源の展開を加速する狙いです。

原子力発電所の許認可には数年の期間と数億ドルの費用がかかり、エンジニアは数万ページにおよぶ文書の整合性確認に膨大な時間を費やしています。今回の協業では生成AIを活用し、文書作成やギャップ分析を自動化することで、規制当局が安全判断に集中できる環境を整備します。

設計段階ではデジタルツインと高精度シミュレーションにより、実際の着工前に設計変更の影響を即座に検証できます。建設段階では4D・5Dシミュレーションで工程と費用を仮想的に構築し、遅延やコスト超過を未然に防止します。運用段階ではAIセンサーが異常を早期検知し、予知保全を実現します。

すでに具体的な成果が出ています。Aalo AtomicsMicrosoftの許認可向け生成AIソリューションを導入し、許認可プロセスを92%短縮、年間推定8000万ドルの削減を達成しました。Southern NuclearCopilotエンジニアリングやライセンス業務に展開し、意思決定の質を向上させています。

技術基盤にはNVIDIA Omniverse、Earth 2、CUDA-X、PhysicsNeMoなどと、Microsoftの許認可ソリューションアクセラレータおよびPlanetary Computerが統合されています。EverstarやAtomic Canyonといったスタートアップエコシステムに参画し、Azure上で原子力業界向けAIの実用化を推進しています。

Armが35年の歴史で初の自社製CPU発表、Metaが最初の顧客に

AGI CPUの概要

Neoverseベースの推論特化CPU
最大136コア搭載構成
TSMC3nmプロセスで製造
x86比2倍電力効率を主張

顧客と市場展望

Metaが共同開発・初号顧客
OpenAICerebras等も採用予定
2026年後半に量産出荷開始
DC向けCPU市場は2030年に1000億ドル規模へ

Armは2026年3月、サンフランシスコで開催したイベントにおいて、創業以来初となる自社製CPU「Arm AGI CPU」を発表しました。同社はこれまでチップ設計のライセンス供与に徹してきましたが、AI需要の急拡大を受けて自社製造に踏み切りました。

AGI CPUはAIエージェント推論処理に特化したデータセンター向けプロセッサです。最大136コアを搭載し、TSMCの3nmプロセスで製造されます。従来のx86アーキテクチャ製品と比較して、ワットあたり性能が2倍に達すると同社は主張しています。

Metaが共同開発パートナー兼最初の顧客として名乗りを上げました。Meta基盤部門責任者のサントシュ・ジャナルダン氏は「チップ業界を複数の軸で拡大する」と期待を示しています。同社は「パーソナル超知能」の実現に向け、電力効率の高いシリコンを求めています。

OpenAICerebrasCloudflare、SAP、SK Telecom、Rebellionsなども採用を表明しました。NvidiaAmazonGoogleの幹部もビデオメッセージで支持を表明しましたが、購入の確約には至っていません。量産出荷は2026年後半を予定しています。

調査会社Creative Strategiesは、データセンター向けCPU市場が2026年の250億ドルから2030年には600億ドルに成長すると予測しています。エージェントAI向けCPUを含めると市場規模は1000億ドルに達する見通しです。一方、Armが自社チップを投入することで、既存ライセンス先との競合関係が生じるリスクも指摘されています。

AI専用ワークステーション競争が本格化、液冷技術が鍵に

デスクトップAI競争の構図

Tenstorrentが約1万ドルのQuietBox 2発表
独自Blackholeチップ4基で384GB搭載
Nvidia DGX Stationは748GBで約8.5万ドル
消費電力と価格で明確な差別化戦略

液冷がAIインフラの必須要件に

空冷と液冷のハイブリッドは構造的負債
ストレージも液冷ネイティブ設計が必要
SolidigmNvidiaと液冷SSD共同開発
業界標準化がOCPとSNIA主導で進行

Tenstorrentは、独自開発のBlackhole AIアクセラレータ4基を搭載したワークステーション「QuietBox 2」を発表しました。価格は約9,999ドルで、2026年第2四半期に発売予定です。

QuietBox 2は合計384GBのメモリを備え、MetaLlama 3.1 70Bを毎秒約500トークンで実行できます。消費電力は最大1,400Wで、一般家庭のコンセントでも使用可能な設計となっています。

対するNvidiaのDGX Stationは最大748GBのメモリを搭載し、MSI製モデルは約8万5,000ドルで販売されます。消費電力は1,600Wと、家庭用ブレーカーの上限に近い水準です。

Tenstorrentはオープンソースのソフトウェアスタックとx86互換のAMDプラットフォームを採用し、Nvidiaの独自CUDAエコシステムとは異なるアプローチで差別化を図っています。

一方、AI基盤の液冷化も急速に進んでいます。Solidigmは、空冷と液冷の混在が二重コスト構造と熱設計の矛盾を生む「構造的負債」だと指摘しています。

SolidigmNvidiaと協力し、液冷環境でホットスワップ可能なSSDの開発を進めています。ストレージがGPUの冷却資源を圧迫しない設計が、AI基盤の性能最大化に不可欠とされています。

業界ではOCPやSNIAが主導し、液冷AIシステムの相互運用性を確保する標準化が進行中です。カスタム冷却から標準準拠の設計への移行が加速しています。

OpenAI、核融合Helionから電力購入へ交渉開始

取引の概要

5GWを2030年までに供給
50GWを2035年までに目標
Helion生産量の12.5%OpenAI
Microsoftとの既存契約に続く動き

利益相反と体制変更

Altman、Helion取締役会長を退任
10年以上の関与から身を引く判断
Okloでも同様に会長職を辞任済み

技術と進捗

磁気直接発電方式を採用
Polaris試作機で1.5億度達成

OpenAIのCEOサム・アルトマン氏が出資する核融合スタートアップHelion Energyが、OpenAIへの電力供給について初期段階の交渉に入っていることが報じられました。Axiosの報道によると、2030年までに5GW、2035年までに50GWの供給が検討されています。

この取引が実現すれば、Helionは生産量の12.5%OpenAIに供給することになります。同社は2023年にすでにMicrosoftと同様の電力購入契約を締結しており、2028年からの供給開始を目指しています。AI企業の電力需要拡大を背景に、核融合エネルギーへの期待が高まっています。

報道の数字が正確であれば、Helionは2030年までに800基、2035年までにさらに7200基の炉を建設・設置する必要があります。各炉の発電能力は50MWとされており、商用規模での急速なスケールアップが求められます。競合他社の多くが2030年代前半の商用化を目指す中、Helionは数年先行する可能性があります。

利益相反を回避するため、アルトマン氏はHelionの取締役会長を10年以上務めた末に退任しました。同氏は2025年にも小型モジュール炉企業Okloの会長職を同様の理由で退いており、AI企業とエネルギー企業の提携を促進するパターンが見られます。

Helionは他社と異なり、核融合反応の熱を蒸気タービンで変換するのではなく、磁気を用いて融合エネルギーを直接電気に変換する独自の方式を採用しています。砂時計型の炉内でプラズマを磁場で加速・衝突させ、融合反応の反発力を発電に利用します。2026年2月にはPolaris試作機で1億5000万度のプラズマ生成に成功し、商用運転に必要な2億度に迫っています。

MS Research が問う「AIは本当に知的か」脳との根本的差異

トランスフォーマーの本質

注意機構がトークン間関係を学習
フィードフォワード層に知識を蓄積
LLMは無損失圧縮器として機能
入力の複雑さに関わらず一定計算量を消費

脳の分散アーキテクチャ

10万個の皮質コラムが並列処理
4日でシナプスの30%が入れ替わる
12ワットで70兆シナプスを駆動
感覚運動ループで常時予測・学習を実行

知能の定義と今後の展望

LLMは凸凹な知能を持つと評価
3歳児の継続学習能力はLLMに欠如
分散型コラムの大規模化が超知能への道筋

Microsoft ResearchのDoug Burger氏が新ポッドキャスト「The Shape of Things to Come」を開始し、第1回では同社研究員のNicolò Fusi氏とNumentaのSubutai Ahmad氏を招き、現在のAIシステムが本当に知的かを議論しました。

トランスフォーマーの仕組みについてFusi氏は、注意層がトークン間の関係性を把握し、フィードフォワード層が知識を格納する二層構造だと説明しました。さらにLLMを情報理論的な無損失圧縮器と捉える見方を示し、より良い生成モデルの構築は最適な圧縮器の探索と等価であると主張しました。

Ahmad氏は脳の千脳理論を解説し、大脳新皮質には約10万個の皮質コラムが存在し、それぞれが独立した感覚運動処理システムとして完全な世界モデルを構築していると述べました。成体マウスの研究では4日ごとにシナプスの30%が入れ替わることが判明しており、脳は投機的に新しい接続を形成し不要なものを刈り込む継続学習を行っています。

効率性の面では、脳はわずか約12ワットで70兆のシナプスを動かしている一方、同規模のパラメータを持つモデルをGPUで動かすとメガワット級の電力が必要になるとAhmad氏は指摘しました。ニューロンの活動は常時わずか1%で、接続も1%しか使われておらず、極めてスパースな表現が省エネの鍵となっています。

Fusi氏はLLMを「既に知的だが凸凹な知能」と評価する一方、Ahmad氏は3歳児が持つ好奇心と継続学習能力がLLMには欠けていると反論しました。Burger氏は小型の「デジタル皮質コラム」を大量に配置し感覚運動ループで結合する構想を提示し、Ahmad氏はそれこそが超知能システム構築の道筋だが、現在のアプローチとは根本的に異なると結論づけました。

欧州の送電網不足がAIデータセンター建設を阻む

深刻な送電網の逼迫

英国30GW超の接続待ち
再エネ発電地と需要地の地理的不一致
新送電線の建設に7〜14年必要
接続遅延で計画中止相次ぐ

既存網の容量拡大策

動的線路容量で最大40%増
AIデータセンター柔軟な電力消費
混雑回路の迂回技術を併用
規制改革で投機的申請を排除

欧州各国がAI向けデータセンターの新設を急ぐ中、最大の障壁は発電量ではなく送電網の容量不足であることが明らかになりました。英国の送電事業者ナショナル・グリッドには、合計30GW超の接続申請が滞留しています。

送電網への接続待ちが長期化し、欧州各地でデータセンター計画の中止が相次いでいます。新たな送電線の建設には計画・法的手続き・施工を含め7〜14年を要するため、短期的な解決は困難です。英国では2024年末以降、申請件数が3倍に急増しました。

こうした状況を受け、ナショナル・グリッドは既存送電網から追加容量を引き出す動的線路容量(DLR)技術の導入を進めています。気象条件に応じて送電量をリアルタイムで調整する仕組みで、EU調査では送電容量を最大40%向上できると試算されています。

ただしDLRには課題もあります。猛暑時にはデータセンターの冷却需要が増す一方、送電線の容量は低下するという矛盾が生じます。そのためナショナル・グリッドは混雑回路の迂回技術や、AIデータセンター電力消費を柔軟に調整する仕組みとの併用を計画しています。

英国の規制当局Ofgemは、投機的な接続申請を排除する改革を準備中で、期限内に容量拡大を達成できない事業者への罰則も導入します。しかし専門家は、AI時代のデータセンター需要に対応するには最終的に大規模な送電インフラの新設が不可欠だと指摘しています。

AI最大の投資先はエネルギー技術との調査報告

電力不足の深刻化

DC計画の半数に遅延リスク
190GW計画中建設中は5GWのみ
2030年までに電力需要175%増の予測

大手の電力戦略

Googleが風力・太陽光・蓄電池を併用
Form Energyの100時間蓄電池に大型投資
オンサイト電源・ハイブリッド方式が拡大

注目の新技術

固体変圧器スタートアップ投資集中
米国の蓄電容量が65GWに到達見込み

Sightline Climateの調査によると、発表済みデータセンター計画の最大50%が遅延する可能性があり、最大の原因は電力供給の不足であることが明らかになりました。AI投資の最善策はエネルギー技術かもしれないと報告書は指摘しています。

同社が追跡する190ギガワット分のデータセンター計画のうち、実際に建設中なのはわずか5ギガワットです。2025年には約36%のプロジェクトでスケジュールの遅延が発生しており、この供給不足は企業のAI活用にも波及する恐れがあります。

Googleはミネソタ州の新データセンターで、風力・太陽光発電とForm Energyの30ギガワット時の大型蓄電池を組み合わせる方式を採用しています。AmazonOracleなども送電網への依存を減らすため、オンサイト電源やハイブリッド方式の導入を進めています。

送電網の老朽化とガスタービンの不足が代替エネルギー技術への道を開いています。米国の蓄電池容量は年末までに約65ギガワットに達する見通しで、Form EnergyはIPOに向けて5億ドルの資金調達を計画しています。

データセンター電力密度が1メガワットに達すると、電力機器がサーバーラック自体の2倍のスペースを占めるようになります。この課題に対し、固体変圧器スタートアップが注目を集めており、140年前の鉄銅技術に代わるシリコンベースの電力変換装置の開発が進んでいます。

蓄電池や変圧器企業への投資規模はAI業界の大型ラウンドと比べまだ小さく、投資家にとって参入しやすい領域です。輸送から重工業まであらゆる分野の電化が進む中、エネルギー技術はAIバブル崩壊へのヘッジにもなると専門家は分析しています。

MIT会議でAI開発の方向転換が議論、小規模モデル推進を提唱

消費者とAI企業の溝

消費者の過半数がAIリスク懸念
キラーアプリ不在で課金意欲低迷
企業と利用者の認識に大きな乖離

小規模AI路線の提唱

記者Karen HaoがAGI路線を批判
AlphaFold型の特化モデルを推奨
大規模計算の環境負荷を問題視

市民参加型AI開発

地域社会のニーズに応える設計
技術の軌道修正に市民の声が不可欠

MITで開催されたAIシンポジウムにおいて、ジャーナリストのKaren Hao氏と研究者のPaola Ricaurte氏が基調講演を行い、現在のAI開発の方向性に疑問を呈しました。300人以上が参加し、AIの恩恵を誰が受けるのかという根本的な問いが議論されました。

Hao氏は、大規模言語モデルの開発に使われる膨大なデータセットと計算資源の規模が不必要であると主張しました。ハイパースケールデータセンターエネルギー消費や水資源の大量使用、さらにギグエコノミー労働者への人的負担といったトレードオフを具体的に指摘しています。

代替モデルとして、ノーベル賞を受賞したAlphaFoldを例に挙げました。タンパク質構造の予測に特化した小規模モデルは、厳選されたデータセットのみを使用し、高速なスーパーコンピューティングも不要でありながら、巨大な恩恵を生み出していると説明しました。

一方、The Vergeの調査報道によれば、企業がAI導入を急ぐ一方で消費者の反応は冷ややかです。Pew Researchの調査では多くの人がAIの影響を懸念しており、NBCの世論調査でも過半数がリスクが利点を上回ると回答しました。消費者が対価を払いたいと思う画期的なユースケースがいまだ登場していないことが背景にあります。

Ricaurte氏は、コミュニティのニーズに応えない技術に意味はないと述べ、目的駆動型のAI開発を訴えました。Hao氏もAIという用語の曖昧さが建設的な議論を妨げていると指摘し、「自転車からロケットまで」という比喩で具体的な議論の必要性を強調しました。両氏は聴衆に対し、技術の軌道はまだ固定されておらず、市民一人ひとりが積極的に関与すべきだと呼びかけました。

透明マント技術がAIデータセンターを革新へ

光メタマテリアルの実用化

Lumotiveが液晶メタマテリアルチップ発表
可動部なしで光ビームを精密制御
標準半導体プロセスで商用化を実現
1万×1万ポートへの拡張が可能

光コンピューティングへの応用

Neurophosが光変調器を1万分の1に小型化
NVIDIA Blackwell比50倍の演算密度
2028年中頃の量産開始を計画

約20年前に開発された光メタマテリアル技術を応用し、米スタートアップ2社がAI向けデータセンターの高速化と光コンピューティングの実用化に挑んでいます。従来「透明マント」として知られた技術が、いよいよ産業応用の段階に入りました。

ワシントン州のLumotiveは、銅構造と液晶素子を組み合わせたメタマテリアルチップを3月19日に発表しました。標準的な半導体製造技術で作られたこのチップは、可動部なしで光ビームの方向・形状・分割をリアルタイムに制御できます。

同社のチップは業界標準の256×256ポートに対応するだけでなく、1万×1万ポートへの拡張も可能とされています。既存の光スイッチ技術が抱えるシリコンフォトニクスのエネルギー効率問題やMEMSの信頼性問題を解決する手段として注目されています。

テキサス州のNeurophosは、メタマテリアルを用いて従来の1万分の1サイズの光変調器を開発しました。5×5ミリのチップ上に1000×1000の光変調器アレイを搭載し、完全にCMOSプロセスで製造できる点が強みです。

Neurophosは自社チップNVIDIABlackwell世代GPUと比べ演算密度・電力効率ともに50倍を達成すると主張しています。2026年中にハイパースケーラー各社が概念実証チップを評価予定で、2028年前半のシステム投入、同年中頃の量産開始を目指しています。

Google、データセンター需要応答容量1GWを達成

需要応答の仕組み

ML負荷の一部を削減・移行
ピーク時の電力需要を抑制
短期負荷増と新設の時間差を補完

電力網への効果

既存資源でピーク対応が可能に
送電・発電所の建設費を最適化
全顧客の電気料金上昇を緩和

長期計画と展望

EPRI DCFlexに創設メンバーとして参画
州・規制当局と系統計画を刷新

Googleは、米国内の複数の電力会社との長期エネルギー契約に合計1ギガワットのデマンドレスポンス(需要応答)容量を統合したと発表しました。これにより、データセンター電力網にとって有用な資産として機能する新たな段階に入ります。

デマンドレスポンスとは、データセンターで稼働する機械学習ワークロードの一部を制限または時間帯をずらすことで、全体の電力需要を削減する仕組みです。これにより電力会社は需給バランスの調整や将来の容量計画をより効率的に行えるようになります。

Googleは昨年のIndiana Michigan PowerやTVAとの初期契約に続き、Entergy Arkansas、Minnesota Power、DTE Energyとも新たな契約を締結しました。需要応答を組み込むことで、新規データセンターの地域送電網への接続を迅速化しています。

調査によれば、大規模電力負荷にわずかな柔軟性を持たせるだけで、電力システム全体のコスト削減につながります。ピーク使用時のみに必要な新規インフラ建設を抑えられるため、すべての電力利用者の料金負担が軽減される効果が期待されます。

GoogleEPRI DCFlexの創設メンバーとして、需要応答を送電網の容量資源として正当に評価する枠組みの策定にも取り組んでいます。太陽光地熱、長時間エネルギー貯蔵と併せ、責任あるエネルギー成長の実現を目指す方針です。

Nvidia、5mW以下で顔検出する常時稼働ビジョンチップ開発

超低消費電力の実現

消費電力5mW以下で60fps処理
従来比約2000分の1電力効率
787μsで顔検出完了
精度約99%を維持

技術的アプローチ

2MB SRAMにデータ局所保存
Race to Sleep」方式で待機電力削減
稼働時間は全体の5%のみ

想定される応用先

自動運転車ドローンの常時監視
ノートPCの離席検知で省電力

Nvidiaの研究チームは、消費電力5ミリワット以下で人間の顔を1ミリ秒未満で検出できる常時稼働型ビジョンシステムを開発しました。電気技術者のBen Keller氏が2月18日、サンフランシスコで開催されたIEEE ISSCCで発表しました。

従来のビジョン処理には約10ワットが必要とされていましたが、常時稼働には消費電力が大きすぎるという課題がありました。今回のSoCは60fpsのフレームレートで動作しながら、消費電力約2000分の1に抑えることに成功しています。

中核技術は「Alpha-Vision」と呼ばれる常時低消費電力アクセラレータです。深層学習アクセラレータ、小型CPU、データ近傍演算サブシステムで構成され、16.7ミリ秒ごとに画像を更新しますが、実際に電力を消費するのは全体のわずか5%の時間です。

電力効率の鍵は「Race to Sleep」と呼ばれるアプローチです。顔認識に必要なデータを2MBのSRAMにローカル保存し、787マイクロ秒で検出処理を完了した後、即座にSRAMを低電力スリープモードに移行させることで、メモリリーク電力を最小限に抑えています。

応用先としては、ノートPCのディスプレイをユーザーの離席時に自動消灯しパスワード不要で復帰する機能や、自動運転車ドローンロボットへの常時ビジョン搭載が想定されています。消費者向けデバイスの省電力化に大きく貢献する可能性があります。

元駐中国大使バーンズ氏、米中協力と競争の両立を提唱

米中競争の4領域

軍事・技術・貿易・価値観の4分野で競争
関税145%対125%で貿易停止寸前に
中国レアアース生産・加工で優位

技術と気候の接点

AI・量子・バイオが技術競争の中心
中国STEM専攻率36%、米国はわずか5%
気候変動米中協力の鍵に
クリーンエネルギー石炭依存の矛盾

外交の持続性

世界最重要の二国間関係と位置づけ
対話正常化で最悪の事態を防止

ニコラス・バーンズ元駐中国米大使は、MITエネルギーイニシアティブの講演で、米中関係の現状と今後について語りました。両国は世界最大の経済大国かつ最大の炭素排出国であり、競争と協力の両立が不可欠だと訴えました。

バーンズ氏は米中関係を「競争的・厳しい・敵対的」の3語で要約し、軍事・技術・貿易経済・価値観の4分野で競争が激化していると指摘しました。2025年の関税戦争では米国145%、中国125%の関税が課され、貿易がほぼ停止する危機に直面しました。

エネルギー分野では、中国リチウム電池・太陽光パネル・EVに不可欠なレアアースの生産加工で圧倒的な優位にあります。米国のほかインド・EU・カナダなども関連製品に関税を課しており、バーンズ氏は供給源の多様化を支持する姿勢を示しました。

技術競争においては、AI・量子コンピューティング・バイオテクノロジーが中心になっています。中国の大学1年生のSTEM専攻率は36%で、米国の5%を大きく上回ります。バーンズ氏は中国の教育重視と技術適応力の高さを評価し、技術開発だけでなく政策との統合が競争力の鍵だと述べました。

一方で気候変動は米中協力の有望な領域とされます。中国クリーンエネルギー技術で先行しつつも石炭使用を続けるという矛盾を抱えています。バーンズ氏は、破壊的な衝突を避けながら競争を管理するために対話と関与の正常化が急務であると強調しました。

NVIDIAと通信大手6社がAIグリッド構築へ

通信網のAI基盤化

AT&T;がIoT向けAIグリッド構築
Comcastが低遅延ブロードバンド活用
Spectrumが1000超のエッジ拠点展開
T-MobileがエッジAI応用を検証

分散推論の実用化

Personal AIが500ms以下の遅延実現
Linker Visionが都市運営を変革
Decartが12ms以下のリアルタイム映像生成

エコシステム拡大

Cisco・HPEがフルスタック提供
Blackwell GPU搭載システムで展開

NVIDIAは GTC 2026において、AT&T;Comcast、Spectrum、Akamai、Indosat、T-Mobileの通信大手6社と連携し、地理的に分散したAI推論基盤「AIグリッド」の構築を発表しました。通信網をAI配信の中核に据える構造的転換が進んでいます。

世界の通信事業者は約10万カ所の分散データセンターを運営しており、余剰電力100ギガワット超に達します。AIグリッドはこの既存資産を活用し、ユーザーやデバイスの近くでAI推論を実行することで、応答速度の向上とトークンあたりコストの最適化を同時に実現します。

AT&T;はCiscoおよびNVIDIA提携し、IoT向けAIグリッドを構築します。公共安全などミッションクリティカルな用途で、リアルタイムのAI推論ネットワークエッジで処理し、機密データの顧客管理を維持しながら検知・警報・対応を高速化します。

ComcastNVIDIAやHPEと連携し、会話エージェントクラウドゲーミングの需要急増時でも高スループットと低コストを維持できることを実証しました。Akamaiは4400超のエッジ拠点に数千基のBlackwell GPUを配備し、リクエストごとに最適な計算層へ振り分けるオーケストレーション基盤を構築しています。

インドネシアのIndosatは国内にソブリンAI基盤を整備し、現地語対応のAIプラットフォーム「Sahabat-AI」を展開します。T-Mobileはスマートシティや配送ロボットなど物理AIの実証を進めており、セルサイトが5G通信と分散AI処理を両立できることを示しています。

NVIDIAAIグリッドリファレンスデザインを公開し、分散拠点でのAI展開に必要なコンピューティング・ネットワーキング・ソフトウェアの構成要素を定義しました。Cisco、HPE、Armada、Rafayなどのパートナーがフルスタックソリューションの市場投入を進めており、通信事業者がAIバリューチェーンで新たな収益源を確保する動きが加速しています。

GPU電力最適化の新興Niv-AIが1200万ドル調達しステルスから登場

電力浪費の実態

GPU電力サージで最大30%性能低下
ミリ秒単位の需要変動が制御困難
余剰電力確保やスロットリングで投資効率悪化

Niv-AIの技術戦略

ラックレベルのミリ秒センサー配備
AIモデル電力負荷を予測・同期
データセンター送電網の知能層構築

事業展開の見通し

シードで1200万ドル調達
6〜8カ月以内に米国DCで稼働予定

イスラエル・テルアビブ発のスタートアップNiv-AIが、GPU電力消費を最適化する技術で1200万ドルのシード資金を調達し、ステルスモードから正式に登場しました。CEOのTomer Timor氏とCTOのEdward Kizis氏が昨年設立した同社です。

AIデータセンターでは、GPUが計算タスクと通信を切り替える際にミリ秒単位の電力サージが頻発しています。NVIDIAのジェンスン・ファンCEOも「AI工場では膨大な電力が浪費されている」と指摘しており、業界全体の深刻な課題となっています。

データセンター事業者はサージに対応するため、一時的な蓄電設備の導入やGPU使用率のスロットリングを余儀なくされています。いずれの対策も高価なチップへの投資効率を最大30%低下させ、収益機会の損失につながっています。

Niv-AIはまずラックレベルの高精度センサーを設置し、ミリ秒単位でGPU電力プロファイルを把握します。収集データをもとにAIモデルを構築し、データセンター全体の電力負荷を予測・同期する「コパイロット」の開発を目指しています。

同社は6〜8カ月以内に米国の複数のデータセンターで運用を開始する予定です。Glilot CapitalやGrove Venturesなどが出資しており、新規DC建設が用地確保やサプライチェーンの問題で難航するなか、既存施設の容量を最大限に引き出す「知能レイヤー」として注目を集めています。

Nvidia、AIエージェント向け新ストレージ基盤STXを発表

STXの技術概要

KVキャッシュ専用メモリ層を新設
トークン処理量5倍を実現
エネルギー効率4倍向上
データ取込速度2倍

エコシステム展開

Dell・HPEなど12社が共同設計
CoreWeave・Oracleなど8社が採用表明
2026年下半期にパートナーから提供開始

企業AI基盤への影響

ストレージがGPU調達と同格の意思決定対象に

Nvidiaは2026年のGTCにおいて、AIエージェント向けの新たなモジュラー型リファレンスアーキテクチャ「BlueField-4 STX」を発表しました。GPUと従来型ストレージの間に専用のコンテキストメモリ層を挿入し、推論時のボトルネックを解消する設計です。

STXが解決を目指すのは、KVキャッシュデータの処理遅延です。KVキャッシュとは、LLMが推論時に保存する中間計算結果であり、エージェントがセッションやツール呼び出しを跨いで文脈を維持するために不可欠です。コンテキストウィンドウの拡大に伴いキャッシュも肥大化し、従来のストレージ経由ではGPU利用率が低下していました。

STXはNvidia自身が直接販売する製品ではなく、ストレージパートナー向けのリファレンスアーキテクチャです。新型BlueField-4プロセッサにVera CPUとConnectX-9 SuperNICを統合し、Spectrum-X Ethernet上で動作します。ソフトウェア面ではDOCAプラットフォームに「DOCA Memo」を追加し、プログラマブルな最適化基盤を提供します。

パートナーにはDell、HPE、NetApp、VAST Dataなどストレージ大手12社が共同設計に参加し、CoreWeave、Oracle Cloud、LambdaなどAIネイティブクラウド8社も採用を表明しています。IBMはSTX共同設計者であると同時に、Nvidia自身がIBM Storage Scale System 6000をGPU分析基盤に採用したことも発表されました。

STXの登場は、エンタープライズAI基盤においてストレージ層がGPU調達と同等の重要な意思決定対象になることを示唆しています。ただし、性能値の比較ベースラインは未公開であり、導入判断には詳細な検証が必要です。2026年下半期にパートナー各社からSTXベースの製品が提供開始される見通しで、今後12カ月以内にストレージ更新を検討する企業は選択肢として考慮すべきです。

Tower半導体とScintil、AI向け初の単チップ光エンジン量産開始

光通信チップの革新

世界初の単チップDWDM光エンジン
8~16波長を1本のファイバーで伝送
1.6Tbpsの高速データ転送を実現
300mmシリコンウェハー上にレーザー統合

GPU性能への効果

低遅延GPU利用率が倍増
スケールアップ網の光接続を実現
2026年末に数万個出荷予定
2028年の本格展開に向け量産体制構築

Tower SemiconductorScintil Photonicsは2026年3月、AIデータセンター向けとして世界初となる単チップDWDM(高密度波長分割多重)光エンジンの量産を発表しました。この技術により、1本の光ファイバーで複数の光信号を同時に伝送でき、消費電力と遅延を大幅に削減します。

AIデータセンターでは、数十基のGPUとメモリを一体的に動作させるスケールアップネットワークが求められています。従来の銅線接続では帯域幅と遅延の限界があり、光接続への移行が急務となっていますが、レーザーそのものをシリコンチップに統合する技術が欠けていました。

ScintilのSHIP技術は、標準的な300mmシリコンフォトニクスウェハー上にレーザー、フォトダイオード、変調器を統合します。InP系半導体ダイをウェハーの必要箇所にのみ接合することで、高価な材料の使用量を最小限に抑えつつ、フォトリソグラフィで高精度な波長安定性を実現しています。

完成品のLEAF Lightチップは、1ファイバーあたり8または16波長を出力し、最大1.6Tbpsのデータ速度を達成します。従来の単一チャネル400Gbps伝送に対し、50Gbpsを8チャネルに分散する「遅く広く」のアーキテクチャにより、電力効率とファイバーあたりのデータ容量が飛躍的に向上します。

最大の利点はGPU利用率の改善です。高帯域チャネルでの誤り訂正処理が遅延を増大させるのに対し、低帯域DWDMで複数GPUを接続すれば利用率を倍増できます。Scintilは2026年末までに数万個を出荷し、翌年には生産量を10倍に引き上げる計画で、2028年の本格導入に向けサプライチェーンを整備しています。

ファン氏、AIの「5層構造」は人類史上最大のインフラ整備

AIの5層スタック

エネルギーAI基盤の第一原理
チップ:計算効率を左右する要
インフラAI工場として機能
モデル:多領域の知能生成エンジン
アプリ:経済価値を生む最上層

経済・雇用への波及

数兆ドル規模の投資需要
熟練職の大量雇用創出
生産性向上による需要拡大
DeepSeek-R1が全層需要を加速

NVIDIAのジェンセン・ファンCEOは2026年1月のダボス会議で、AIを「5層のケーキ」として定義しました。エネルギーチップインフラ・モデル・アプリケーションの5層が相互に依存し、これが人類史上最大のインフラ整備になると宣言しました。

従来のソフトウェアは人間が記述したアルゴリズムを実行するだけでしたが、AIは非構造化情報を理解しリアルタイムで知能を生成します。この根本的な変化がコンピューティングスタック全体の再設計を必要とした、とファン氏は説明しました。

現在は数千億ドルの投資が行われていますが、必要なインフラの大半はまだ存在しません。世界各地でチップ工場・コンピュータ組立工場・AIファクトリーが空前の規模で建設されており、電気工事士や配管工など高技能・高待遇の職が大量に必要とされています。

AIは知識労働の生産性も向上させます。放射線科医の例では、AIがスキャン読み取りを支援しても診断医の需要は増加しています。生産性が容量を生み、容量が成長を生むというサイクルが実証されています。

オープンソースモデルは世界中の研究者・企業・国家がAIに参加する基盤となっています。DeepSeek-R1のような強力な推論モデルの無償公開はアプリ層の採用を加速し、インフラチップエネルギー全層への需要を押し上げた好例です。

ファン氏はAIをもはや一企業・一国の問題ではなく、すべての企業が活用しすべての国が構築する現代世界の基礎インフラと位置づけました。今後の構築速度・参加の広さ・責任ある展開がこの時代の形を決めると締めくくりました。

Anthropic、AI社会課題に取り組む研究機関を新設

研究所の概要と体制

共同創業者ジャック・クラークが所長就任
レッドチーム・経済・社会影響の3部門統合
ML技術者・経済学者・社会科学者の学際組織
AI進歩の予測と法制度研究も開始

研究方針と政策展開

フロンティアAI開発者のみが持つ知見を公開
労働者・産業界との双方向対話を重視
DC拠点新設で政策チームも拡充

Anthropicは2026年3月、強力なAIが社会にもたらす課題に取り組む新組織「The Anthropic Institute」の設立を発表しました。共同創業者ジャック・クラーク氏が「公益担当責任者」として同研究所を率います。

同研究所は、AIシステムの限界を検証するフロンティア・レッドチーム、実社会での利用状況を調査する社会影響チーム、雇用・経済への影響を追跡する経済研究チームの3部門を統合・拡充して発足します。AI進歩の予測や法制度との関係についても新たな研究を進めます。

Anthropicは設立から5年間でAI開発が急速に進展したと指摘しています。同社のモデルは深刻なサイバーセキュリティ脆弱性の発見や幅広い実務の遂行、さらにはAI開発自体の加速にも活用されるまでに至りました。今後2年間でさらに劇的な進歩が続くと予測しています。

創設メンバーとして、イェール大学法科大学院・元Google DeepMindマット・ボトヴィニック氏がAIと法の支配の研究を、バージニア大学のアントン・コリネック教授が変革的AIによる経済活動の本質的変容の研究を、元OpenAIゾーイ・ヒッツィグ氏が経済研究とモデル開発の橋渡しをそれぞれ担当します。

研究所と並行して公共政策チームも拡充されます。元Stripe・ホワイトハウス国家安全保障会議出身のサラ・ヘック氏が政策部門を統括し、2026年春にはワシントンDCに初の拠点を開設予定です。モデルの安全性・透明性エネルギー政策、輸出管理、民主的AI統治を重点課題として取り組みます。

英NscaleがシリーズCで約2兆円調達、サンドバーグら著名人が取締役に就任

巨額資金調達の詳細

評価額146億ドルに到達
シリーズCは欧州史上最大規模
Goldman Sachs・JPMorganが支援
IPO準備の観測強まる

事業拡張の戦略

Stargate Norwayを完全管理下に
OpenAI初期顧客として契約
Microsoft20万GPU供給契約
再生可能エネルギー活用を推進

英国のAIインフラ企業Nscaleは2026年3月、シリーズCラウンドで20億ドルを調達し、企業評価額が146億ドルに達したと発表した。同社の元Meta COOシェリル・サンドバーグ、元英国副首相ニック・クレッグらが新たに取締役会に加わった。

今回の調達はNvidiaやDell、Blue Owlなどが参加するプレシリーズCのSAFE4億3300万ドルを含む総額であり、Goldman SachsとJPMorganが支援に関与していることからIPO準備との見方が広がっている。CEOのジョシュ・ペイン氏は「今年中にも上場を検討」と述べた。

Nscaleはノルウェーの上場企業Akerとの合弁事業「Stargate Norway」を完全管理下に移行することで合意した。同プロジェクトは2026年末までにNvidiaGPU10万基稼働を目指し、OpenAIが初期顧客として名を連ねている。

事業提携面ではMicrosoftとの契約拡大により、欧州3拠点と米国1拠点のデータセンターに約20万基のNvidia GPUを展開することが決まっている。DellやNvidiaも今回のシリーズCに出資しており、戦略的連携が一段と深まっている。

Nscaleはエネルギーからデータセンター、コンピューティング、オーケストレーションソフトウェアまでの垂直統合モデルを採用し、低コストの再生可能エネルギーを活用しながら欧州・北米・アジアでのインフラ拡充を加速させる方針だ。

米テック7社、データセンター電気料金の住民転嫁防止を誓約

誓約の主な内容

送電網増強費用を企業負担
電力会社と個別料金体系交渉
緊急時にバックアップ電力提供
未使用電力の費用も企業側が負担
地元からの雇用創出を約束

背景と課題

2025年の家庭電気料金が13%上昇
2028年までに電力需要2〜3倍予測
データセンターへの住民反対拡大

GoogleMetaMicrosoftOracleOpenAIAmazonxAIの7社が2026年3月4日、ホワイトハウスでトランプ大統領の「料金支払者保護誓約」に署名しました。AIデータセンターの急増による電気料金高騰から一般家庭を守ることが目的です。

誓約の核心は、データセンターに必要な新規発電設備送電インフラの増強費用をテック企業が全額負担する点にあります。データセンターが想定ほど電力を使わなかった場合でも、企業側が費用を負担するため、地域住民が座礁資産リスクを背負うことはありません。

背景には、AIデータセンターへの反対運動の広がりがあります。2025年には全米の家庭用電気料金が前年比13%上昇し、エネルギー省はデータセンター電力需要が2028年までに2〜3倍に増加すると推計しています。一部の地域ではデータセンター建設計画が住民の反対で頓挫する事例も出ていました。

各社は緊急時にバックアップ電源を地域の送電網に提供することも約束しました。厳冬や猛暑による電力需要のピーク時にデータセンターの使用量を抑制し、停電リスクを軽減する措置です。テキサス州では昨年、緊急時にデータセンター電力使用を制限できる法律が成立しています。

xAIの親会社SpaceXのショットウェル社長は、1.2ギガワットの発電所をスーパーコンピューターの主電源として開発すると表明しました。ただし同社はテネシー州とミシシッピ州で無許可のガスタービンによる大気汚染をめぐり、NAACPから2度の訴訟警告を受けています。誓約は法的拘束力を持たず、各社が電力会社や州政府と自主的に交渉する必要があります。

NXPがロボットAIのエッジ実装手法を公開

データ収集の要点

カメラ固定とコントラスト確保
グリッパーカメラの併用推奨
作業空間を分割し多様なエピソード収録
失敗リカバリ動作を20%含める

エッジ最適化と成果

VLAモデルをブロック分割し個別最適化
量子化でレイテンシ2.86秒→0.32秒
非同期推論で連続動作を実現
i.MX 95で精度96%を達成

NXPは2026年3月5日、組み込みプラットフォーム上でロボットAIを動作させるための実践ガイドをHugging Faceと共同で公開しました。データ収録からVLAモデルの微調整、オンデバイス最適化までの一連の手法を体系的に示しています。

Vision-Language-Action(VLA)モデルは、視覚と言語の理解に基づきロボットの動作を生成する次世代技術です。しかし組み込み環境では計算資源やメモリ、消費電力の制約があり、リアルタイム制御との両立が大きな課題となっています。

データ収集ではカメラの固定設置、照明の統一、対象物とのコントラスト確保が重要とされています。特にグリッパーに装着したカメラが精密操作の成功率を大幅に向上させることが確認されました。作業空間を11クラスタに分割し、各クラスタで多様な開始位置を記録する手法が推奨されています。

最適化ではVLAモデルをビジョンエンコーダ、LLMバックボーン、アクションエキスパートの3ブロックに分解し、それぞれ独立に量子化を適用しました。ビジョンとLLM部分は4〜8ビット量子化が可能な一方、ノイズ除去を繰り返すアクション部分は高精度を維持する必要があります。

NXP i.MX 95プロセッサ上でACTポリシーを実行した結果、最適化モデルで推論レイテンシ0.32秒、テストセット精度100%、全体精度89〜96%を達成しました。非同期推論により動作中に次の指令を並行生成でき、滑らかなロボット制御を実現しています。今後はシミュレーション環境や強化学習を活用し、より複雑なタスクへの展開を目指します。

洋上風力と海中DCを融合、Aikidoがノルウェー沖で実証へ

海中DC計画の概要

ノルウェー沖で100kW実証機を今年沈設
2028年に英国で10MW級へ拡大
浮体式洋上風力の水中ポッドに格納

陸上DCの課題を解決

電源直結で送電ロス解消
冷たい海水で冷却コストを大幅削減
NIMBY問題を根本回避
宇宙DC構想より現実的な選択肢

海洋環境の技術課題

海水腐食への耐性確保が必須
波浪による揺動への固定対策が必要

洋上風力開発企業のAikidoは、ノルウェー沖の浮体式風力タービンの水中ポッドに100キロワット規模のデータセンターを沈設する実証実験を今年中に実施すると発表しました。AI向けデータセンター電力不足が深刻化する中、海上での新たな解決策を提示しています。

実証が成功すれば、2028年には英国に15〜18メガワットの風力タービンと10〜12メガワットのデータセンターを組み合わせた大型版の展開を計画しています。洋上風力は陸上より風が安定しており、小型蓄電池で無風時も補えるとされます。

海中データセンターの最大の利点は、電源との近接性です。風力タービンが真上にあるため送電損失がほぼなく、冷たい海水による自然冷却も可能です。宇宙空間では真空中の放熱が難題ですが、海中ではこの問題を回避できます。

住民の反対運動、いわゆるNIMBY問題も洋上なら解消されます。陸上データセンターは騒音や環境汚染への懸念から地域住民の反発を招きがちですが、沖合であればそうした摩擦は生じません。

一方で海洋環境特有の課題もあります。海水の腐食性に対し、筐体や電力・通信接続部の防食処理が不可欠です。マイクロソフトは2018年にスコットランド沖で同様の実験を行い、850台超のサーバーのうち故障はわずか6台と好成績でしたが、2024年までにプロジェクトを終了しています。

MIT、数百変数の最適化を最大100倍高速化する基盤モデル手法を開発

手法の核心

表形式基盤モデルを代理モデルに活用
重要変数を自動特定し探索を集中
再学習不要で異なる問題に即適用
従来比10〜100倍の高速化を実証

応用と展望

電力系統や衝突安全設計で検証
高次元ほど性能優位が拡大
創薬・材料開発への応用を視野
将来は数百万変数規模を目指す

MITの研究チームは、数百の設計変数を持つ複雑なエンジニアリング問題を従来手法の10〜100倍の速度で解く新たな最適化手法を開発しました。国際学習表現会議(ICLR)で発表される本研究は、古典的なベイズ最適化基盤モデルを組み合わせた点が革新的です。

本手法の中核は「表形式基盤モデル」と呼ばれる生成AIです。大規模言語モデルがテキストを扱うように、この基盤モデルは膨大な表形式データで事前学習されており、スプレッドシート版ChatGPTとも形容されます。エンジニアリング分野ではテキストより表形式データが一般的であり、実務との親和性が高い点が特徴です。

従来のベイズ最適化では反復ごとに代理モデルの再学習が必要で、変数が増えると計算コストが急増していました。新手法では事前学習済みの基盤モデルをそのまま使用するため再学習が不要であり、異なる問題にも一つのアルゴリズムで対応できます。設計空間のうち結果に最も影響する変数を自動的に特定し、探索を集中させる工夫も施されています。

60件のベンチマーク問題で5つの最先端手法と比較した結果、電力系統設計や自動車の衝突試験シミュレーションなど現実的な課題で一貫して最良の解を高速に発見しました。問題の次元数が増えるほど優位性が拡大する傾向も確認されています。ただしロボット経路計画など一部の課題では既存手法を上回れず、訓練データの網羅性が課題として残ります。

研究チームは今後、表形式基盤モデルの性能向上手法を研究するとともに、数千から数百万変数を持つ艦船設計などへの適用を目指しています。基盤モデルを言語や画像認識だけでなく科学・工学ツール内部のアルゴリズムエンジンとして活用する潮流を示す成果として、創薬や材料開発など高コスト評価を伴う分野への波及が期待されます。

米テック大手7社、データセンター自前発電を公約へ

自前発電の公約

7社がホワイトハウスで署名予定
トランプ大統領が一般教書で計画称賛
拘束力なしの誓約と業界側が示唆
送電網に頼らず自社発電を約束

電気料金への影響

全米の住宅用電気料金が前年比6%上昇
NJ州16%・PA州19%の大幅値上げ
米DC電力需要が2035年までに3倍超の見通し
ガスタービン供給不足が課題に

AmazonGoogleMetaMicrosoftxAIOracleOpenAIの米テック大手7社は、ホワイトハウスで開催されるイベントにおいて、データセンター向け電力を送電網に頼らず自社で発電する誓約に署名する予定です。

トランプ大統領は先週の一般教書演説でこの計画を称賛し、「AIデータセンター電力需要によって誰の電気料金も上がらない」と約束しました。しかし業界幹部らは、この誓約に拘束力はないと示唆しています。

専門家データセンター電力需要増加から消費者を完全に守ることは事実上不可能と警告しています。ハーバード大学ロースクールのアリ・ペスコー氏は、接続方式に関わらず需要増加は避けられないと指摘しました。

実際に米国の住宅用電気料金は2月に前年比6%上昇しており、データセンターが集中するニュージャージー州では16%、ペンシルベニア州では19%の値上げが報告されています。老朽化したインフラ更新やイラン情勢も価格上昇要因です。

BloombergNEFのデータによると、米国データセンター電力需要は2024年の約35GWから2035年には106GWへと3倍超に拡大する見通しです。自前発電の主力となるガスタービンは供給不足で、継続的な電力供給にも課題が残ります。

米大手テック7社がホワイトハウスで電気料金保護誓約に署名

誓約の概要

7社が非拘束的誓約に署名
データセンター費用の消費者転嫁防止が目的
自社発電所建設やエネルギー投資を約束
Google22GWの新規電力供給実績を強調

実効性への疑問

専門家が「政治的パフォーマンス」と批判
法的拘束力なく履行追跡が困難
電力規制当局と議会のみが実質的対策可能
ジョージア州では電力会社の反対で法案頓挫

業界と政策の動向

複数州でモラトリアム法案が提出
上院で超党派の消費者保護法案も審議中

トランプ大統領は2026年3月、ホワイトハウスでMicrosoftMetaOpenAIxAIGoogleOracleAmazonの代表者を集め、データセンター電力コストを消費者に転嫁しないとする「電気料金保護誓約」への署名式を開催しました。

この誓約は法的拘束力を持たない自主的なもので、各社が自社の電力需要を自前で賄い、送電網の強化やクリーンエネルギーへの投資を進めることを約束しています。Googleはブログで原子力や地熱エネルギーへの投資電力会社との費用負担枠組みなど具体策を公表しました。

しかしハーバード大学のアリ・ペスコー氏は「これは演劇だ」と指摘します。電力料金は公益事業規制当局が管理しており、ホワイトハウスや個別企業が消費者の電気料金を実質的に変える手段は限られているためです。電力会社のビジネスモデルはコストを全利用者に社会化する構造になっています。

データセンター問題は有権者の関心事として急浮上しています。世論調査では自宅近くへの建設を支持する有権者は30%未満にとどまり、複数の州で建設モラトリアム法案が提出されています。ジョージア州では消費者へのコスト転嫁を禁じる法案が電力大手ジョージアパワーの反対で頓挫する事態も起きました。

連邦レベルでは上院で超党派の消費者保護法案が提出されていますが、中間選挙の年には成立が困難との見方もあります。専門家は、誓約の最大の意義は問題の存在を認めたこと自体にあると評価しつつ、実効性ある対策には立法措置が不可欠だと強調しています。

Microsoft、量子コンピュータでAI化学シミュレーションを革新へ

量子×AIの融合戦略

量子計算で高精度な電子挙動データを生成
AIが古典計算機上で高速予測を実行
ヤコブの梯子」の精度壁を突破する構想

実証済みの材料探索成果

PNNLと3200万種の電池材料を評価
従来20年の探索を1週間未満に短縮
リチウム70%削減の固体電解質を試作

今後の課題と展望

実用化には100万物理量子ビットが必要
高忠実度量子計算機は10年以内に実現可能性

Microsoftは、量子コンピュータで生成した高精度な電子挙動データをAIの学習に活用し、化学シミュレーションの精度と速度を飛躍的に向上させるハイブリッド手法を提案しました。従来の古典計算では近似に頼らざるを得なかった電子相関の問題を根本的に解決する狙いです。

この構想は物理学者パーデュー氏が提唱した計算複雑性の階層「ヤコブの梯子」を拡張したものです。梯子の下段は高速だが低精度、上段は高精度だが計算コストが膨大という従来の制約を、量子計算で上段の精度を現実的なコストで実現し、AIで高速化するという二段階で克服します。

実績として、Microsoft太平洋北西国立研究所(PNNL)と共同で3200万種以上の電池材料候補をAIで評価しました。従来手法では約20年かかる探索を1週間未満で完了し、最終的にナトリウムを使用しリチウムを70%削減した固体電解質のプロトタイプ電池を製作・試験しています。

将来的には、量子精度のAIモデルが触媒設計創薬、大気中の炭素固定、永久化学物質の除去など幅広い分野で活用される見通しです。反応経路のエネルギー障壁を正確に計算することで、有望な候補物質を初回で正しく特定する「ファーストタイムライト」の実現が期待されます。

ただし実用化には約100万個の物理量子ビットと1000兆分の1という極めて低いエラー率が必要です。DARPAの見通しでは高忠実度量子計算機は10年以内に実現可能とされており、化学者・量子計算・AI研究者の分野横断的な協力が不可欠だとMicrosoftは強調しています。

Nvidia、フォトニクス企業2社に総額40億ドル投資

大型投資の概要

Lumentumに20億ドル投資
Coherentにも20億ドル投資
光トランシーバーや回路スイッチが対象
複数年の非独占的パートナーシップ契約

狙いと業界動向

AIデータセンターの帯域幅不足に対応
光ファイバーは銅線より低遅延・省電力
DARPAもフォトニクス研究を公募開始
AMDも昨年Enosemi買収済み

Nvidiaは2026年3月2日、フォトニクス技術を開発するLumentumCoherentの2社にそれぞれ20億ドル、合計40億ドルを投資すると発表しました。AIデータセンターの高速データ通信を支える光学技術の確保が目的です。

両社との契約は複数年にわたる非独占的なもので、先進レーザー部品の大規模購入契約と将来の生産能力へのアクセス権が含まれます。研究開発や製造拡大の支援も盛り込まれており、Nvidiaの長期的な光学戦略が明確になりました。

背景には、AnthropicClaude CoworkMicrosoftCopilot Tasksなどエージェント型AIの普及があります。複数タスクの同時実行に必要な帯域幅が急増しており、銅線ケーブルでは対応が困難になりつつあります。

光ファイバーは銅線と比べて大幅に高い帯域幅と低遅延を実現でき、消費電力も少ないという利点があります。Nvidiaは2020年に買収したMellanoxネットワーク技術でNVLinkを強化した実績があり、今回の投資はその延長線上にあります。

フォトニクスへの注目はNvidiaに限りません。DARPAは先月、AI向けフォトニックコンピューティングの研究提案を公募しました。競合のAMDも2025年にシリコンフォトニクス企業Enosemiを買収しており、業界全体で光学技術への投資が加速しています。

北欧が欧州AI データセンターの最前線に急浮上

北極圏に集まるAI基盤

北欧で50超のDC建設が進行中
OpenAIがノルウェー北極圏に10万GPU配備
Microsoftも同地域に追随して進出

電力と立地の優位性

欧州で最も電力確保が容易な地域
水力・風力の再エネが豊富で低価格
冷涼気候で冷却コストを大幅削減

地域経済への波及効果

DC用地の地価が森林地の4〜9倍に高騰
鉱業・製紙業衰退地域の経済再生に期待

北欧諸国(ノルウェー、スウェーデン、フィンランド、デンマーク、アイスランド)で、AI向けデータセンターの建設ラッシュが起きています。現在50以上の施設が建設中または計画段階にあり、欧州で最も急速にデータセンター容量が拡大している地域です。

この動きを牽引するのは大手AI企業の進出です。OpenAIはノルウェーの北極圏の小さなフィヨルド町に10万基のGPUを配備すると発表し、Microsoftも同地域に続きました。仏AI企業Mistralはスウェーデンのボーレンゲで14億ドル相当のインフラをリースすると表明しています。

北欧が選ばれる最大の理由は電力供給の豊富さです。欧州の主要都市圏では電力不足がデータセンター拡大の最大の制約要因となっていますが、北欧には豊富な水力・風力発電があり、価格も欧州最安水準です。冷涼な気候もハードウェア冷却の電力消費を抑え、EU排出規制への対応にも有利に働きます。

AIワークロード専門の「ネオクラウド」と呼ばれる新型クラウド事業者の台頭も背景にあります。AI処理はリアルタイム取引ほど遅延に敏感ではないため、都市部から離れた北極圏近くにも立地が可能です。北欧のDC容量拡大の大半をこのネオクラウドが占めているとCBREは分析しています。

データセンター誘致は地域経済にも大きな影響を与えています。DC用地に転用予定の森林地は通常の4〜9倍の価格に高騰しており、鉱業や製紙業が衰退した農村部の自治体は投資を熱望しています。一方で、一部の事業者が将来需要を見越して用地を確保するだけで開発に着手しないケースも指摘されています。

NVIDIA、MWC前に自律ネットワークとAI-RANの商用化を加速

自律ネットワーク向けAI基盤

Nemotronベースの通信特化LTMを公開
AdaptKey AIと共同で300億パラメータモデル開発
Tech Mahindraと推論ガイドをオープンソース化
RANエネルギー効率のBlueprintを新発表

AI-RANの実環境展開

T-MobileがNokiaと商用環境で実証成功
SoftBankが16層MIMOの業界初達成
IOHが東南アジア初のAI搭載5G通話実現
SynaXGがFR2帯域で世界初のAI-RAN実装

6Gへの布石とエコシステム拡大

AI-RANアライアンスのデモ数が3倍に増加
OCUDU財団に参画しオープンソースRAN推進
77%がAIネイティブ6Gの早期展開を予測

NVIDIAMWC Barcelonaに先立ち、通信事業者向けの自律ネットワーク技術とAI-RAN商用化に関する大規模な発表を行いました。自律ネットワーク分野では、Nemotron 3ベースの300億パラメータ通信特化大規模モデル(LTM)をオープンソースで公開しています。

このLTMはAdaptKey AIが業界標準データや合成ログを用いてファインチューニングしたもので、障害の切り分けや修復計画の策定、変更検証といった通信業務の推論が可能です。オンプレミスでの安全な展開にも対応し、事業者が自社データで拡張できる設計となっています。

さらにNVIDIATech Mahindraと共同で、ネットワークエンジニアのように推論するAIエージェント構築ガイドを公開しました。VIAVIと連携したRANエネルギー効率化のBlueprintや、Cassava Technologies、NTT DATAによるネットワーク構成Blueprintの商用採用も発表されています。

AI-RAN分野では商用展開が急速に進んでいます。T-MobileはNokiaのCUDA対応RANソフトウェアで商用環境実証に成功し、SoftBankのAITRASは業界初の16層MIMOを達成しました。SynaXGは単一GH200サーバー上で36Gbpsのスループットと10ミリ秒以下のレイテンシを実現しています。

MWC 2026ではAI-RANアライアンスのデモが前年比3倍の33件に拡大し、うち26件がNVIDIA Aerialベースです。NVIDIAはLinux Foundation傘下のOCUDU財団にも参画し、オープンソースRAN開発を通じて次世代無線ネットワークの研究と商用化を加速させる方針です。

a16zがAI向けエネルギー企業に投資

投資の戦略的意義

Heron PowerがAIデータセンター電力を供給
AIエネルギー問題への投資的回答

a16zはHeron Powerへの投資を発表しました。AIデータセンターの急増による電力需要増大に対応するエネルギー企業への投資で、AIエコシステム全体への垂直統合投資戦略です。

AIインフラ電力問題はテクノロジー業界の最重要課題の一つであり、a16zがこの分野への投資を強化していることはエネルギー×AI市場の成長ポテンシャルを示しています。

xAIがメンフィス騒音問題を解決できず

問題の経緯

xAIメンフィスデータセンター周辺の騒音問題が発覚
700万ドルの防音壁建設も効果は僅少
地域住民への環境影響が依然続く

Ars Technicaによれば、xAIデータセンター電力を供給する発電所の騒音問題に対処するため建設した700万ドルの防音壁が、実際にはほとんど騒音を軽減しないことが明らかになりました。

AIインフラの急速な拡大が地域住民への環境負荷をもたらしているという問題の一例で、テクノロジー企業の社会的責任への問いかけとなっています。

OpenAIが連邦許認可AIを研究所と開発

連携の内容

連邦許認可の行政プロセスをAIで効率化
エネルギーインフラ許認可の迅速化
政府×民間AIの公益利用モデル

OpenAIと太平洋北西国立研究所(PNNL)は連邦許認可プロセスの迅速化にAIを活用する提携を発表しました。エネルギーインフラなどの複雑な行政許可プロセスをAIで効率化します。

これはAIの政府・公共分野での実用的活用事例として注目されます。インフラ開発のスピードアップという社会的インパクトが期待されます。

白宮がAI企業に電力コスト自己負担を要求

政策の内容

AI企業の電力増加分を自社負担させる方針
消費者の電気料金上昇を防ぐ狙い
トランプが「来週に合意発表」と示唆

業界への影響

データセンター電力コスト構造が変化
再生可能エネルギー投資のインセンティブ強化
AI企業のコスト増が投資判断に影響

AIデータセンターの急増により全国平均電気料金が過去1年で6%以上上昇したことを背景に、ホワイトハウスはAI企業が自社のエネルギー使用によるコスト増を負担するよう求める政策を打ち出しています。

この政策に対してほとんどの大手AI企業は既に同意の意向を示していると報じられています。Trumpは「来週にAI企業との合意を発表する」と示唆しており、再生可能エネルギー開発との連動も検討されています。

全米でAIデータセンター反対運動が拡大

反発の広がり

全米各地でデータセンター反対運動が拡大
州議会の立法議題を変え始めている
電力・水消費への懸念が根本原因

AI業界への影響

用地取得コストと時間が増大
許認可プロセスの長期化リスク
地域共存型の開発戦略が急務に

AIブームに伴うデータセンターの急増に対して、全米各地で市民の反発が高まっています。電力消費の急増による電気料金の上昇、大量の水の使用による地域の水資源への影響などが主な懸念事項です。

この反発が州議会の立法にまで影響を与え始めており、一部の州ではデータセンター建設に新たな規制を設けることが議論されています。AI企業は地域コミュニティとの対話と共存策を真剣に検討する必要があります。

GoogleがMN・TXにデータセンター新設

新施設の概要

ミネソタ州Pine Islandに新データセンター
テキサス州Wilbarger郡にも同時展開
クリーンエネルギー確保を条件に立地選定

戦略的意義

AI需要増大への計算能力拡充
再生可能エネルギー調達の確約
地域雇用創出への貢献も期待

Googleはミネソタ州Pine Islandとテキサス州Wilbarger郡の二か所に新たなデータセンターを建設すると発表しました。どちらの立地もクリーンエネルギーの安定調達が可能な地域として選定されています。

AI処理需要の爆発的な増大に対応するため、大手テック企業によるデータセンター建設が全米で加速しています。Google2030年までのCO2排出量実質ゼロという目標の達成に向け、新施設でも再生可能エネルギーを優先します。

Altmanが人間のエネルギーで電力批判をかわす

Altmanの反論ロジック

人間も多くのエネルギーを消費する」とAI批判を相対化
インドでのThe Indian Express主催イベントで発言
AI電力消費の絶対量より相対的な価値創出を強調
AIが生む経済的価値が環境コストを正当化すると主張
AI電力問題への防衛的スタンスが批判を集める

AI電力問題の現実的スコープ

AIデータセンター電力消費が急増し続けている現実
2028年に米国全世帯の22%相当電力をAIが消費の見込み
再生可能エネルギーへの転換が業界の共通課題
人間との比較はミスリーディングと環境専門家が反論
Sam Altman公人としての発言責任が問われる

Sam Altmanインドを訪問中にThe Indian Express主催のイベントで、AIのエネルギー消費に関する批判に対し「人間も多くのエネルギーを消費する」という比較論で反論しました。この発言はTechCrunchに「防衛的」と評され、一般にも批判を集めています。

Altmanの論理は、AIが生み出す経済的・社会的価値を考えれば電力コストは正当化されるというものです。この考え方は一定の合理性を持ちますが、問題はAIの電力消費が絶対量として急増しており、既存の電力グリッドや気候目標に与える影響が無視できないことです。

データは厳しい現実を示しています。AIデータセンター電力需要は2028年までに米国全世帯の22%に相当するエネルギーを消費すると予測されており、このトレンドが続けば気候変動対策との矛盾は避けられません。「人間と比べてどうか」という議論は、この絶対的な増加量を免責しません。

OpenAIをはじめとするAIラボは再生可能エネルギーへの移行を掲げていますが、実際の調達ペースは需要の急増に追いついていません。Altmanが自社のエネルギー戦略の具体的な計画を示さずに批判をかわそうとすることは、透明性と説明責任の観点から問題があります。

AI業界の持続可能性は長期的な社会的ライセンスに関わる問題です。AIが気候変動の解決策を提供できる一方で、その開発自体が気候への大きな負荷になっているというパラドックスを、業界リーダーは誠実に向き合う必要があります。

MSが超伝導体75億円投資でAI電力問題に挑む

超伝導体でデータセンター電力問題を解決

高温超伝導体(HTS)で電力伝送効率を飛躍的に改善
AIデータセンター電力密度が従来インフラの限界を超える
Microsoftが7,500万ドルを超伝導電力技術投資
電力ロスを大幅削減しGW規模データセンターを可能に
電力供給GPU性能と並ぶAI競争の主戦場に

AIインフラ投資の新次元

データセンター電力問題が半導体並みの戦略課題に浮上
超伝導体はデータセンター配電インフラの根本的変革を目指す
HTS技術は既存の電力グリッドとの統合が最大の課題
MicrosoftGoogleAmazon物理インフラ競争を激化
核融合・SMRに続く電力革新の第三の道

IEEE Spectrumの分析によると、AIデータセンターの急速な拡大により世界の電力インフラは限界を迎えつつあります。Microsoftは7,500万ドルを高温超伝導体(HTS)技術に投資することで、この電力伝送のボトルネックを根本から解決しようとしています。

超伝導体とは電気抵抗がゼロになる特殊な材料で、これを電力伝送に使用することで熱損失なくGW級の電力を運ぶことが可能になります。従来の銅線インフラでは達成できない電力密度でのデータセンター配電が実現します。AIの電力需要が爆発的に増加する中、これは電力インフラ革命の核心技術です。

技術的課題は材料と冷却システムです。高温超伝導体といっても液体窒素温度(-196℃)程度の冷却が必要で、大規模インフラへの実装には技術的ハードルが残ります。しかし、Microsoft投資規模はこれが「研究フェーズ」を超えた実用化への本気のコミットメントであることを示しています。

AIインフラ競争が計算能力から電力へとシフトしています。NvidiaGPU性能は向上し続けますが、電力供給がそれに追いつかなければ意味がありません。MicrosoftがHTSに賭けることは、電力インフラをコアコンピタンスとして内製化する戦略的意思決定です。

より広い視点では、AIデータセンター電力問題は社会インフラ全体の問題です。核融合、小型モジュール炉(SMR)、超伝導体など、複数の技術アプローチが同時進行しており、どれが最初に実用規模に達するかがクラウドプロバイダーの長期競争優位を左右する可能性があります。

Big TechのAI環境主張に根拠なしと批判

AIの環境負荷と企業主張のギャップ

Big Techの環境訴求に疑問符
主張を裏付けるデータなし
電力消費拡大の現実

大手テック企業が生成AIによって地球環境が改善すると主張しているにもかかわらず、その根拠となる具体的なデータや証拠が示されていないと専門家が指摘しています。

AIデータセンター電力消費は増大し続けており、企業の環境改善主張との乖離が問題視されています。グリーンウォッシングへの批判が高まる中、企業は透明性の高いレポートが求められています。

英国の町がAIデータセンター計画で揺れる

AI開発の地政学的影響

英国の農村データセンター計画
地域コミュニティの分断と摩擦
電力・土地をめぐる競合

Wiredの長編ルポが、英国の小さな町がグローバルなAI軍拡競争に巻き込まれる様子を描きました。大手テック企業によるデータセンター計画が地域の電力網、土地利用、コミュニティの在り方を根本から変えています。

AIインフラの急拡大は電力消費と土地の競合を生み、地域住民と開発業者の間で摩擦が生じています。この問題は英国だけでなく、世界中のデータセンター候補地で共通して起きています。

JointFMが多変量時系列のゼロショット予測でリアルタイム投資判断を実現

モデルの革新性

多変量時系列ゼロショット予測の基盤モデル
従来の数値シミュレーション比でミリ秒処理
ポートフォリオ最適化をリアルタイム化
JointFMが業界初の試みと主張

金融AIへの示唆

量的ファンドの意思決定速度を革新
モンテカルロシミュレーションの代替手段
コヒーレントシナリオ生成で精度向上
リスク管理への応用展開が期待

JointFMは多変量時系列システムのゼロショット同時分布予測を行うAI基盤モデルとして発表されました。従来の数値シミュレーションが数分かかる計算をミリ秒単位で実行し、リアルタイムでのポートフォリオ意思決定を可能にします。

JointFMの核心は、複数の資産間の相関関係を維持しながら将来シナリオを同時に生成できる点です。従来の確率的モデルでは各変数を独立に予測するため、相関の崩壊という問題がありましたが、JointFMはこれを克服します。

量的ファンドやアルゴリズムトレーディング分野では、高速かつ整合性のある市場シミュレーションが競争優位の源泉です。JointFMのリアルタイム性能は従来のモンテカルロ法に代わる手法として注目されます。

ゼロショット能力は学習に使われていない新しい市場や資産クラスにも適用できることを意味しており、新興市場や新規資産クラス暗号資産等)への展開可能性を高めています。

金融以外にも、エネルギー需要予測や物流最適化など、複数変量の同時予測が求められる産業領域への応用可能性も示唆されており、基盤モデルとしての汎用性が評価されます。

インドAIインフラに巨額投資、Neysa12億ドル調達とC2i電力革新

Neysa巨額調達

Blackstoneが最大1.2B USDを出資
TVS Capital等も共同出資者として参加
インド国内のGPUクラスター拡充に活用
国内AI基盤の自立強化が目標

C2i電力ソリューション

Peak XV(旧Sequoia India)が投資
データセンター電力損失を削減する技術
AIインフラ電力が主要ボトルネック
プラグアンドプレイ型電力変換システム

インドAIインフラスタートアップNeysa」が米プライベートエクイティ大手Blackstoneから最大12億ドルの出資を確保しました。Teachers' Venture GrowthやTVS Capitalも共同出資者として加わり、インド国内のGPUコンピュート基盤拡充に投資されます。

同時に、インドスタートアップC2i SemiconductorsがPeak XV Partners(旧Sequoia India)の支援を受けました。C2iはAIデータセンターの消費電力効率を劇的に改善するプラグアンドプレイ型電力管理システムを開発しています。

AIデータセンターにとって電力は今や計算資源以上の制約要因となっており、大規模施設での電力損失は重大な経済問題です。C2iは変換効率の向上でこのボトルネックに対処します。

投資インドが自国AIインフラの「自給自足」を目指す国家戦略と軌を一にしています。外国クラウドへの依存を減らし、データ主権を確保したい政府の意向とも合致しています。

インドのAIコンピュートへの民間投資はこの数ヶ月で急増しており、アジアの主要AI拠点としてのインドの地位が急速に確立されつつあります。

Microsoft、超伝導体でDC電力革新に挑む

技術の概要

高温超伝導体をDCに適用
送電損失の大幅削減を目指す
エネルギー効率の飛躍的改善

AI時代の電力課題

AI需要で電力消費が急増
データセンターの効率化が急務
次世代インフラ技術として期待

Microsoftデータセンター電力インフラに高温超伝導体(HTS)を適用する研究を進めています。送電損失を削減し、エネルギー効率を飛躍的に改善する狙いです。

AIやデータ集約型コンピューティングの需要増大に伴い、効率的で信頼性の高い電力供給がますます重要になっています。HTSはこの課題への有望な解決策です。

超伝導体は電気抵抗がゼロのため、従来の銅線に比べて送電時エネルギー損失が極めて少なく、大規模施設での効果が期待されます。

データセンター消費電力は世界的に急増しており、電力インフラの革新なしには持続的なAI成長は困難とされています。

Microsoftのこの取り組みは、ソフトウェア企業がハードウェアインフラの根本的な課題にまで踏み込む時代を象徴しています。

Siemens CEOがAIで「すべてを自動化」するビジョンを語る

AIと産業オートメーション

Roland BuschがAIファクトリー戦略を詳述
デジタルツインとAIで工場の自動化を加速
ソフトウェア収益がハードウェア収益に並ぶ転換
AIが製造・建物・インフラの運用を最適化
トランプ関税環境での製造業再配置への対応

グローバル経営環境への対応

NATO・貿易摩擦がSiemensの事業戦略に影響
地政学的リスクの中でのレジリエンス強化
エネルギー効率改善がAI活用の優先課題
デジタルツインによるリアルタイム最適化
ドイツ工業の競争力回復にAIが鍵

Siemens CEOのRoland Buschは、Verge Decoderポッドキャストで自社の戦略と産業AIの将来について包括的な見解を示しました。Siemensは自動車から建物管理システム、工場制御まで幅広いハードウェアとソフトウェアを提供する産業界の巨人です。

Buschが「すべてを自動化するミッション」と語るように、AIとデジタルツインの組み合わせが同社の成長戦略の核心です。工場のリアルタイム最適化から建物のエネルギー管理まで、AIが運用効率を根本から変えるビジョンを持っています。

Siemensにとって重要な転換点は、ソフトウェア・サービス収益がハードウェア収益に並びつつあることです。これは産業企業がデジタル・AI企業へと変容する象徴的な事例です。

トランプ政権下の関税政策や地政学的緊張といった外部環境の変化にも触れ、Buschは欧米での製造回帰・地産地消型のサプライチェーン構築においてもAIとデジタルツインが重要な役割を果たすと語っています。

NATO欧州安全保障環境の変化についても率直に語っており、産業インフラの強靭化とデジタル化が不可分の課題であると強調しました。

ニューヨーク州、AI生成コンテンツへの表示義務と規制強化へ

NY FAIR News Actの内容

AI生成ニュースへの免責表示義務化を提案
公開前に人間の編集者によるレビューを必須化
AI利用状況のニュースルーム従業員への開示を義務付け
情報源などの機密情報をAIから保護する措置
データセンター建設3年間モラトリアムと同時提出

政策的背景と影響

ニューヨーク州が全国的なAI規制の先陣を切る
電力需要急増によるCon Edison9%料金引き上げが背景
既存130超のデータセンターが州内に存在
超党派の懸念が立法を後押し
他州でも同様の規制検討が相次ぐ

ニューヨーク州議会は、AI業界を規制する2本の法案を検討しています。「NY FAIR News Act」は、生成AIで作成されたニュースコンテンツへの免責表示と、人間の編集者による事前確認を義務付けるものです。

同法案はさらに、報道機関がAIをどのように使用しているかをニュースルームの従業員に開示することを求め、AIへの情報源などの機密データへのアクセスを防ぐセーフガードの導入も規定しています。

2本目の法案S9144は、新規データセンターの建設許可を少なくとも3年間停止するモラトリアムです。背景には、National Grid New Yorkへの大口電力接続申請が1年で3倍に増加し、住民の電力料金が急騰しているという現実があります。

Con Edisonの顧客は3年間で9%の電力料金引き上げが既に承認されており、議員たちはさらなる上昇への歯止めを求めています。データセンター反対運動は今や超党派的な政治課題となっています。

これらの法案はニューヨーク州での可決の可否を問わず、AIとデータインフラの急速な拡大に対する民主主義的な反応として注目されており、他州・他国への波及が予想されます。

ニューヨーク州、データセンター建設に3年間モラトリアム提案

法案の概要と背景

ニューヨーク州議員がデータセンター新設に3年間の一時停止提案
全米6州目の建設モラトリアム検討
電力・ガス料金の急騰が立法の主因
Con Edison顧客は3年で9%の料金引き上げ承認済み
130以上の既存データセンターが州内に存在

政治的背景と影響

Sanders上院議員が全国的なモラトリアムを要求
DeSantis知事も高エネルギー費用リスクを懸念
230以上の環境団体が連邦議会に書簡を送付
National Gridの大口電力需要申請が1年で3倍に増加
Energize NYプログラムとの政策整合が課題

ニューヨーク州議会に、少なくとも3年間の新規データセンター建設許可を停止する法案が提出されました。民主党のLiz Krueger上院議員とAnna Kelles議会議員が共同で提案したこの法案は、急増するAIインフラ需要に対する住民の懸念を反映しています。

背景には、データセンター電力消費急増による電力料金の高騰があります。National Grid New Yorkによれば、大口電力接続申請はわずか1年で3倍に増加し、今後5年間で10ギガワットの需要追加が見込まれています。

同様の建設停止措置は、すでにジョージア州、バーモント州、バージニア州(民主党主導)やメリーランド州、オクラホマ州(共和党主導)でも検討されており、超党派的な懸念となっています。

一方、Kathy Hochul知事は「Energize NY Development」プログラムを通じて、データセンターに公正な電力コスト負担を求める別の取り組みを進めており、法案との政策的整合が注目されます。

AIへの投資が拡大する中、データセンター環境・社会コストをめぐる議論は今後も各州に広がると予想されます。

ミラノ冬季五輪でAIとFPVドローンが放送を変革

新技術の全体像

Olympic GPTがリアルタイム競技情報を提供
FPVドローンが競技コースをダイナミックに撮影
Alibaba協力の360度リアルタイムリプレイ初導入
カーリングストーンの軌道・速度・回転をリアルタイム可視化
クラウド仮想OBバンでエネルギー消費50%削減

AIが変えるコンテンツ体験

AI自動記事要約でモバイル閲覧性を向上
放送映像のAI自動検索クリップ化システム
Olympics.comのリアルタイムトラフィック分析にAI活用
クラウドマスターコントロールルームが全映像を一元管理
プロダクション全体のデジタル化でスペース75%削減

2026年ミラノ・コルティナ冬季オリンピックでは、AIとデジタル技術が放送・観戦体験を根本から変えています。Olympic Broadcasting Servicesは過去最多の新技術を投入しており、FPVドローンによる臨場感あふれる競技映像は特に注目を集めています。

最大のハイライトはAIチャットボットOlympic GPT」です。競技規則や選手情報のほか、進行中の試合結果にもリアルタイムで応答でき、sports techの新たなマイルストーンとなっています。

Alibaba社との協力で実現した360度リアルタイムリプレイは、多カメラシステムとストロボスコープ解析を組み合わせ、選手の技を多角度で瞬時に確認できる機能を提供します。

映像制作のクラウド化も大きな特徴です。仮想OBバンの採用によりエネルギー消費が50%減少し、サダル・ラリーでのテストではスペースを75%削減しながらエネルギーも65%節約することに成功しました。

AI自動記述プラットフォームは膨大な生中継映像を自動的に検索可能なクリップへ分解し、ハイライト制作を迅速化しています。スポーツ放送におけるAIの実践応用として世界的な注目を集めています。

OpenAIがAIの恩恵を世界の恵まれないコミュニティに届ける計画を発表

プログラムの概要

デジタル格差の解消を目指す
低中所得国向け無償アクセス拡大
医療・教育分野への重点投資
NGO・政府との連携モデル
OpenAI公式ブログで発表
AI格差への社会的責任表明

社会・産業への影響

グローバルAI普及の前提整備
新市場開拓としての側面も
国際競争でのソフトパワー活用

OpenAIは2026年2月6日、世界中の恵まれないコミュニティにAIの恩恵を届けるための包括的な計画を公式ブログで発表した。

具体的な施策として、低中所得国へのChatGPT無償または低価格提供医療・教育NPOへの特別パートナーシップ、現地語での機能強化などが含まれる。

この取り組みはOpenAIの「人類全体への利益」というミッション声明に沿ったものだが、同時に将来の成長市場(アジア・アフリカ・南米)への足場固めという戦略的側面もある。

AIが高所得国だけでなく全世界規模で普及することで、教育格差・医療格差・情報格差の解消に貢献できるという可能性は実際に大きい。

ただしインフラ電力・インターネット接続などAIアクセスの前提条件が整っていない地域では依然として課題が多く、継続的な支援が必要だ。

ニューヨーク州がデータセンター新設の一時停止を検討

規制の背景

ニューヨーク州議会でデータセンター停止法案
電力消費増大への懸念が背景
環境負荷と電気料金上昇が問題
Wiredが法案内容を報告
複数州で類似規制の動き
AI普及の物理的制約が浮上

業界・企業への影響

データセンター立地戦略の見直し
再生可能エネルギー調達の加速
核融合・小型核への期待高まる

Wiredは2026年2月6日、ニューヨーク州議会が新規データセンター建設の一時停止を検討する法案を審議していると報じた。

背景にはAIワークロードによるデータセンターの急増が電力網に過大な負荷をかけていることへの懸念があり、電気料金の上昇や停電リスクが住民問題となっている。

ニューヨーク以外にもバージニア、テキサスなど主要州でデータセンター規制の動きが広がっており、AI産業の物理的拡張に対する社会的合意形成が求められている。

規制の強化はデータセンター事業者に再生可能エネルギー調達電力効率改善を迫るものであり、小型モジュール炉(SMR)や核融合など新エネルギーへの関心を高める。

企業のCIOは今後、AI利用のエネルギーコストと規制リスクを戦略に組み込み、低炭素・省電力の計算インフラへの移行を検討すべき時期に来ている。

イーロン・マスクがSpaceX軌道上データセンター構想を本格化

軌道上データセンターの計画

SpaceX軌道上データセンターを検討
Starlink衛星網との統合構想
地上電力制約の回避が目的
太陽光発電で無限電力の可能性
低遅延グローバルAIサービス
規制外の計算資源確保の野望

xAIとSpaceXの戦略統合

Grokインフラ強化に直結
競合クラウド不要の自給自足体制
地政学的リスクから独立した計算資源

TechCrunchは2026年2月5日、イーロン・マスクSpaceXを通じた軌道上データセンターの実現を本格的に検討していると報じた。

軌道上データセンターは宇宙空間に計算資源を設置するもので、地上の電力・冷却コストの制約を根本的に回避できる可能性がある。

宇宙では太陽光発電をほぼ無制限に活用でき、AIの訓練・推論に必要な大電力需要に応えられると主張されている。

マスクのxAIGrok開発元)とSpaceXの統合が進む中、自社製計算インフラを地球軌道上に確保する構想は長期的な競争優位を狙うものだ。

実現すれば地政学的リスクや地上規制から独立したグローバルAIインフラとなるが、技術・コスト・安全上の課題も多く、当面は研究段階にとどまる見通しだ。

MITがAIで治療薬の発見・設計を加速する研究を発表

研究の概要と手法

AI×定量モデリング創薬加速
操作型細胞設計に量子化手法を適用
疾病・エネルギー・気候変動に同一フレーム
AIが仮説生成の反復速度を向上
実験コストを大幅削減する可能性
MIT特集「3 Questions」形式の解説

医療・産業への展望

新薬候補の探索範囲が飛躍的拡大
バイオテック企業との連携加速
個別化医療実現への基盤技術として注目

MITは2026年2月4日、AIと定量解析を組み合わせることで治療薬の発見・設計プロセスを大幅に加速できるという研究成果を公開した。

研究チームは疾病治療、エネルギー問題、気候変動という複数の課題に対して、AIを活用した操作型細胞設計という統一的なアプローチを開発した。

AIは膨大な分子空間を探索し有望な候補物質を絞り込む役割を担い、人間の研究者は価値の高い実験に集中できる環境が生まれている。

従来は数年単位で行われていた薬剤候補の絞り込みが数週間〜数ヶ月に短縮される可能性があり、製薬企業のR&D;コスト削減に直結する。

MITの研究は基礎科学とAIの融合という点で産学連携のモデルケースとなりつつあり、日本のバイオテック企業にとっても注目すべき方向性だ。

NvidiaのCEO Jensen Huangが「あらゆるものが仮想ツインで表現される」と予言

仮想ツインのビジョン

物理世界の仮想ツイン
産業AI×世界モデル
Dassaultとの協業

技術的基盤

製造・都市設計への応用
NVIDIAの産業AI戦略

NVIDIAのCEO Jensen Huangは3DEXPERIENCE Worldにて、あらゆる物理的存在が仮想ツインとして表現されると予言し、産業AIと物理ベースの世界モデルの融合を提唱しました。

物理ベースの世界モデルは、工場・都市・製品をデジタル空間で完全に再現し、AIが現実の代わりにシミュレーション環境で学習・検証できる仕組みです。

Dassault Systèmesとの連携は、製造・建設・エネルギーなどの産業設計にNVIDIAグラフィクスとAI処理能力を統合し、デジタルツインの精度と実用性を高めます。

仮想ツインの普及は、製品設計・都市計画・医療診断など幅広い分野で、試作コストの削減と意思決定の迅速化をもたらすと期待されています。

NVIDIAGPUビジネスを超えて産業AIプラットフォームとして成長しようとする戦略の核心が、この「万物の仮想ツイン化」というビジョンに集約されています。

SpaceXがxAIを買収し世界最高額の非上場企業に、宇宙データセンターを計画

統合の概要と評価額

SpaceXxAI・Xを正式買収
評価額1.25兆ドル
宇宙ベースデータセンター計画

戦略的合理性

AI・宇宙・通信の垂直統合
Starlinkを活用した電力供給
競合他社との差別化

イーロン・マスクがCEOを務めるSpaceXが、AI企業のxAI(X含む)を正式に買収し、評価額1.25兆ドルを超える世界最高額の非上場企業が誕生しました。マスク氏は宇宙空間でのAI計算インフラ構築を合併の主な理由として挙げています。

SpaceXのロケット・衛星インターネット基盤とxAIGrok/AI能力、Xのリアルタイムデータを組み合わせることで、他社が追随できない垂直統合型のAI・宇宙エコシステムを形成する狙いがあります。

宇宙空間に太陽光発電データセンターを構築するという構想は野心的ですが、技術的・コスト的なハードルは依然として高く、実現可能性については専門家の間で懐疑的な見方もあります。

Starlink衛星コンステレーションとAIデータセンターの統合は、地上インフラに依存しない完全自律型のAI計算リソースを実現し、地政学的リスクへの耐性を高める可能性があります。

この統合はAI・宇宙・通信の境界が溶ける新時代の幕開けを象徴し、既存のクラウドプロバイダーへの脅威となる潜在性を持っています。

生成AIが複雑な材料合成を加速し科学研究の課題解決を支援

AI材料科学の現状

生成AIが理論材料を大量生成
合成プロセス条件の最適化
理論から実験への橋渡し

実用化への道筋

温度・処理時間の自動調整
エネルギー医療材料への応用
実験コストの大幅削減

生成AIモデルは、理論上可能な材料の巨大なライブラリを生成する能力を持ちますが、実際にその材料をどう作るかという合成プロセスの設計は依然として科学の難問でした。

最新の研究では、生成AIが温度・処理時間・前駆体の選択など合成条件の最適化にも活用できることが示され、実験科学者の試行錯誤を大幅に削減できる可能性があります。

この進展はエネルギー材料(太陽電池・電池)や医療材料(薬物送達・インプラント)など、社会的ニーズの高い分野での材料開発を加速します。

AIと実験科学の統合により、材料発見のサイクルが従来の数年から数ヶ月へと短縮できる可能性があり、学生産性の革命的な向上が期待されます。

研究機関や製造業にとって、AI材料科学への投資は競争力維持の観点から早急に検討すべきテーマとなっています。

個人コングロマリットの時代:一人の帝国を築くイーロン・マスク

個人コングロマリットとは

イーロン・マスク型帝国の台頭
テスラSpaceXxAI統合支配
一人の個人による多分野支配

社会的インパクト

GEなど旧型コングロマリットとの対比
民主主義への権力集中リスク
イノベーションと独占の境界線

かつて複合企業といえばGEのような巨大コーポレートを指したが、現代ではイーロン・マスク一人がテスラSpaceXxAI・X・Starlink・Neuralinkなどを束ねる「個人コングロマリット」という新形態が台頭しています。

テクノロジー・宇宙・AI・エネルギー医療インフラにまたがるマスクの影響力は、30年前のGEよりも広範囲であり、公共インフラや民主主義に新たな権力集中リスクをもたらしています。

SpaceXによるxAI買収はその象徴で、AI計算資源と宇宙インフラを一人の意思決定者が掌握する前例のない事態を生んでいます。

この現象はシリコンバレーの野心と資本効率の追求が生み出した新たな経済モデルとも言え、次のテック帝国を目指す起業家へのロールモデルともなっています。

ただし、これほどの権力集中が社会的制御の外に置かれることへの懸念も高まっており、規制当局や議会が次のアクションを検討しています。

インドが2047年まで外国AIクラウドに免税を提供し投資誘致に乗り出す

インドの税制優遇策

2047年までの法人税ゼロ
外国クラウド事業者の誘致狙い
AIデータセンター建設への補助金

課題とリスク

電力不足というインフラ障壁
水資源ストレスの環境リスク
グローバル競争での位置付け

インドの財務大臣Nirmala Sitharamanは、外国クラウド事業者がインドデータセンターからインド国外向けサービスを提供する場合、2047年まで法人税をゼロにする大胆な政策を発表しました。

この提案は、AI計算インフラをめぐるグローバル競争でインドを主要なハブとして位置づけ、ハイパースケーラーや新興AI企業を誘致する狙いがあります。

ただし、インドは深刻な電力不足と水資源ストレスという構造的課題を抱えており、データセンター拡張に向けたインフラ整備が急務です。

米国欧州・中東が激しいデータセンター誘致合戦を展開する中、インドの税制優遇は差別化要素となり得ますが、実施には電力・土地・規制の整備が前提です。

長期的視点では、AIインフラの地政学的多極化が進む中で、インドの戦略は南アジアのテクノロジー地政学を塗り替える可能性を秘めています。

SpaceXが100万個の太陽電池搭載データセンターを軌道上に打ち上げたい

構想の概要

100万個の宇宙データセンター
太陽エネルギー電力自給
地上コストを回避

技術的・経済的課題

打ち上げコスト
放散の問題
規制・宇宙ゴミ

SpaceXは100万個の太陽電池搭載の小型データセンターを地球軌道に展開するという野心的な構想を持っていることが明らかになりました。宇宙太陽電池電力を自給するモデルです。

Starlinkの経験を活かしたこの構想は技術的に挑戦的ですが、データセンター電力コスト問題と地上インフラ不足を根本から解決する可能性を持っています。

AIデータセンター需要でガスが新たな全盛期を迎える

エネルギー需要の動向

データセンターガス需要を牽引
再生可能エネルギーへの移行の遅れ
エネルギー株への注目

長期的課題

炭素排出増加
AI拡大の環境コスト
グリーン電力調達

AI需要を支えるデータセンターの急増により、天然ガスが新たな全盛期を迎えています。電力需要の急激な増加が化石燃料発電への依存を高めています。

AI企業がカーボンニュートラル目標を掲げながらも、実際の電力消費では化石燃料依存が高まっているという矛盾が深刻化しており、再生可能エネルギーへの移行が急務です。

AIインフラブームが続く中、データセンターが米国の天然ガス需要を押し上げ

エネルギー需要の現状

データセンターガス需要を牽引
AIインフラ拡大の勢い継続
電力供給不足リスク

業界への示唆

エネルギー企業の受益
グリーンエネルギーへの移行課題
AI拡大の環境コスト

AIデータセンターの急増による電力需要の高まりが米国天然ガス消費を大幅に押し上げており、AIインフラブームに陰りはない状況です。

この需要増はエネルギー業界には恩恵となりますが、炭素排出の増大と再生可能エネルギーへの移行という矛盾した課題を生み出しています。

冬の嵐がAIデータセンターの需要で逼迫した電力グリッドを試験

電力グリッドへの影響

AI需要で電力逼迫が深刻化
冬の嵐が負荷増大
停電リスク上昇

課題と対策

電力インフラ強化必要性
AI事業者の電力責任
再生可能エネルギーへのシフト

大規模な冬の嵐が、AIデータセンターの急増する電力需要で既に逼迫していた電力グリッドをさらに試験しました。一部地域では停電リスクが上昇しました。

このインシデントはAI企業が電力消費問題に真剣に向き合う必要性を示しており、グリッド安定性と持続可能な電力確保が業界課題となっています。

熱力学的コンピューティングがAI画像生成のエネルギー効率を向上か

技術の概要

熱力学的演算アーキテクチャ
従来のGPUへの代替可能性

業界への影響

AI計算の炭素排出削減
グリーンAIへの新アプローチ
商業化への課題

熱力学的コンピューティングという新しいアーキテクチャがAI画像生成において大幅なエネルギー効率向上をもたらすことが示されました。

AI計算の電力消費問題が深刻化する中、この技術はGPUに依存しない省エネルギーなAI演算の可能性を開くものとして研究者の注目を集めています。

地域社会がデータセンターに反対、一方でサプライチェーン工場は歓迎

コミュニティの複雑な反応

データセンターへの反対運動
サプライ工場は雇用として歓迎
環境・電力問題の矛盾

地域社会とAI

地元経済への影響の二面性
電力消費問題の深刻さ
AI拡張の社会コスト

AI需要の急拡大に伴い、各地でデータセンター建設への反対運動が起きていますが、関連製造工場は雇用をもたらすとして歓迎されています。

この矛盾した反応はAIインフラ拡大の社会的コストと利益の不均等な分配を示しており、政策立案者にとって難しい課題となっています。

NeurophosTが光学AIプロセッサで1.1億ドルを調達

技術の概要

光学チップでAI推論を実現
透明なシリコン光集積回路
電力効率が桁違い
エッジ推論への応用期待

市場ポテンシャル

NVIDIAへの代替技術の芽
電力問題解決の切り札
半導体パラダイムの変化
大規模投資の正当性

光学AIプロセッサを開発するNeurophosTが1.1億ドルの資金調達を完了した。「透明なシリコン」と呼ばれる光集積回路を使ってAI推論を電気信号の代わりに光で処理する革新的アプローチだ。

従来の電気ベースのGPUと比べて消費電力を大幅に削減できる可能性があり、データセンター電力問題解決に貢献できるとしている。エッジデバイスへの展開も視野に入れている。

NVIDIAとの直接競合には時間がかかるが、AIチップ設計のパラダイム転換候補として注目される。実用化に向けた長期的な投資判断が問われる。

OpenAIがデータセンターの自家発電と節水を宣言

持続可能性への取り組み

自家発電エネルギー自給
水使用量の上限設定
再エネ100%に向けた計画
環境批判への直接的対応

業界への影響

GoogleMicrosoftとの競争
電力会社との交渉力変化
地域コミュニティへの配慮
AI企業の環境責任基準

OpenAIデータセンター運営において、外部電力網への依存を減らして自家発電に移行し、水使用量も制限する方針を発表した。急増するAI計算需要への環境批判に応えるものだ。

具体的には、データセンターが消費するエネルギーを自ら発電し、冷却に使用する水量に上限を設けるとしている。環境持続性と競争力のバランスを取る試みだ。

GoogleMicrosoftも類似の取り組みを進めており、AI企業の環境責任基準の策定が業界全体の課題となっている。エネルギー自給化は電力会社との関係にも大きな変化をもたらす可能性がある。

ジェンスン・フアンがダボスでAIインフラ最大規模建設を宣言

ダボスでの発言内容

人類史上最大インフラ整備
AI「5層ケーキ」アーキテクチャ
10兆ドル規模の投資が必要
各国のAI基盤整備を促進

産業への示唆

エネルギー需要の爆発的増加
データセンター建設ラッシュ
半導体サプライチェーンへの影響
地政学的競争の激化

NVIDIAジェンスン・フアンCEOはダボスでの講演で、現在進行中のAIインフラ整備を「人類史上最大のインフラ建設」と表現した。5層構造データセンター電力・冷却・ネットワーク・AI)で構成される巨大エコシステムの構築が必要だと述べた。

この発言は、AI競争が単なるモデル性能の争いを超え、物理インフラの争奪戦に移行していることを明示する。各国政府や大手テック企業はデータセンター建設と電力確保を急いでいる。

NVIDIAにとってはGPU需要の継続的拡大を裏付ける発言であり、半導体サプライチェーン全体への投資機会を示唆するものでもある。

Stargate Communityが発足、AI インフラ投資を広範な参加者へ開放

Stargateコミュニティの概要

大規模AIインフラ投資への参加機会
広範な投資家に開放する構想
OpenAISoftBank主導のプロジェクト
コミュニティ型のアクセス拡大
米国AI覇権を支える基盤

意義と課題

民間資本の結集を狙う
地政学的AI競争への対応
電力・土地の確保が課題
投資リターンの設計が必要
規制環境との調整が必要

StargateOpenAISoftBankが主導する大規模AIインフラ投資プロジェクトで、「Stargate Community」はより広範な投資家や企業がこのエコシステムに参加できる仕組みとして発足しました。

米国中国とのAIデータセンター競争で優位を保つために、官民が連携して大規模インフラを整備するという国家的意義を持つプロジェクトです。

コミュニティへの参加拡大により、民間資本の効率的な動員が期待されています。政府の直接投資だけでなく、民間のリスクマネーを引き込む設計です。

電力確保や立地選定など物理的なインフラの課題は依然残っており、計画の実現速度がAI競争の結果を左右する重要因子となっています。

AIバブルは単一ではなく複数の独立したバブルの集合体という分析

複数バブル論の骨子

インフラバブルは規模が大きい
アプリケーションバブルは別物
中国AIバブルは独自サイクル
バブル崩壊時期が異なる
過度な一般化を戒める分析

実践的な見方

投資判断はカテゴリー別に必要
インフラ需要は実需が存在する
アプリ層は淘汰が進む可能性
企業採用は堅調で崩壊しにくい
見極めの精度が投資家を差別化

AIバブル論について、「それは実際には複数の異なるバブルであり、それぞれ異なる崩壊タイミングを持つ」という新しい分析が注目されています。一括りに「AIバブル」と語ることへの警鐘です。

具体的には、AIインフラ投資データセンターGPU電力バブル、AIアプリケーションバブル、そして中国AI独自のバブルなどは、それぞれ異なる需要基盤と崩壊条件を持っています。

インフラ投資については実際のAI需要が存在しており「バブル」と呼ぶのは不正確だという意見もあります。一方AIアプリの多くはまだ収益化できておらず、淘汰が始まる可能性があります。

投資家経営者にとっては、一括りの「AIバブル崩壊」を恐れるのではなく、カテゴリーごとに実態を精査した戦略立案が重要という示唆を与えています。

トランプ政権、AI電力需要で150億ドルの発電所建設をテック企業に要求

要求の内容と背景

150億ドルの新規発電所が対象
PJM電力市場での入札実施を要請
データセンター急増で電力不足懸念
超党派の州知事も支持
テック企業に利用不問で購入要求

業界と政策への影響

AIインフラコストがさらに増大
電力会社と長期契約を誘導
再生可能エネルギー推進とも連携
大手テック株にコスト圧力

トランプ政権は米最大の電力市場PJM(ペンシルバニア・ジャージー・メリーランド相互接続)に対し、150億ドル規模の新規発電所建設に向けた電力入札を行うよう圧力をかけています。

この動きは中大西洋地域の複数の州知事も超党派で支持しており、AIデータセンターの急増による電力需要増加への対応が急務となっていることを示しています。

テック企業には、たとえ即時には利用しない容量であっても発電所購入に参加するよう求められています。これはAIインフラへの投資コストがさらに膨らむ可能性を示します。

エネルギーインフラとAI産業の連動は、国家安全保障の観点からも語られるようになっており、今後の政策・規制の方向性を占う重要な動きです。

MicrosoftがAIデータセンターの電力コスト全額負担を約束、地域住民との摩擦解消へ

発表の背景と内容

データセンター拡張計画への地域反発を受け
電力コスト全額をMicrosoftが負担
グリーンエネルギー調達を継続強調
地域電力網への負荷軽減を約束
年間数十億ドル規模の電力費用負担

産業への示唆

AIインフラと地域社会の共存モデル
大手テック各社への対応要求が高まる
再生可能エネルギー投資の必要性増大
規制環境が厳格化する前の先手
持続可能なAI開発への圧力

Microsoftは急速なAIデータセンター拡張計画に対する地域住民や電力会社からの強い反発を受け、AIデータセンター電力コストを全額負担すると約束しました。地域の電力価格上昇を招くという懸念に対応するための異例の保証です。

VentureBeatとTechCrunchによる複数の報道は、この問題の複雑さを浮き彫りにしています。Microsoftは新たなデータセンターを多数発表しながら、電力会社や地域コミュニティへの影響が大きいことへの批判に対応するために方針を修正しました。

AIデータセンターの急増は電力需給ひっ迫という現実問題を引き起こしています。MicrosoftのコミットメントはGoogleAmazonMetaなど他のメガテック企業にも同様の説明責任を求める先例となる可能性があり、AIインフラの社会的責任に関する基準設定に影響を与えるでしょう。

ザッカーバーグがMetaのAIインフラ独自構築計画を発表

計画の概要と目的

Metaが独自AIインフラ整備を宣言
外部クラウド依存からの脱却を目指す
数百億ドル規模投資計画
自社データセンターの大規模拡張
AI開発・推論コストの内製化

競合との位置付け

Llama等オープンモデルとの整合性
AI研究・製品開発の加速が目標
雇用創出とコスト効率の両立
長期的な技術主権の確立を狙う

マーク・ザッカーバーグはMetaが独自のAIインフラ構築イニシアチブを立ち上げると発表しました。MicrosoftAmazon/AWSなどの外部クラウドへの依存を減らし、AIモデルのトレーニングと推論を自社データセンターで完結させる大規模投資計画です。

この動きはMetaがAI競争において技術的主権を確立しようとする長期戦略の一環です。Llamaシリーズのオープンソースモデルをホストするためのインフラ基盤の強化と、WhatsAppInstagramFacebookなど自社プラットフォームへのAI統合を加速させる目的があります。

Metaの大規模なAIインフラ投資電力消費と環境影響という課題も伴います。マイクロソフトが論争を呼んだデータセンター拡張計画と同様に、エネルギー調達と地域コミュニティへの影響が重要な論点となります。

OpenAIとSoftBankがSB Energyと提携——日本でのAIインフラ整備

日本でのAIエネルギー基盤構築

OpenAISoftBank GroupがSB Energy提携
日本国内のAIデータセンター向け電力供給を整備
SoftBankグループ内でのシナジーを活用
日本のAIインフラ整備が本格的に加速
エネルギー安定供給がAI産業化の前提条件に
日本政府のAI戦略との整合性も評価

OpenAISoftBank Groupは、SoftBank傘下のSB Energyと三者間の提携を発表しました。日本国内のAIデータセンターに向けた安定した電力供給体制の整備を目的としており、SoftBankのMasayoshi Son氏が積極的に推進するAI投資戦略の一環です。

日本でのAI投資を加速させるためには、データセンター向けの安定した大容量電力が不可欠です。SB Energyは太陽光・蓄電池を中心とした再生可能エネルギーに強みを持ち、クリーンエネルギーでAIインフラを支援するという方向性が定まっています。

日本政府もAIインフラ整備を国家戦略として位置付けており、SoftBankOpenAIの協力体制は日本のAI産業競争力強化に向けた重要な民間セクターの貢献となります。

NvidiaのVera RubinアーキテクチャとBlackwellの性能向上が迫る

次世代GPUロードマップの詳細

Vera Rubin GPU アーキテクチャが数ヶ月以内に登場
Blackwellはソフトウェア最適化で性能を継続向上
Vera Rubinは前世代比で大幅な電力効率改善を達成
H100比較で推論スループットが数倍に
マルチノード学習の最適化でトレーニング効率も向上
NvidiaのAIインフラ支配を次の世代でも維持

VentureBeatの記事は、Nvidia Vera Rubinアーキテクチャが数ヶ月以内に市場投入されることを伝え、一方で現行Blackwellアーキテクチャが継続的なソフトウェア最適化によって性能を伸ばしていることも報じています。

Vera Rubinはブラックウェルの後継として、AI推論スループットと電力効率の両面で大幅な改善を実現する予定です。特に大規模言語モデルの推論(inference)ワークロードにおけるバッチ処理効率が重視されています。

Nvidiaは複数世代のGPUを市場に並行展開しながら顧客の移行サイクルを管理する高度な製品戦略を取っています。AWSGoogle CloudなどのクラウドプロバイダーがVera Rubinを採用するタイミングがAI計算コストに大きな影響を与えます。

MITが電力グリッド最適化にAIを活用する研究を発表

AIによる電力グリッド最適化

MITAIを活用した電力グリッド最適化の研究を発表
再生可能エネルギーの間欠性をAIで補正
需要予測と供給調整をリアルタイムで行う
電力コスト削減と停電リスク低減を同時に実現
各地域の気象データ・需要パターンを学習
エネルギー転換の中でAIが重要なインフラ役に

MITの研究チームは、電力グリッドの需給バランス管理にAIを活用することで、再生可能エネルギーの普及に伴う不安定性を解消する研究成果を発表しました。太陽光・風力など天候依存の電源が増える中、グリッドの安定運用にはリアルタイムの高精度な需給予測が不可欠です。

AIは気象予報データ・過去の需要パターン・産業活動情報を統合して数時間から数日先の電力需要を予測し、蓄電池や出力調整可能な電源の最適な運用をサポートします。これにより、調整コストの削減と停電リスクの低減が実現されます。

日本のような島国で電力システムの独立性が高い環境では、グリッドAIの重要性はより高くなります。電力市場の自由化とAI活用の組み合わせで、日本エネルギー転換を加速できる可能性があります。

Metaが原子力発電所6GW+の調達契約を締結しAIデータセンターを強化

原子力とAIの大型エネルギー契約

MetaBill Gates設立のTerraPowerを含む原子力企業3社と契約
合計6ギガワット超の原子力電力を調達予定
AI学習・推論インフラへの安定した電力供給が目的
CO2フリーの電力でAIの環境負荷を低減
小型モジュール炉(SMR)技術への先行投資も含む
GoogleMicrosoftに続く大手テック3社目の大型原子力契約

Metaは3つの原子力企業との契約を発表し、合計6ギガワット超の電力をAIデータセンター向けに調達することを明らかにしました。Bill Gates投資するTerraPowerも契約先の一つに含まれており、次世代原子炉技術への長期的な投資も含まれています。

AIデータセンター電力需要が急増する中、GoogleMicrosoftに続いてMetaも原子力を選択したことで、再生可能エネルギーの間欠性問題に対する答えとして原子力が業界標準化しつつあります。小型モジュール炉(SMR)は特に立地制約が少なく、データセンター専用電源として有望視されています。

日本でも原子力発電の再稼働・新設に関する議論が続く中、AI産業が原子力の新たな需要喚起役になるという構図が明確になっています。AIと原子力の連携は長期的なエネルギー転換に重要な示唆を持ちます。

a16z が150億ドル調達の理由とAI投資テーゼを公開

a16zのAI投資戦略の全体像

a16z150億ドルの大型ファンド調達理由を詳細に説明
AIがソフトウェアを超えた産業変革をもたらすとの確信
エンタープライズ・コンシューマー・インフラの三層を網羅
物理的世界のAI化(Physical AI)への重点投資を表明
AI時代の勝者はインフラ・プラットフォーム・アプリの全層に存在
インターネット時代を凌ぐ規模の変革が起きるとの予測

Andreessen Horowitzは、150億ドルのファンドを調達した理由と長期的なAI投資テーゼを詳述した記事を公開しました。「なぜここにいるのか、なぜ150億ドルを調達したのか」という問いに答える形で、AI変革のスケールと速度への確信を示しています。

インターネットがソフトウェアとコミュニケーションを変えたように、AIはソフトウェアを超えてあらゆる産業と人間の働き方を変革するというのがa16zの核心的な見方です。エンタープライズ・コンシューマー・インフラのすべての層で大型の投資機会があると分析しており、Physical AIや製造・医療エネルギーへの応用を特に重視しています。

このような超大型VCファンドの存在は、AIスタートアップへの資本集中を加速させ、次の2〜3年で産業変革が加速することを示す指標でもあります。日本投資家経営者にとっても、a16zの長期ビジョンは自社の戦略立案の参考となるものです。

核融合スタートアップCFSが実機磁石を設置、Nvidiaとも提携

核融合開発の重要マイルストーン

Commonwealth Fusion Systemsが反応炉用磁石の設置完了
SPARC実証炉の建設が本格化へ
世界最強クラスの高温超電導磁石を採用
商用核融合炉への道筋が具体化
CES 2026で発表、AI企業との連携を強調
2030年代の商用化目標に向けた重要ステップ

NvidiaとのAI連携の意義

Nvidiaとのパートナーシップを同時発表
プラズマ制御にAI・機械学習を活用
核融合シミュレーションGPUを大規模活用
AI支援によりエンジニアリングサイクルを短縮
エネルギー業界への生成AI応用の先進事例
気候変動対策と先端技術の交差点として注目

Core Fusion Systems(CFS)はCES 2026において、核融合実証炉SPARCに搭載する高温超電導磁石の設置完了を発表しました。この磁石はプラズマを閉じ込めるために必要な世界最強クラスの磁場を発生させるもので、商用核融合炉への道を切り拓く重要なマイルストーンです。

同時にNvidiaとのパートナーシップも発表されました。プラズマの制御や核融合炉のシミュレーションNvidiaGPUAI・機械学習技術を活用することで、開発サイクルを大幅に短縮する計画です。

核融合とAIという二つの最先端技術の融合は、気候変動対策の観点からも注目されています。CFSは2030年代の商用核融合発電を目指しており、Nvidiaとの連携はその実現加速のための戦略的な取り組みとなっています。

AI需要で米国データセンターが世界過半数を占める見通し

米国データセンターの地理的集中

世界の計画中データセンター半数以上米国
AI学習・推論電力需要が集中的に増加
バージニア・テキサス・オレゴンが主要ハブ
土地価格・電力・冷却水の確保が立地を決める
米国電力グリッドへの負荷が懸念される
地域コミュニティへの経済効果と環境負荷

グローバルな競争と地政学的影響

欧州・アジアも規制・エネルギーを整備して対抗
中国が独自データセンター超大国として台頭
データ主権の観点からのAIインフラ分散化
AIインフラ国家安全保障資産に
再生可能エネルギーとAIデータセンターの競合
地政学リスク冗長化投資を促進

IEEE Spectrumの分析によれば、世界で計画中のデータセンタープロジェクトの過半数が米国内に集中している。AI学習・推論の急増する電力需要が特定地域への集積を促しており、バージニア州・テキサス州・オレゴン州が世界最大のデータセンターハブとして台頭している。

集中の理由は複合的だ。豊富な電力供給・広大な土地・光ファイバーネットワーク・ビジネスフレンドリーな規制環境・技術人材の集積が、米国データセンター建設の優位性を生み出している。特にバージニア北部は世界最大のデータセンタークラスターを形成している。

しかし、この集中は電力グリッドへの深刻な負荷をもたらしている。PJM Interconnection(バージニア等を管轄する送電会社)は、AI需要の急増により電力供給が需要に追いつかなくなるリスクを警告しており、電力会社が新規データセンターの申請を制限する動きも出ている。

地政学的には、AI計算能力の米国集中が戦略的アセットとして位置づけられている。AIモデルの学習・推論インフラを自国に保有することが国家安全保障の観点から重要とされ、欧州中国インドが独自のAIデータセンター投資を加速している。

長期的なサステナビリティの課題として、再生可能エネルギーとの両立が不可欠だ。大規模なデータセンター電力消費は世界の電力需要増加を牽引しており、カーボンニュートラル目標との矛盾を解消するための技術革新(核融合・地熱・次世代太陽光)への期待が高まっている。

NvidiaがCES 2026でVera Rubinプラットフォームを正式発表

Vera Rubin:次世代AIチップの全貌

Vera Rubinが2026年後半に顧客向け出荷開始
「フル生産」状態とJensen Huangが宣言
前世代比で大幅な性能向上を実現
NVLink Fusionで他社チップとの統合も可能
HBM4メモリ搭載でメモリ帯域幅が飛躍的増大
AI推論・学習の両用途で競合を大きく引き離す

MicrosoftAzureとのエコシステム整備

AzureがRubin対応インフラをすでに計画済み
MicrosoftNvidiaの長期戦略的パートナーシップ
大規模クラスター展開をシームレスに実現
データセンター設計にRubinを前提とした最適化
電力密度とラック設計が新たな工学的課題
ハイパースケーラー全社がRubin対応を急ぐ

NvidiaのCEO Jensen HuangはラスベガスのフォンテーヌブローホテルでCES 2026の基調講演を行い、次世代AIコンピューティングプラットフォーム「Vera Rubin」が正式に生産フェーズに入ったと発表した。2026年後半から主要顧客への出荷が開始される予定だ。

Vera Rubinは前世代のBlackwellから大幅な性能向上を実現しており、AI学習・推論の両用途で競合を引き離す。特に注目されるのはNVLink Fusion技術で、他社製のCPU(ArmIntel)とも組み合わせて使用できる柔軟なアーキテクチャを提供する。

MicrosoftのAzureチームは、Rubinプラットフォームのデプロイに向けてデータセンターの長期計画を進めていることを明らかにした。大規模なNvidiaクラスターを効率的に展開するためのインフラ設計が完了しており、出荷と同時に即座に活用できる体制が整っている。

RubinのアーキテクチャはHBM4メモリを採用し、メモリ帯域幅と容量の両面で大幅な向上を実現している。これにより、より大きなモデルのより高速な推論が可能となり、エンタープライズAIアプリケーションの応答性が大幅に改善される。

電力密度の増加に伴い、データセンター冷却電力インフラの再設計も必要となる。液体冷却システムの採用が業界標準化しつつあり、エネルギー効率の向上と持続可能性の確保が新たな設計要件となっている。

CES 2026総括:すべてがAIに、問われるのは使い方

CES 2026の全体像

AIが消費者家電のあらゆる領域に浸透
Nvidia・AMD・QualcommAI半導体競争が加熱
TV・白物家電・ウェアラブルすべてにAI搭載
ロボット・自動運転が実用化フェーズ
エッジAIとクラウドAIの役割分担が明確化
今年のCESは「AI見本市」と評された

注目テックと今後の課題

ベストテックはAI×実用性の高い製品が選出
AI機能のUXへの統合品質が差別化ポイント
電力消費・プライバシー規制対応が課題
「AIのついた家電」から「AIネイティブ家電」へ
エコシステムの閉鎖性がユーザー体験を制限
2026年は消費者AIの品質元年になる可能性

CES 2026は「すべてがAI」という一言で総括できる。テレビから冷蔵庫、ウェアラブルから自動車まで、展示されたほぼすべての製品に何らかのAI機能が盛り込まれており、AIが消費者家電の標準部品となったことを印象づけた。

半導体メーカーの競争が見本市を彩った。NvidiaのVera Rubin・AMDの新Ryzen AI・QualcommのSnapdragon Xシリーズが登場し、AI処理性能のウォーは新局面を迎えた。特に「エッジでAI」という方向性が明確で、クラウド依存からの脱却が加速している。

ロボティクスは最も注目を集めたカテゴリーの一つで、LGのCLOiD・Nvidiaロボットスタック・Boston DynamicsとGoogleの協業など、汎用ロボットの実用化が現実に近づいていることを示した。ただし、一般家庭への普及には価格と信頼性の課題が残る。

WIREDやVergeが選ぶ「ベストテック」は、AI機能の有無より実際のユーザー体験の質を重視する傾向が強まっている。「AIが付いている」ことが差別化でなくなり、AIをいかに賢く・自然に・有用に使いこなすかが問われる時代になった。

CES 2026が示した最も重要なシグナルは、AI技術が「デモフェーズ」から「プロダクトフェーズ」に移行したということだ。実際の使い方・プライバシー・消費電力・規制対応という現実の課題と向き合いながら、どのメーカーが本物の価値を届けられるかが2026年の勝負となる。

AMD、CES 2026でAI PC向け新プロセッサを発表

Ryzen AI PC向け新アーキテクチャ

Lisa SuがCESキーノートでRyzen AI新世代を発表
NPU性能を大幅に向上させた最新アーキテクチャ
一般用途とゲーミング向けの2ラインを展開
Windows Copilot+との統合を最適化
ローカルAI処理でプライバシーとパフォーマンスを両立
QualcommIntelとのAI PC競争が本格化

AI PCエコシステムの成熟

PC搭載NPUがAI処理の主役に
クラウド依存なしのオンデバイスAIが普及段階へ
ゲーミング向けでAIフレーム補間精度が向上
電力効率向上でノートPCのバッテリー寿命延長
AIモデルのローカル実行が一般ユーザーに開放
対応アプリの増加がエコシステムを拡大

AMDのLisa Su CEOがCES 2026のキーノートでRyzen AIの新世代プロセッサを発表した。NPU(ニューラルプロセシングユニット)の性能を大幅に向上させ、一般用途とゲーミングの両カテゴリー向けに展開する。

新プロセッサはMicrosoftWindows Copilot+認定要件を大幅に上回る性能を持ち、ローカルでのStable Diffusion・Phi-3・Llamaなどの推論を快適に実行できる。クラウドに頼らないプライベートなAI処理が一般ユーザーに開放される。

ゲーミング向けプロセッサでは、AIフレーム生成技術の精度とレスポンスが向上し、低スペックのGPUでも高品質なゲーム体験が可能になる。AMDのFSR(FidelityFX Super Resolution)とAIの組み合わせがさらに進化した。

AI PCの競争ではQualcomm(Snapdragon X)・Intel(Meteor Lake後継)との激しい競合が続いている。AMDは特にx86アーキテクチャの互換性と高い実行性能を武器に、既存のWindowsソフトウェア資産を活かした差別化を図る。

電力効率の向上も注目点で、同等のAI処理性能を前世代より低い消費電力で実現するとされる。ノートPCでの長時間AI処理が可能になることで、モバイルワーカーにとっての実用性が大幅に向上する見込みだ。

2026年の注目テック:脳チップ・折りたたみiPhoneが現実に

2026年の主要テクノロジー予測

チップ技術が商用化ステージへ移行
折りたたみiPhoneApple市場参入
AIロボット審判が野球場に登場予定
2026年は実装・実用化の年と位置づけ
エンジニアリングの大イベントが続く一年

宇宙・医療・交通の技術革新

月面探査ミッションの複数回実施が計画
神経インターフェース医療応用が拡大
EV・自動運転技術のさらなる普及
量子コンピューティングの実用化が近づく
再生可能エネルギーとAIの統合が加速
ウェアラブル健康監視の主流に

IEEE Spectrumが選ぶ2026年の注目エンジニアリングイベントは、技術の実装フェーズへの本格移行を象徴している。脳チップ技術はNeuralinkなどが先行し、商用化のための規制承認プロセスが進んでいる。

Apple折りたたみiPhoneは長年の噂が現実になりつつある段階で、ディスプレイ耐久性と薄型化技術の両立が実現のカギとなる。折りたたみデバイス市場は現在Samsungが先行しているが、Appleの参入でマス市場化が加速する見込みだ。

野球場へのAIロボット審判導入は、スポーツにおけるAI判定の受容をテストする重要な事例となる。コールの精度向上が期待される一方、人間の審判文化を守りたいファンとの摩擦も予想される。

都市規模のスーパーコンピューターは主にAIトレーニングと気候モデリングに活用される計画で、電力消費と冷却コストが最大の課題だ。再生可能エネルギーとの組み合わせが必須要件とされている。

2026年は2025年の「AIハイプ」から「AI実装」へのシフトを体現する年になると見込まれている。特に医療・交通・エンターテインメント分野での具体的なテクノロジー統合が加速し、一般生活への影響が可視化される一年となるだろう。

電力の大争奪戦——AIが引き起こすエネルギーインフラの大転換

AI電力需要の現実

データセンター電力消費量が前例のない規模に
送電網の許容量を超えるリスクが現実に
再生可能エネルギーへのシフトが急加速
原子力発電の再評価が進む
需要急増に供給インフラの整備が追いつかない
電力価格上昇が地域経済を直撃

電力確保の戦略的動き

テック大手が電力会社と長期契約を締結
Microsoftが廃炉原発の再稼働投資
Googleが地熱エネルギー開発に出資
Amazonが洋上風力PPA(電力購入協定)を締結
水力・原子力・風力の組み合わせを模索
エネルギーの地政学がAI覇権に直結し始めた

AIインフラへの巨額投資電力インフラを根本から変えています。WIREDの特集は、テック大手がどのように電力確保の最前線で動いているかを詳述しています。データセンターの新規建設が送電網の処理能力の限界に近づきつつあります。

Microsoftは廃炉となったスリーマイル島原子力発電所の再稼働に投資するという大胆な一手を打ちました。GoogleはAIのエネルギー消費に見合うクリーンエネルギー確保のため、地熱発電スタートアップを支援しています。

電力確保の問題は地域経済と直結しています。バージニア州などのデータセンター集積地では電力コスト上昇が住民の電気代に転嫁されており、社会的対立の火種になっています。AI企業が地元コミュニティとの対話を避けられない状況です。

エネルギーの地政学がAI覇権の決定要因になりつつあります。豊富な再生可能エネルギーを持つ国や地域がAIインフラ立地の誘致で優位に立ち、エネルギー政策がAI競争に直結する新しい構図が生まれています。

兆ドル規模のAIデータセンター建設ラッシュ、光と影

未曾有の投資規模

Stargateプロジェクトが5000億ドル規模に
OpenAIMicrosoftOracleNVIDIAが共同推進
Metaも数兆円規模のデータセンター計画を発表
NVIDIAが最大1000億ドルのOpenAI投資を発表
AMDもOpenAI株取得と引き換えにGPU供給
循環投資の構造がバブル懸念を呼んでいる

環境・社会的影響

AIエネルギー需要がビットコインを超える見通し
水資源の大量消費と非開示問題が浮上
地域住民が交通渋滞・事故増加に直面
ルイジアナ州では車両事故が600%増加
電力需要急増で既存グリッドへの負荷拡大
技術幹部は過剰投資の可能性を否定し続ける

OpenAISam Altmanは「OpenAIのローマ帝国は実際のローマ帝国だ」と語りましたが、その比喩は現実になりつつあります。Stargateプロジェクトを中心に、OpenAIMicrosoftNVIDIAOracleが総計で数千億ドル規模のAIデータセンター建設を進めています。

投資構造の循環性が懸念を呼んでいます。NVIDIAOpenAIに最大1000億ドルを投資する代わりに、OpenAINVIDIAのシステムを10ギガワット分購入する契約を結びました。AMDも同様の構造でOpenAI株10%と引き換えにGPUを供給します。このような相互投資の構造は熊派の分析家から「AIバブル」の証拠と見なされています。

環境負荷も深刻化しています。世界のAIエネルギー需要はビットコインマイニングを超えると予測されており、冷却用の水資源消費は地域住民の生活を脅かしています。Metaの27億ドルデータセンター建設中のルイジアナ州では車両事故が600%増加しました。

テクノロジー幹部たちは需要の強さを根拠に過剰投資の可能性を否定し続けています。週間8億人が使うChatGPTの実績は確かですが、経済予測の正確性や労働市場への影響、資源供給の現実性については依然として不透明なままです。

データセンターのGPU間通信にラジオ波——銅線の限界を超える

銅線ケーブルの限界

AIデータセンターの帯域需要が銅線を凌駕
テラヘルツ通信が次世代候補として浮上
銅線に比べ高速かつ低コストの可能性
距離・方向制御が課題として残る
複数スタートアップが実用化に向け開発中
既存の光ファイバーとの共存設計が必要

技術的優位と実装課題

無線リンクは銅線より軽量で取り回しが容易
GPU間レイテンシのさらなる短縮が目標
周囲の電磁ノイズへの耐性確保が重要
データセンター設計の根本的変化を促す
エネルギー効率の改善にも寄与する可能性
5〜10年スケールでの実用化が現実的予測

AIの急拡大でデータセンター内のGPU間通信に従来の銅線ケーブルでは対応しきれなくなっています。複数のスタートアップテラヘルツ帯無線リンクGPUクラスタ内の接続手段として実用化する研究を加速しています。

無線リンクは物理ケーブルの敷設が不要で、設計変更に柔軟に対応できます。理論上、銅線よりも高帯域かつ低遅延を実現でき、GPU集積密度を高める設計が可能になります。

技術的課題は電磁ノイズへの耐性と方向制御の精度です。高密度なGPUラックが林立するデータセンター内での信頼性確保には、まだ工学的な解決が必要です。

長期的には光インターコネクトとの競合になりますが、特定のラック間・筐体内通信では無線が経済的優位を持つ可能性があります。AI投資が続く中、インフラ技術の多様化が進みそうです。

洋上風力停止訴訟——AIデータセンター電力危機が現実に

訴訟の背景と争点

ドミニオン・エナジーがトランプ政権を提訴
洋上風力の90日間停止命令が引き金に
89億ドル投資済み案件が突然停止された
「任意かつ気まぐれ」な行政行為と批判
バージニア州は世界最大のデータセンター集積地
国家安全保障を理由とする停止命令の信憑性に疑問

AIとエネルギーの深い連鎖

AI需要で電力需要が2倍になる試算
データセンター建設がエネルギー不足を加速
洋上風力の遅延がコスト上昇につながる
ビットコインマイニングを超えるAIエネルギー消費
自治体の水資源問題もデータセンターが原因
AIレースに勝つには電力インフラが不可欠

ドミニオン・エナジーがトランプ政権の洋上風力停止命令に対して連邦裁判所に提訴しました。同社が89億ドルを投じたバージニア沖の洋上風力プロジェクトが突然停止され、11.2億ドル規模のプロジェクトが宙に浮いています。

バージニア州は世界最大のデータセンター集積地であり、AI需要の急拡大で電力需要がすでに2倍超となっています。「AIレースに勝つには全ての電力が必要だ」とドミニオン社は主張しています。

トランプ政権は国家安全保障上のリスクを理由に停止を正当化していますが、元USS Cole艦長を含む専門家からも根拠への疑問が呈されています。同様の停止命令は以前も連邦裁判所に「任意かつ気まぐれ」と判断された経緯があります。

このケースはAIインフラの急成長とクリーンエネルギー政策の衝突という、今後数年の重要課題を象徴しています。エネルギー供給の安定なしにAI産業の拡大は難しく、政策リスクが産業全体を揺るがしかねません。

NvidiaがGroqのAI推論技術をライセンス取得、CEOも採用へ

NvidiaとGroqの提携の概要

NvidiaGroqと非独占的な推論技術ライセンス契約を締結
Groq創設者Jonathan RossとプレジデントSunny Madraを採用
CNBCは200億ドルの資産取得と報道(Nvidiaは「買収ではない」と否定)
GroqLPUGPUより10倍高速・10分の1の電力消費と主張
Jonathan Rossは元GoogleTPU開発に貢献した著名人物
Groqは200万以上の開発者向けAIアプリを提供中

業界への影響と背景

AIチップ市場でNvidiaGPUが業界標準として確立済み
GroqLPU技術でNvidia推論市場の支配をさらに強化
Groqは2025年9月に7.5億ドル調達・評価額69億ドルで急成長
前年の35万6千から200万超へと開発者数が急拡大
この提携Nvidia史上最大規模の取引になる可能性
推論特化型チップの戦略的重要性が改めて浮き彫りに

Nvidiaは競合AIチップスタートアップGroqと非独占的なライセンス契約を締結しました。これにより、Groqの言語処理ユニット(LPU)技術がNvidiaの製品ラインに組み込まれる可能性があります。チップ市場の競争構造に大きな変化をもたらす可能性があります。

GroqGPUとは異なるアーキテクチャを持つLPU(言語処理ユニット)を開発しており、LLMの推論処理においてGPUの10倍の速度と10分の1の電力消費を実現できると主張しています。この推論特化型設計Nvidiaに評価された形です。

Groq創設者のJonathan RossはGoogle在籍時にTPU(テンソル処理ユニット)の発明に貢献した人物です。このような優秀な人材の獲得は、技術ライセンスと並んでNvidiaにとって重要な戦略的価値を持ちます。

CNBCはNvidiaGroqの資産を約200億ドルで取得すると報じましたが、NvidiaはTechCrunchに対して「これは会社の買収ではない」と説明しました。取引の正確な規模と性質については依然として不明確な部分が残っています。

Groqは2025年9月時点で評価額69億ドルで7億5000万ドルを調達したばかりでした。同社のAPIを利用する開発者数は前年の35万6000人から200万人超へと急速に拡大しており、推論市場での存在感を急速に高めていました。

AI推論需要の増大に伴い、効率的な推論インフラへの需要が高まっています。NvidiaGroqの技術を取り込むことで、学習から推論までのAIインフラ全体をカバーする体制を強化することになります。

Alphabetが47.5億ドルでIntersect Powerを買収しエネルギー確保

買収の背景と戦略的意義

Alphabetがクリーンエネルギー開発会社を47.5億ドルで取得
電力グリッドのボトルネックをバイパスする狙い
AI向けデータセンター建設の加速が目的
負債の引き継ぎを含む現金取引で合意
再生可能エネルギーと計算インフラを一体運営
米国エネルギーイノベーションの推進を宣言

データセンター電力問題への対応

AI学習に必要な電力需要の急増に対応
自社電源確保でグリッド依存を軽減
データセンターと発電設備の同時開発が可能に
競合に先んじたエネルギー垂直統合の実現
太陽光・蓄電池インフラとの組み合わせを想定
カーボンニュートラル目標とも整合した投資

Alphabetは47.5億ドルの現金に加え負債の引き継ぎを条件として、データセンターとクリーンエネルギーインフラを開発するIntersect Powerの買収に合意しました。この取引はAIの急拡大に伴う電力供給不足を戦略的に解決する動きとして注目されています。

Intersect Powerは太陽光発電・蓄電池・データセンターを一体で開発できる企業です。Alphabetはこの買収により、既存の電力グリッドへの接続待ちを回避し、自前のクリーンエネルギーを直接AIインフラに供給できる体制を構築します。

AI企業間のエネルギー確保競争は2025年を通じて激化しており、Googleは今回の買収MicrosoftAmazonに対して電源一体型データセンター戦略でリードを確立しようとしています。長期的にはカーボンニュートラル目標の達成にも寄与する見通しです。

AIデータセンターへの住民反発、各地で阻止成功

反対運動の成果

2Q25に980億ドル相当が阻止・遅延
GoogleがIndyDC計画を撤回
230団体が建設モラトリアム要求
超党派で反対運動が拡大

電力・環境問題が焦点

AIラックは住宅80〜100軒分電力
xAI施設周辺でNO2が79%上昇
Metaの施設向けにガス発電所新設
電気代高騰が知事選の争点に

2025年を通じて、米国各地のコミュニティがAIデータセンター建設計画に対して反対運動を展開し、多くの事例で実際に計画を阻止または遅延させることに成功しました。

Data Center Watchの報告によると、2025年第2四半期だけで240億ドル相当のプロジェクトが阻止され、737億ドル相当が遅延しました。反対運動は前年同期比で増加しています。

Googleはインディアナポリスでの大規模データセンター計画を、住民の水・電力使用への懸念を受けて撤回しました。イーロン・マスクxAIはメンフィスの施設周辺で窒素酸化物濃度が大幅に上昇しているとして、NAALCPから訴訟の脅しを受けています。

Metaがルイジアナ州に建設予定の大型データセンターをめぐっては、地元電力会社Entergy社が計32億ドルのガス発電所3基を建設しており、一般消費者への電気料金転嫁を懸念する声が上がっています。

バージニア・ニュージャージー両州では電気料金の上昇が州知事選の争点となりました。共和・民主両党が地方レベルで連携してデータセンターに反対するという珍しい政治連合が形成されています。トランプ政権のAI行動計画は逆に環境規制緩和でデータセンター開発加速を目指しており、対立が続く見通しです。

米国家AIプロジェクトで科学研究加速

プロジェクトの概要

17国立研究所と産学統合
AI co-scientist優先提供
2026年に新モデル展開予定

企業の貢献内容

NVIDIAがDOEとMOU締結
OpenAIがロスアラモスに展開済み
Anthropic専門チーム派遣
気象・核融合・量子に活用

ホワイトハウスが主導するGenesis Missionは、DOEの17の国立研究所と産業界・学術界を統合した米国史上最大規模の国家的AIプロジェクトとして本格始動しました。

Google DeepMindは全研究所の科学者向けにGemini基盤の「AI co-scientist」への優先アクセスプログラムを本日開始し、最先端のAI研究支援ツールを即日提供しています。

2026年にはAlphaEvolve・AlphaGenome・WeatherNextも国立研究所向けに利用可能になる予定で、進化アルゴリズムやゲノム解析・気象予測の分野での科学研究加速が期待されています。

NVIDIAはDOEとの覚書(MOU)を締結し、気象予測・核融合研究・量子コンピューティングなど幅広い科学分野においてAIと高性能コンピューティングを組み合わせて展開します。

OpenAIはDOEとのMOUを締結済みで、ロスアラモス国立研究所のスーパーコンピューターに先端的な推論モデルをすでに実際に展開しており、核科学への応用が進んでいます。

AnthropicClaudeモデルと専門エンジニアチームを研究者に直接提供し、エネルギー関連の許認可プロセスの迅速化や創薬・材料科学の分野での重点的な支援を実施予定です。

MITがLLM改善と視覚進化研究を発表

新位置符号化手法

MIT・IBM共同開発のPaTH Attentionが状態追跡能力を向上
RoPEに代わるデータ依存型の動的位置符号化を実現
推論・長文脈・言語モデリングのベンチマークで優位
GPU高速処理に対応したハードウェア効率アルゴリズム

視覚進化サンドボックス

MITがAIエージェント視覚進化を再現するサンドボックス開発
タスクの種類が眼の構造を決定することを発見
ロボットドローン向けのタスク特化センサー設計に応用可能

MITMIT-IBM Watson AI Labの共同研究チームは、トランスフォーマーアーキテクチャの根本的な限界を克服する新しい位置符号化手法「PaTH Attention」をNeurIPSで発表しました。

従来のRoPE(Rotary Position Encoding)はトークン間の相対距離のみに基づく静的な回転を割り当てますが、PaTH Attentionは各トークンの内容に依存した動的変換を累積させることで、単語間の意味の変化をパスとして追跡できます。これにより状態追跡や逐次的な推論が改善されます。

実験では、PaTH Attentionが診断タスクと実世界の言語モデリングタスクの両方で既存の注意機構を上回り、数万トークンに及ぶ長文脈でも安定した性能を示しました。また「忘却トランスフォーマー(FoX)」と組み合わせた「PaTH-FoX」システムでさらに性能が向上しています。

もう一つの研究では、MITの研究者らがAIエージェントを用いて視覚系の進化を再現する計算論的フレームワークを構築し、Science Advances誌に発表しました。カメラのセンサー・レンズ・絞り・プロセッサをパラメータ化したエージェント強化学習で世代を超えて眼を進化させます。

実験ではナビゲーションタスクでは複眼(昆虫や甲殻類のような眼)に、物体識別タスクではカメラ型の眼(虹彩と網膜を持つ眼)に進化することが分かりました。タスクの種類が眼の構造の違いを生み出す主要な要因であることが示されています。

このフレームワークはロボットドローンウェアラブルデバイス向けの新しいセンサー設計に応用できる可能性があり、エネルギー効率や製造上の制約のもとでタスク固有の最適な視覚システムを探索するための強力なツールとなり得ます。

AI電力・環境問題が米国で政治化

AIの環境影響の実態

2025年のAI炭素排出量がNYCと同水準と試算
水消費量が世界のペットボトル消費量に匹敵
電力需要が2028年までに米国電力12%を占める見通し
企業の情報開示不足が正確な把握を困難に

政治・規制面の動き

米民主党上院議員がGAFA等への調査書簡を送付
電力料金上昇の家庭への転嫁を問題視
宇宙空間へのデータセンター設置にビリオネアが注目

AIデータセンターの急増が環境面と経済面の双方で問題化しています。VU Amsterdamの研究者が発表した新研究によると、2025年のAIによるCO2排出量は3,260万〜7,970万トン、水消費量は3,125億〜7,646億リットルに達すると推計されています。

米国の民主党上院議員3人が、GoogleMicrosoftAmazonMetaおよびデータセンター大手3社に対し、電力消費が家庭の電気料金に与える影響について調査書簡を送付しました。米国の家庭電力料金は今年13%上昇しており、その一因にデータセンター電力需要増加があるとしています。

データセンターは現在、米国電力使用量の4%以上を占めており、米エネルギー省は2028年までに12%に達すると予測しています。MetaのLouisianaデータセンターの建設では、電力供給のため3つのガス発電所の新設計画まで生じています。

一方で宇宙空間へのデータセンター設置という新たなトレンドも浮上しています。Elon Musk、Jeff Bezos、Sundar Pichai、Eric Schmidtなどの著名人が宇宙データセンターを構想しており、Googleは2027年に軌道上衛星を使ったProject Suncatcherのプロトタイプ打ち上げを計画しています。

しかし天文学者や環境科学者は宇宙データセンターに懐疑的です。宇宙ゴミとの衝突リスク、大量衛星の光害問題、修理困難性などの課題が指摘されており、ビジネス上の実現可能性についても疑問符がついています。

技術企業は環境負荷に関する詳細なデータを公開していないことが多く、透明性の欠如が問題の全容把握を妨げています。研究者らは企業に対してより詳細な開示を求めており、この問題の社会的議論が深まっています。

AIデータセンターの重量危機と電気代転嫁問題

老朽データセンターが抱える物理的限界

AIチップラックの重量が従来比で最大12倍超に増大
最新AIラック1基の予測重量は約2,270kg(5,000ポンド)
液冷装置や高密度GPUが重量増加の主因
レガシーセンターの床荷重(約570kg/㎡)では対応不可
ドア高・フレートエレベーターも新世代ラックに非対応
既存施設の改修よりも解体・新設が現実的な選択肢

上院議員が大手AI企業の電気代転嫁を調査

電気料金が5年間で最大267%上昇した地域も存在
データセンター1施設が都市1つ分の電力を消費するケースあり
企業がNDAで情報隠蔽し住民が料金上昇を事後に知る構造
シェル会社を通じた建設で施設の実態を不透明化
バージニア州では2030年までに電気料金がさらに25%上昇の試算
電力網の相互接続により隣州の住民にも影響が波及

AIの急速な普及に伴い、データセンターの物理的インフラが限界に直面しています。かつてのラック重量は180〜270kgでしたが、現在は最新AIラックで1,130kgを超え、将来的には2,270kgに達すると予測されています。

重量増加の背景には、GPUの高密度実装や液冷システムの搭載があります。10年前のラックあたり消費電力は約10kWでしたが、今日のAIワークロードでは最大350kWに達し、熱管理のために重い液冷装置が必須となっています。

アップタイム・インスティテュートのCTOによると、既存センターの床荷重基準は静荷重で約570kg/㎡が上限であり、最新AIラックを支えるには根本的な構造補強が必要です。しかし補強後も、ドア高やエレベーター耐荷重といった別の物理制約が残ります。

データセンター建設会社の幹部は「ほとんどの場合、建物を解体して一から建て直すことになる」と述べており、大規模な新設ラッシュが続く主な理由の一つとなっています。過去4年間で100MW超の大型センター建設プロジェクトが377件公表されています。

一方で、既存の非AIデータセンターも引き続き需要があります。大学・病院・中堅企業・自治体は従来型のデータ保管ニーズを持ち続けており、AI用施設の増加と並行してレガシーセンターも重要性を保っています。

もう一つの問題として、AIデータセンターによる電力需要急増が地域住民の電気料金を押し上げている実態が明らかになっています。ウォーレン上院議員ら3名は大手AI企業7社に対し、料金上昇を防ぐ具体的措置の説明を求める書簡を送りました。

調査書簡では、企業が公的機関にNDA(秘密保持契約)を締結させ、住民への情報開示を妨げていると指摘しています。また、シェル会社を通じた建設により、データセンターの実態が地域住民に知られないケースも報告されています。

電力需要が地元供給を上回ることで料金が上昇するほか、大陸規模で接続された電力網を通じ、データセンターが立地していない隣州にまで料金上昇の影響が及ぶことも問題視されています。バージニア州では2030年までに電気料金がさらに25%上昇するとの試算も示されています。

Nvidia、位置確認可能な管理ソフト導入 密輸対策の観測も

任意導入の管理ツール

GPU稼働状況や位置情報を可視化
Blackwellチップから順次対応
利用は顧客の任意選択(オプトイン)
エージェントオープンソース化予定

密輸防止と効率化の両立

通信遅延で物理的な位置を推定か
公式はハードウェア追跡を否定
中国への不正輸出抑止に期待

Nvidiaは12月10日、データセンター向けの新たなGPUフリート管理ソフトウェアを発表しました。これはインフラの稼働効率を高めるための任意導入(オプトイン)ツールですが、通信遅延を用いてチップの物理的な位置を特定する機能が含まれると報じられています。背景には、米国の対中輸出規制を回避した半導体密輸への懸念があります。

このソフトウェアは、主にGPU電力消費や温度、エラー率などを監視し、インフラの最適化を支援するものです。一方でロイター通信等の報道によれば、サーバー間の通信応答時間を分析することで、申告された設置場所と実際の物理的な位置の整合性を検証できる技術が組み込まれていると見られます。

Nvidiaは公式ブログで「ハードウェアレベルでの追跡機能やバックドアは存在しない」と明言し、あくまで顧客自身による管理ツールであると説明しています。しかし、中国企業による密輸チップ使用の疑惑が浮上する中、この技術はメーカーと顧客双方にとってコンプライアンス遵守を証明する重要な手段となりそうです。

本ツールは最新のBlackwellチップ向けに先行して提供される見通しです。クライアントエージェントの一部はオープンソース化され、透明性が担保される予定です。AIインフラを運用する企業にとっては、生産性を高めつつ、地政学的な規制リスクにも自律的に対応する姿勢が求められる局面と言えるでしょう。

NVIDIA、Graph500で世界新記録 GPUがCPU領域を凌駕

グラフ処理で世界一の性能

H100クラスターがGraph500で首位を獲得
毎秒410兆エッジを探索する圧倒的処理速度
競合比で2倍の性能を達成

驚異的なコスト効率

わずか1/9のノード数で記録達成
費用対効果は競合システムの3倍以上
エネルギー効率もCPUの4.5倍

AIと計算の未来

推論時のスケーリングが次の焦点
複雑なスパース処理GPUへ移行
自律型AIやロボティクスへ応用拡大

NVIDIAは2025年12月、CoreWeaveと共同構築したH100 GPUクラスターにより、大規模グラフ処理性能を競う「Graph500」で世界新記録を樹立しました。これまでCPUが主役だった複雑なデータ処理領域においても、GPUが圧倒的な優位性を示し、計算インフラの歴史的な転換点を迎えています。

今回の記録では、毎秒410兆回のエッジ探索(TEPS)を達成しました。特筆すべきは、競合システムの2倍以上の性能を、わずか約9分の1のノード数で実現した点です。これは費用対効果において3倍以上の改善を意味し、企業のインフラ投資効率を劇的に高めます。

グラフ処理はデータが不規則で疎(スパース)なため、従来はCPUの独壇場でした。しかしNVIDIAは、通信と計算をGPU上で完結させる新技術を導入し、CPUを経由するボトルネックを解消しました。これにより、AI以外の科学技術計算でもGPUへの移行が加速します。

エネルギー効率を競う「Green500」でも、NVIDIAGPU搭載システムが上位5位を独占しました。CPUシステムと比較して平均4.5倍の効率を誇り、データセンター電力制約が厳しくなる中、持続可能な計算リソースの確保において決定的な解決策となります。

AI開発において、従来の「事前学習」「事後学習」に加え、推論時に計算量を増やす「テストタイム・スケーリング」が重要になっています。推論段階での高度な推論や計画能力が求められるようになり、学習完了後も強力なGPUインフラが必要不可欠です。

この計算能力の飛躍は、物理世界で活動するロボットや、自律的にタスクをこなすエージェントの実用化を後押しします。GPUは単なる演算装置から、全産業の生産性を底上げする「デジタル労働力」の基盤へと進化しています。

米新興、27年に宇宙データセンター打ち上げへ

AI計算を宇宙で実行

米Aetherfluxが2027年に衛星打ち上げへ
「銀河の頭脳」で地上の電力制約を回避
24時間稼働太陽光発電を活用

テック大手も参入競争

GoogleAmazon宇宙インフラを研究
地上施設は電力不足で建設難航
放射線対策やコストが今後の課題

スタートアップのAetherfluxは2025年12月、2027年初頭に初のデータセンター衛星を打ち上げると発表しました。AI開発で急増する電力需要に対し、宇宙空間で太陽光を利用する「Galactic Brain」構想により、地上の電力網に依存しない計算基盤の構築を目指します。

この分野には巨大テック企業も相次いで参入しています。GoogleはAIチップ搭載衛星の研究を公表し、Amazon創業者SpaceXも同様の構想を推進中です。計算資源の確保競争は、物理的制約のある地上からエネルギー豊富な宇宙空間へと拡大しています。

背景にあるのは、地上における深刻なインフラの限界です。データセンターの建設は、莫大な電力消費や冷却水の使用、環境負荷への懸念から各地で住民の反対や規制に直面しています。既存の電力供給だけでは、AIの進化スピードに必要なエネルギーを賄いきれないのが実情です。

一方で、実用化には技術的・経済的な課題も残されています。打ち上げコストは低下傾向にあるものの依然として高額であるほか、宇宙特有の強力な放射線への耐久性確保や、混雑する軌道上でのデブリ衝突回避など、安定稼働に向けたハードルを越える必要があります。

米BTC採掘業者がAIへ転換、高収益データセンターへ

AI特需と収益構造の激変

米大手マイナーが相次いでAIデータセンターへ転換
ビットコイン価格下落と報酬半減が収益を圧迫
AI計算需要に対し電力インフラの価値が急騰

インフラ転用と今後の課題

テック大手との契約で安定収益と高利益率を確保
AI向けには常時稼働と高度な電源管理が必須
採掘能力低下によるセキュリティリスクの懸念
採掘拠点はエネルギーの海外や国家管理へ移行

2025年12月、米国の主要ビットコイン採掘業者(マイナー)たちが、事業の軸足をAIデータセンター運営へと急速に移しています。かつて暗号資産の採掘拠点だった巨大施設は、今やAmazonMicrosoftといったテック企業のAIモデル学習を支える計算基盤へと変貌しつつあります。背景には、マイニング収益の悪化と、AI開発競争による電力インフラ需要の爆発的な増加があります。この構造転換は、エネルギー産業の勢力図と金融システムの双方に新たな潮流を生み出しています。

Riot PlatformsやBitfarmsなど、米国の上場マイニング企業の多くがAIやHPC(高性能計算)分野への参入を表明しました。過去18ヶ月で少なくとも8社が方針転換を行い、総額430億ドル(約6兆円超)規模のAI関連契約が発表されています。AI企業はモデル学習に必要な膨大な電力とスペースに飢えており、マイナーが保有する大規模な電力インフラと「ハコ(データセンターの外郭)」は、即座にGPUを稼働させるための貴重な資産として再評価されています。

転換の最大の動機は明確な経済合理性です。2024年の半減期を経て採掘報酬が減少し、さらに足元でビットコイン価格が8万5000ドル付近まで調整したことで、マイニング事業の採算性は厳しさを増しています。対照的に、AIデータセンター事業は大手テック企業との長期契約により、安定的かつ高い利益率が見込めます。株式市場もこの動きを好感しており、AIへのピボットは株価上昇の強力な触媒として機能しています。

もっとも、このインフラ転用は技術的に容易ではありません。ビットコインマイニングは電力需給に応じて稼働を停止できる柔軟性がありますが、AIの学習処理には「99.999%以上」の稼働率と極めて安定した電力供給が求められます。既存施設の改装には発電機の追加など多額の投資が必要となりますが、テックジャイアントからの旺盛な需要と巨額の契約金が、そのハードルを越える原動力となっています。

この潮流はビットコインネットワーク自体に長期的なリスクをもたらす可能性があります。米国の計算能力(ハッシュレート)がAIへ流出すれば、ネットワークセキュリティ強度が低下しかねないからです。結果として、純粋なマイニング事業はエネルギーコストの安いパラグアイなどの海外地域や、国家安全保障の一環としてビットコインを戦略的に保有・採掘する主権国家の事業へと変質していく可能性があります。

米新興Unconventional AI、シードで評価額45億ドル

異例の巨額シード調達

調達額4.75億ドル、評価額45億ドル
a16zとLightspeedが主導

「生物並み」の効率目指す

AI向け高効率コンピュータを開発
生物学のようなエネルギー効率追求

創業者は連続起業家

過去にDatabricksへ事業売却
Intelへも売却経験ある実力者

DatabricksのAI責任者Naveen Rao氏が率いる新興企業Unconventional AIは2025年12月9日、シードラウンドにおいて4億7500万ドル(約710億円相当)の資金調達を完了したと発表しました。評価額はシード段階としては異例の45億ドル(約6750億円相当)に達しており、AIハードウェア分野への市場の期待値の高さが浮き彫りとなっています。

本ラウンドはAndreessen Horowitz (a16z) とLightspeed Venturesが主導し、Lux CapitalやDCVCも参画しました。今回の調達は、最大10億ドルを目指す資金調達計画の第一弾と位置付けられています。テック業界では以前からRao氏の新会社が50億ドル規模評価額を目指していると報じられており、今回の発表でその巨額構想が現実のものとなりました。

同社が目指すのは、AIに特化した新しいエネルギー効率の高いコンピュータの開発です。Rao氏は以前、「生物学と同じくらい効率的な」コンピュータを創るというビジョンを掲げていました。現在のAIモデル開発における膨大な電力消費課題を解決するため、根本的なハードウェアアーキテクチャの刷新を狙っていると見られます。

Rao氏は、これまでにAI関連スタートアップ2社を巨額で売却した実績を持つ「シリアルアントレプレナー」です。2016年にNervana SystemsをIntelへ4億ドル超で、2023年にはMosaicMLをDatabricks13億ドルで売却しました。この卓越した実績が、シードラウンドでの記録的な評価額投資家からの厚い信頼につながっています。

マイクロソフト、印に175億ドル投資。AIインフラと人材育成加速

巨額投資によるインフラ拡充

2029年までに175億ドル投資
アジア地域で過去最大規模の案件
ハイデラバードに新データセンター
競合Googleへの対抗を鮮明化

政府連携とAI人材育成

労働省PFにOpenAI統合
3億人超の非正規労働者を支援
2030年までに2000万人育成
規制対応の主権クラウド提供

マイクロソフトは2029年までにインド175億ドル(約2.6兆円)投資すると発表しました。同社のアジアにおける最大規模の投資であり、データセンターの拡充やAIインフラの整備、人材育成に充てられます。CEOのサティア・ナデラ氏が訪印し、モディ首相との会談に合わせて公表されました。

具体的には、2026年半ばまでにハイデラバードへ大規模なデータセンターを開設します。また、インド労働雇用省と連携し、3億人超が利用する雇用プラットフォームにAzure OpenAI Serviceを統合。求職マッチングや履歴書作成などのAIサービスを提供し、公的インフラの高度化を支援します。

人材育成も強化し、2030年までに2000万人にAIスキルを提供する計画です。Googleインドへの巨額投資を進める中、豊富な開発者基盤を持つ同国はテック巨人の主戦場となっています。電力供給などの課題は残るものの、政府のデジタル推進策と合致し、AIエコシステムの拡大が加速する見通しです。

米230団体がデータセンター新設停止を要求、規制強化へ

建設停止と規制強化の要求

米230超の団体が議会に書簡送付
新規建設のモラトリアムを要求
規制なき無秩序な拡大を懸念

AI普及による環境負荷と反発

AI需要で電気料金が高騰する恐れ
ガス依存による大気汚染リスク
地域住民による建設阻止の動きが拡大

米国の230を超える環境・市民団体が、連邦議会に対してデータセンターの新規建設を一時停止するよう求める書簡を送付しました。強力な規制が導入されるまで、電力料金の高騰や環境汚染を防ぐための措置が不可欠だと強く訴えています。

書簡では、AIや暗号資産ブームによるデータセンターの急増が、事実上の野放し状態であると警鐘を鳴らしています。これらの施設拡大は地域社会を混乱させ、経済や環境、さらには気候変動や水の安全保障に対する重大な脅威になっていると指摘されました。

特に懸念されるのが電力需要増に伴う電気料金の値上がりです。エネルギー企業によるガスインフラ拡張計画は、気候変動を加速させ、地域住民の健康を害する大気汚染をさらに悪化させる可能性があると警告されています。

水資源への負荷も甚大で、AIデータセンターの消費水量は2028年までに米国の1850万世帯分に達すると試算されています。こうした懸念から地域住民による反対運動も活発化しており、今年は推定20件の計画が阻止または停滞に追い込まれました。

元Intel CEO、新興xLightでムーアの法則救済 米支援

技術的革新とASMLとの共存

粒子加速器使う「自由電子レーザー」開発
光源を外部供給するユーティリティ方式
ASMLスキャナーへの統合目指し協業

国策投資とゲルシンガー氏の勝算

トランプ政権CHIPS法支援の第1号
政府が株式保有し国家競争力を強化
2029年の商用システム稼働目標

Intel CEOパット・ゲルシンガー氏が会長を務める半導体スタートアップxLightが、米商務省から最大1.5億ドルの支援確保に合意しました。粒子加速器を用いた次世代露光技術で、限界説が囁かれる「ムーアの法則」の復活を狙います。政府が株式を保有する異例の枠組みですが、ゲルシンガー氏は対中競争力を重視し、国策としての産業支援を正当化しています。

技術の核心は、粒子加速器を用いた巨大な「自由電子レーザー」です。ASMLが独占する現在のEUV技術より強力な光源を生成し、微細化を加速させます。装置内に光源を組み込むのではなく、工場外にフットボール場大の設備を建設し、電気や水道のように「光を供給」するユーティリティモデルを採用した点が画期的です。

業界の覇者ASMLとは敵対せず、協調路線をとっています。ASML製スキャナーにxLightの光源を統合する設計を進め、光学系のZeissとも連携中です。ピーター・ティール氏支援の競合Substrateなども現れましたが、ゲルシンガー氏は彼らを将来の顧客と位置づけ、エコシステムの構築に自信を見せます。

本件はトランプ政権第2期のCHIPS法適用第1号であり、政府が株主となる点が議論を呼んでいます。自由市場への介入懸念に対し、ゲルシンガー氏は「中国は国策で動いている」と反論。エネルギー政策同様、デジタル経済でも国家主導の投資が不可欠との現実的な立場を鮮明にしました。

xLightは2028年のウェハ製造、2029年の商用稼働を目指し、ニューヨーク州での建設も計画中です。Intelを去ったゲルシンガー氏ですが、「新人VC」として再び半導体の最前線に立ち、米国の技術覇権を取り戻す戦いに挑んでいます。

AIで隠れた地熱資源を発見、米新興が挑む再エネ革命

AIによる資源探査の突破口

米Zanskarがネバダ州で地熱資源を発見
地質データをAI解析し隠れた熱源を特定
数十年ぶりの発見、商用化へ前進

従来型地熱の課題とポテンシャル

地表に兆候がない盲目的システムの探査困難
偶然に頼る探査プロセスを技術で革新
人工造成より低コストな天然資源を活用
未発見資源は数百GW規模の潜在能力

米地熱スタートアップのザンスカー(Zanskar)は4日、AIを活用してネバダ州で商業的に有望な地熱資源を特定したと発表しました。業界で数十年ぶりとなるこの発見は、AI技術が再生可能エネルギー開発の最大の難関「資源探査」を劇的に効率化できることを証明するものです。

地熱発電は安定した再エネですが、適地の発見が困難でした。地表に兆候がない「隠れた熱水系」は、これまで石油掘削等の際に偶然発見されるケースが大半でした。同社は膨大な地質データをAIで解析し、この「干し草の中の針」を意図的に見つけ出すことに成功しました。

最近の注目は人工的に岩盤を破砕する「強化地熱システム(EGS)」でしたが、ザンスカーの手法は天然の熱源を探し当てます。これによりEGSに比べて複雑な工程や水資源を必要とせず、コスト競争力や環境負荷の面で優位性を持つ可能性があります。

専門家は、米国内の未発見の地熱資源が政府試算の30ギガワットを遥かに上回り、数百ギガワット規模に達すると指摘します。AIと掘削技術の融合は、化石燃料に依存しないベースロード電源の供給を拡大し、脱炭素社会実現への強力な推進力となるでしょう。

MIT、LLMの推論コストを半減させる動的調整技術を開発

推論コストの課題と解決策

従来は難易度によらず計算量が固定
新手法は問題ごとに計算量を動的調整
既存手法比で計算量を約半分に削減

技術の仕組みと成果

PRMで解決策の有望さを評価
過信を防ぐキャリブレーションを導入
小規模モデルでも高難度タスクが可能
生成AIのエネルギー消費削減に貢献

マサチューセッツ工科大学(MIT)の研究チームは、大規模言語モデル(LLM)が問題を解く際の計算量を最適化する新技術「インスタンス適応型スケーリング」を開発しました。問題の難易度に応じて思考時間を調整することで、精度を落とさずに計算コストを劇的に削減します。

従来の「推論時スケーリング」と呼ばれる手法では、問題の難易度に関わらず一定の計算予算を割り当てていました。そのため、簡単な質問に無駄なリソースを費やしたり、逆に複雑な推論を要する難問に対して思考時間が不足したりする非効率が生じていました。

新手法は、人間が問題の難しさに応じて思考の深さを変えるプロセスを模倣します。プロセス報酬モデル(PRM)を用いて、生成された部分的解決策が正解につながる確率をリアルタイムで評価し、有望な解決策のみに計算リソースを集中投下します。

研究チームは、PRMが自身の判断を過信しがちであるという課題に対し、確率スコアを正確に見積もるキャリブレーション手法も導入しました。これにより、AIは「何が分からないか」をより正確に認識し、必要な場合のみ計算予算を増やすことが可能になります。

実証実験では、数学的な推論タスクにおいて、既存手法と比較して計算量を約半分に抑えつつ同等の精度を達成しました。この技術により、リソースの少ない小規模なモデルであっても、複雑な問題において大規模モデルに匹敵する性能を発揮できる可能性があります。

この成果は、生成AIのエネルギー消費削減に寄与するだけでなく、推論コストがボトルネックとなっていた高度なAIエージェントの実用化を加速させます。自律的に学習し改善するAIシステムの構築に向けた、重要な一歩となるでしょう。

NVIDIA新基盤、最先端AIの推論速度と収益性を10倍へ

最先端AIの標準「MoE」

脳のように専門領域を分担し効率化
トップモデルの60%以上が採用

拡張を阻む「壁」を突破

従来のGPU連携では通信遅延が課題
72基のGPUを単一巨大化し解決

10倍の性能が拓く未来

電力対性能とトークン収益が10倍に
エージェント型AIの基盤としても最適

NVIDIAは3日、同社の最新システム「Blackwell NVL72」が、現在主流のAIアーキテクチャ「MoE(Mixture of Experts)」の推論性能を前世代比で10倍に高めると発表しました。DeepSeekMistralなどの最先端モデルにおいて、劇的な処理速度と電力効率の向上を実現し、AI運用の経済性を根本から変革します。

なぜ今、MoEが重要なのでしょうか。人間の脳の仕組みを模したこの技術は、タスクに応じて特定の「専門家(エキスパート)」パラメータのみを稼働させます。計算リソースを抑えつつ高度な知能を実現できるため、オープンソースのトップモデルの多くが採用していますが、その複雑さゆえに、従来のハードウェアでは大規模な展開が困難でした。

この課題に対し、NVIDIAは「Extreme Codesign」で応えました。NVL72システムは、最大72基のGPUを高速なNVLinkで結合し、あたかも「一つの巨大なGPU」として動作させます。これにより、メモリ帯域と通信遅延のボトルネックを解消し、大規模なMoEモデルを効率的に分散処理することが可能になりました。

その効果は絶大です。Kimi K2 ThinkingやMistral Large 3といったモデルでは、前世代のH200と比較して10倍のパフォーマンスを記録しました。これは単なる速度向上にとどまらず、電力あたりの生成能力、ひいてはトークン収益の10倍増を意味し、データセンターの収益構造を劇的に改善します。

さらに、このアーキテクチャは次世代の「エージェント型AI」にも最適です。複数の特化型AIが協調して動く未来のシステムは、本質的にMoEと同じ構造を持つからです。経営者エンジニアにとって、この新基盤への移行は、AIの生産性と市場競争力を高めるための必須条件となるでしょう。

MIT新ツール「Macro」:複雑な電力網計画を高速最適化

複雑化する電力計画の課題

AIや電化による電力需要の急増
再エネ導入に伴う供給不安定さへの対応

Macroの革新的機能

産業間の相互依存関係をモデル化
4つのコア要素で柔軟にシステム記述
大規模計算を並列処理で高速化

実用性と今後の展望

政策影響をリアルタイムで試算
オープンソースで商用・研究に無料公開

MITの研究チームは2025年12月3日、複雑化する電力システムの将来計画を支援する新しいモデリングツール「Macro」を発表しました。AIの普及や脱炭素化の進展により電力需要予測が困難になる中、このツールは発電容量や送電網の最適な設計を高速かつ高精度に導き出します。既存モデルを凌駕する拡張性を持ち、政策立案者やインフラ計画担当者にとって強力な武器となります。

現在、データセンターでのAI活用や輸送・建物の電化により、電力需要は爆発的に増加しています。一方で、風力や太陽光といった再生可能エネルギーは発電量が天候に左右されるため、安定供給には蓄電池やバックアップ電源との綿密な連携が不可欠です。従来の計画モデルでは、こうした変動要因や厳しい信頼性要件、さらには脱炭素目標を同時に満たす複雑なシミュレーションに限界が生じていました。

Macroは、MITが以前開発したGenXなどのモデルを基盤としつつ、より大規模で高解像度な解析を可能にしました。最大の特徴は、エネルギーシステムを「転送・貯蔵・変換・入出力」という4つの基本要素に分解して記述するアーキテクチャです。これにより、電力網だけでなく、水素やセメント生産といった他産業との相互依存関係も含めた包括的なモデル化を実現しました。

計算処理の面でも大きな進化を遂げています。Macroは巨大な問題を小さなタスクに分割し、複数のコンピュータで並列処理することが可能です。これにより、従来は近似計算に頼らざるを得なかった複雑な送電網の最適化問題なども、AI技術を組み合わせて高精度に解くことができます。また、Excelでのデータ入力に対応するなど、専門家以外でも扱いやすい設計がなされています。

今後は、政策立案者がリアルタイムで政策の影響を検証できるエミュレータとしての活用も期待されています。例えば、特定の炭素税導入が電力価格や排出量にどう影響するかを即座に可視化することが可能になります。Macroはオープンソースソフトウェアとして公開されており、すでに米国韓国インド中国の研究チームによってテスト運用が始まっています。

AWS、「自律AI」と「新チップ」で企業の生産性と収益性を刷新

自律型AIエージェントの台頭

指示から計画・実行まで担う自律型エージェントへ進化
開発用エージェントKiroは数日間の自律稼働が可能
配車大手Lyftは解決時間を87%短縮し成果を実証

独自チップとインフラの強化

チップTrainium3は前世代比で性能4倍・電力4割減
Trainium2は既に数十億ドル規模の収益事業に成長
Nvidiaとの相互運用性やオンプレミス対応も推進

カスタムAI開発の民主化

SageMaker等でサーバーレスのモデル調整が可能に
新モデル群Novaや構築代行サービスForgeを発表
データベース費用を最大35%削減する新プラン導入

AWS re:Invent 2025で示されたのは、AIが「アシスタント」から「エージェント」へと進化する未来です。AWSは自律的にタスクを遂行するAIエージェントと、それを支える高性能かつ低コストな独自インフラを同時に展開。企業が直面する生産性向上とコスト最適化の課題に対し、強力な解決策を提示しました。

目玉となるのは、自然言語の指示だけで計画から実行までを行う「Agentic AI」です。開発用エージェントKiroは、ユーザーの作業スタイルを学習し、数日間にわたり自律的にコーディングや修正を行います。Lyftの事例では、問い合わせ対応時間が87%短縮されるなど、実ビジネスでのインパクトが証明され始めています。

インフラ面では、Nvidiaへの対抗馬となる独自チップTrainium3を発表しました。前世代と比較して処理性能は最大4倍、消費電力は40%削減されています。現行のTrainium2はすでに数十億ドルの収益を生む事業に成長しており、Anthropicなどの主要AI企業が計算基盤として採用しています。

企業の競争力を左右する「カスタムモデル」の構築も容易になります。Amazon SageMakerなどにサーバーレスのカスタマイズ機能が追加され、インフラ管理なしで自社データを用いた調整が可能になりました。また、AWSがモデル構築を支援する「Nova Forge」も開始され、独自AIの実装障壁が大幅に下がります。

コストと運用面での現実的な解も提示されました。データベース利用料を最大35%削減する新プランの導入や、オンプレミス環境で最新AIを実行できる「AI Factories」の提供です。これらは、クラウドコストの増大やデータ主権の懸念を持つ企業にとって、AI導入を加速させる重要な後押しとなるでしょう。

AWS、新型AIチップTrainium3発表。Nvidia連携も視野

性能と効率が大幅に向上

前世代比で速度とメモリが4倍に進化
エネルギー効率が40%改善しコスト削減
最大100万チップの接続が可能

Nvidiaとの連携強化へ

次期Trainium4の開発を示唆
NvidiaNVLink Fusionに対応予定
既存のGPU資産との併用が可能に

AWSは年次イベント「re:Invent 2025」にて、自社開発の新型AIチップ「Trainium3」を発表しました。3ナノメートルプロセスを採用し、前世代から処理能力とエネルギー効率を大幅に強化しています。さらに、次世代機「Trainium4」ではNvidia製品との相互運用性を高める計画も明らかにし、AIインフラ市場での攻勢を強めています。

Trainium3を搭載した「UltraServer」は、前世代比で4倍の速度とメモリを提供します。特筆すべきは拡張性で、最大100万個のチップを連結可能です。これは前世代の10倍の規模であり、AIモデルの学習や推論における処理能力を飛躍的に高めます。

コストと環境への配慮も進化しました。新チップエネルギー効率が40%向上しており、電力消費の増大が課題となるデータセンター運用において重要な利点となります。すでにAnthropic日本のKarakuriなどが導入し、推論コストの削減を実現しています。

注目は次期モデル「Trainium4」の構想です。Nvidiaの高速相互接続技術であるNVLink Fusionへの対応を予定しており、Nvidia GPUAWS独自チップの併用が可能になります。これにより、Nvidiaエコシステムを取り込みつつ、柔軟なAIインフラの構築を支援します。

Liquid AI、エッジAI開発の「設計図」を全公開

企業向け小規模モデルの革新

51ページの技術レポートを公開
独自のLFM2アーキテクチャ詳解
CPU環境での推論効率を最大化
競合を凌ぐ処理速度と品質

実践的なハイブリッド戦略

自社データでのオンプレミス運用
画像音声対応のマルチモーダル
クラウド不要のローカル処理実現
エッジとクラウド協調動作

MIT発のスタートアップLiquid AIは2025年12月1日、最新AIモデル「LFM2」の技術レポートを公開しました。これは単なるモデル提供にとどまらず、企業が独自のハードウェア制約に合わせて高性能な小規模モデルを構築するための「設計図」を提供するものです。巨大なGPUクラスターを前提としないこのアプローチは、コストやプライバシーを重視する企業のAI戦略に、オンデバイスでの実用化という新たな選択肢をもたらします。

LFM2の最大の特徴は、一般的なCPUやモバイルSoC上での動作に最適化されている点です。独自開発されたハイブリッドアーキテクチャにより、同規模の競合モデルであるLlama 3.2やGemma 3と比較して、推論速度と品質の両面で高いパフォーマンスを発揮します。これにより、スマートフォンやノートPC、産業機器など、通信環境や電力に制約のあるエッジ環境でも、遅延の少ない高度なAI処理が可能になります。

今回公開された51ページのレポートでは、アーキテクチャ探索プロセスやトレーニングデータの混合比率、知識蒸留の手法など、モデル開発の詳細なレシピが明かされました。企業はこの情報を参照することで、ブラックボックス化した外部APIに依存することなく、自社のデータセンターデバイス上で完結するAIシステムを構築・運用できるようになります。これは、セキュリティ要件の厳しい産業分野において大きなアドバンテージです。

さらにLFM2は、テキストだけでなく画像音声にも対応するマルチモーダル機能を、トークン効率を極限まで高めた形で実装しています。現場でのドキュメント理解や音声操作といったタスクを、データを外部に送信することなくローカルで完結させることが現実的になります。Liquid AIの提示するこのモデルは、エッジとクラウドが適材適所で連携する「ハイブリッドAI」時代の標準的な構成要素となるでしょう。

GM、AIで電池開発加速 28年に新素材LMR実用化へ

AI活用による開発の高速化

開発期間を数か月から数日に短縮
AIシミュレーションで配合を最適化
ニッケル含有量等の即時分析が可能

新素材LMRと供給網の自立

新素材LMRバッテリーを採用
LFP並みの低コストで長航続距離
2028年に世界初の市場投入
北米でのサプライチェーン自立

ゼネラルモーターズ(GM)の幹部カート・ケルティ氏はMITでの講演で、EV普及の鍵となるバッテリー革新の戦略を明らかにしました。コスト削減、性能向上、そして北米でのサプライチェーン構築を三大柱として掲げ、次世代技術の商業化を急いでいます。

特筆すべきは、R&D;(研究開発)におけるAIと仮想化技術の活用です。従来数か月を要した材料配合の調整や性能評価のモデリングを数日に短縮することに成功しました。これにより、ニッケル含有量の微調整が安全性やエネルギー密度に与える影響を即座に予測可能です。

技術的な最大のブレークスルーは、リチウム・マンガン・リッチ(LMR)バッテリーの実用化です。高価なコバルトやニッケルを減らしてマンガンを増やすことで、中国勢が強みを持つLFPバッテリー並みの低コストと、高ニッケル電池に近い航続距離の両立を実現します。

LMR技術自体は既知でしたが、商業化には課題がありました。GMはこの壁を乗り越え、2028年に市場投入する最初の企業となる見込みです。これは、安価な中国製バッテリーに対抗し、北米での競争力を確保するための戦略的な一手となります。

さらに、EVを蓄電池として活用するV2G(Vehicle-to-Grid)技術や、データセンター向けのグリッド規模の蓄電市場にも意欲を見せました。ケルティ氏は、米国には技術革新の土壌があり、製造拠点の回帰と合わせて巨大なバッテリー産業を構築できると強調しています。

データセンター電力需要、35年に約3倍の106GWへ

AI主導で施設の巨大化が進む

2035年の電力需要106GWに急増
新規施設の平均は100MWを突破へ
AI処理が計算能力の40%を占有

石油超えの投資と電力網の課題

年間投資額は5800億ドルに到達
米東部などで電力への負荷が課題
規制当局による接続制限の議論も

ブルームバーグNEFは、世界のデータセンター電力需要が2035年までに現在の2.7倍に達するとの予測を発表しました。AI開発競争に伴う施設の急増と大型化が主因であり、今後のエネルギー市場や電力インフラに甚大な影響を与える可能性があります。

現在40ギガワットの需要は、10年後には106ギガワットへ拡大する見込みです。特筆すべきは施設の巨大化で、新規施設の平均消費電力は100メガワットを超え、一部は原発1基分に相当する1ギガワット規模に達すると予測されています。

この急増を牽引するのは生成AIなどの普及です。AIの学習・推論処理はデータセンターの計算能力の約40%を占めるようになり、施設全体の稼働率も現在の59%から69%へ高まると見られます。都市部での用地不足から、地方部での建設も加速しています。

市場の期待は大きく、データセンター関連への投資額は年間5800億ドルに達し、新規の石油探査への投資規模を上回りました。企業はより強力な計算基盤を求めて競争を続けており、この傾向は当面続くと考えられます。

一方で、電力供給の信頼性に対する懸念も強まっています。特に米国のPJM管内などでは送電網への負荷が問題視されており、独立監視機関が規制当局に対し、十分な容量が確保されるまで新規接続を待機させる権限行使を求める動きも出ています。

xAI、メンフィスDC隣接地に太陽光発電所を計画 電力確保へ

新設計画の規模とスペック

88エーカーの敷地を使用
発電能力は約30メガワットの見込み
データセンター所要電力約1割に相当

環境問題と規制リスクへの対応

ガスタービンの無許可稼働で批判
周辺地域でNOx濃度が急上昇との報告
住民からの健康被害の訴えが増加

資金調達と政治的文脈

開発企業が4億ドル超の公的支援を獲得
クリーンエネルギー予算削減下での異例措置

イーロン・マスク氏率いるxAIは、米国テネシー州メンフィスの巨大データセンター「Colossus」に隣接し、新たな太陽光発電を建設する計画を明らかにしました。88エーカーの敷地を活用し、AIモデルの学習に不可欠な電力を自社で確保する狙いです。

この新施設の発電能力は約30メガワットと推定されますが、これはデータセンター全体が必要とする電力約10%に過ぎません。依然として膨大なエネルギー需要を満たすには不足しており、あくまで補助的な電力源としての位置づけとなります。

xAIは現在、電力不足を補うために400メガワット規模の天然ガス・タービンを稼働させていますが、環境保護団体から無許可運転であるとの批判を受けています。周辺地域では大気汚染物質の濃度上昇や、住民の呼吸器系トラブルが報告され、懸念が高まっています。

一方で、本プロジェクトに関連する開発企業は、米国農務省から4億ドルを超える融資と助成金を確保しました。政権交代によりクリーンエネルギー支援が縮小傾向にある中で、AIインフラへの巨額投資が継続される点は注目に値します。

米政権、AI向け化学物質審査を迅速化 PFAS拡大の懸念

AI覇権に向けた規制緩和

AI・データセンター関連を優先審査
EPAの審査バックログ解消が目的
100MW以上の電力事業も対象

冷却技術と半導体への影響

液浸冷却用の新規化学物質が焦点
半導体製造工程の薬品も対象
化学・半導体業界は方針を歓迎

環境リスクと専門家の懸念

PFASなど有害物質の流入懸念
審査の質低下と抜け穴を警告

トランプ政権は2025年9月、AIデータセンター建設を加速させるため、環境保護庁(EPA)における新規化学物質の審査プロセスを迅速化する方針を打ち出しました。この「ファストトラック」政策は、米国の技術的覇権維持を目的とする一方、環境残留性が高い「永遠の化学物質(PFAS)」を含む新物質の流入を招くリスクが指摘されています。

この動きは、同年7月に発表された「AIアクションプラン」および関連する大統領令の一環です。EPAは、データセンターや100メガワット以上の電力関連プロジェクトに使用される化学物質を優先審査の対象と定義しました。リー・ゼルディンEPA長官は、前政権下で滞留していた審査案件を一掃し、重要なインフラ開発を阻害しないよう規制の壁を取り除くと表明しています。

特に影響が大きいとされるのが、データセンターの冷却技術と半導体製造です。サーバーを液体に浸して冷やす「液浸冷却」などの新技術には、PFASに関連するフッ素化合物が使用されるケースがあります。Chemoursなどの化学大手は、省エネ性能をアピールしつつ新制度を活用した製品投入を狙っており、半導体業界もこの規制緩和を強く後押ししています。

一方で、専門家からは懸念の声が上がっています。元EPA高官は、審査のスピード優先が科学的な安全性評価を損なう可能性や、データセンターに関連付けるだけで広範な化学物質が承認される「抜け穴」になる危険性を指摘します。企業にとっては迅速な市場投入が可能になる反面、将来的な環境汚染や健康被害に関する訴訟リスクを抱え込む可能性もあり、慎重な対応が求められます。

Amazon従業員千人がAI開発に警鐘、環境と雇用の懸念表明

過熱するAI開発への強い懸念

コスト度外視の開発姿勢を批判
環境破壊や民主主義への影響を危惧
化石燃料による電力供給の停止を要求
社内外から2400名以上が賛同

現場が直面するAI導入の課題

生産性倍増の圧力とツール品質の乖離
AIによる監視や自動化への不安
倫理的な作業部会の設置を提案

Amazonの従業員1,000人以上が、同社のAI開発姿勢に警鐘を鳴らす公開書簡に署名しました。書簡では、「コスト度外視」で進められる開発競争が、環境、雇用、そして民主主義に深刻なダメージを与える恐れがあると指摘しています。

背景には、生成AIブームに伴うデータセンターの建設ラッシュがあります。膨大な電力を消費するAIインフラのため、一部で石炭火力などの炭素排出源への回帰が見られることに対し、従業員らは2040年のネットゼロ目標との整合性を問いただしています。

現場のエンジニアからは、実用レベルに達していないAIツールの使用を強制されているとの声も上がっています。「生産性を2倍にせよ」という圧力の一方で、提供されるコード生成AIは品質が低く、かえって業務効率を阻害しているというのです。

書簡は、AI技術を従業員の監視や大量送還などの目的に使用しないことや、倫理的なAI利用を検討する作業部会の設置も求めています。これには現場の従業員も参加し、技術導入のプロセスに透明性を持たせる狙いがあります。

今回の動きは、ブラックフライデー商戦を前に、AI開発の「隠れたコスト」を社会に訴えるものです。経営者は、AIによる生産性向上を急ぐあまり、従業員の信頼や企業の持続可能性を損なわないよう、慎重な舵取りが求められます。

米「ジェネシス計画」始動 AI国家基盤化と規制を巡る攻防

科学発見加速へ「ジェネシス」始動

国立研究所とスパコンを統合する閉ループAI基盤
科学研究サイクルを数年から数ヶ月へ短縮

民間連携と不透明な予算構造

OpenAI等主要企業が参画、計算資源支援の側面も
具体的な予算措置や費用負担は明示されず

州規制無効化案の頓挫

David Sacks氏主導の州法無効化は反発で延期
政治的対立を避けインフラ整備を先行発表

米政府は2025年11月、AIによる科学発見を加速する国家プロジェクト「ジェネシス・ミッション」を発表しました。エネルギー省(DOE)傘下の国立研究所やスパコンを統合する野心的な計画ですが、同時に検討されていた州独自のAI規制を無効化する大統領令は見送られました。

本計画は「マンハッタン計画」に匹敵する規模とされ、17の国立研究所と数十年分のデータを閉ループのAI実験プラットフォームとして統合します。物理学からバイオ技術まで、科学研究のサイクルを「数年から数ヶ月」に短縮し、研究開発の生産性倍増を目指します。

協力リストにはOpenAIGoogleNVIDIAなど主要AI企業が名を連ねます。計算資源と電力コストの高騰に苦しむ民間企業にとって、公的インフラへのアクセスは事実上の補助金になり得るとの指摘もあり、その恩恵の行方に注目が集まります。

重大な懸念点は予算の裏付けがないことです。誰が巨額の構築費を負担し、どのような条件で民間がアクセスできるかは未定です。一方で、政府はデータ管理やセキュリティの標準化を進めており、これが将来の業界標準になる可能性があります。

政治的背景として、David Sacks特別顧問は当初、州のAI規制を連邦権限で上書きする強硬な大統領令を準備していました。しかし、この「パワープレイ」は与野党双方からの激しい反発を招き、結果として政治的リスクの低いジェネシス計画が先行して発表された経緯があります。

企業リーダーは、政府主導のデータガバナンスや閉ループ実験モデルが今後の標準となる可能性を注視すべきです。特に規制産業では、連邦レベルのセキュリティ基準や相互運用性が競争条件となるため、早期の対応準備が求められます。

Google、第7世代TPU「Ironwood」提供開始 推論性能4倍へ

AI推論に特化した第7世代

前世代比で性能が4倍以上向上
業界最高水準のエネルギー効率

大規模な相互接続とメモリ

最大9,216チップを接続可能
1.77PBの共有メモリ

AIが設計するハードウェア

AlphaChipによる設計最適化
研究部門と連携し開発加速

Googleは25日、第7世代TPU「Ironwood」をクラウド顧客向けに提供開始しました。AIの推論処理に特化し、前世代と比較してチップあたりの性能を4倍以上に高め、最もエネルギー効率に優れたチップとなっています。

AI開発の主戦場が学習から活用へと移る中、Ironwoodは大量のデータを低遅延で処理するよう設計されました。これにより、複雑なモデルも高速かつスムーズに動作し、企業の生産性向上に大きく寄与します。

特筆すべきは圧倒的な拡張性です。最大9,216個のチップを高速ネットワークで相互接続し、1.77ペタバイトもの共有メモリを利用可能にすることで、大規模モデルにおけるデータ転送のボトルネックを解消しました。

設計にはGoogle DeepMindが協力し、AIを用いてチップ配置を最適化する「AlphaChip」を活用しています。AI自身が次世代のハードウェアを進化させる好循環を生み出し、競合他社との差別化を図っています。

AIが加速する脱炭素:送電網制御と素材開発の最前線

送電網の自律制御と安定化

再エネの出力変動をAIで調整
EVや機器連携で電力需要を柔軟化
予知保全による停電リスクの回避

インフラ計画と素材開発の革新

気候リスク予測で投資計画を最適化
規制文書分析で承認プロセス短縮
新素材開発を数十年から数年に短縮

AIの電力消費増大が懸念される一方、マサチューセッツ工科大学(MIT)は2025年11月、AIこそがクリーンエネルギー移行の切り札になると提言しました。送電網の複雑な制御から画期的な新素材開発に至るまで、AI技術がエネルギー産業の構造的課題を解決する鍵となります。最新の研究成果に基づき、脱炭素社会実現に向けた具体的なAI活用戦略を解説します。

最も即効性が高い領域は電力網(グリッド)の高度化です。太陽光や風力といった天候任せの再エネ電源が増える中、AIは需給バランスをマイクロ秒単位で調整します。EVの充電タイミング制御やデータセンターの負荷調整を通じて需要側を柔軟に管理し、老朽化した設備の故障を予知して大規模停電を防ぐ役割も担います。

将来のインフラ投資計画においてもAIは不可欠です。気候変動による異常気象リスクや、複雑化する電源構成をシミュレーションし、最適な設備投資を導き出します。さらに、膨大な規制文書を大規模言語モデル(LLM)で解析することで、認可申請プロセスを効率化し、プロジェクトの遅延を防ぐことが可能です。

特筆すべきは新素材開発の劇的な加速です。従来は数十年を要した次世代バッテリーや原子炉用材料の開発期間を、AIとロボット実験の連携により数年単位に短縮できます。AIは過去の膨大な論文を学習し、最適な実験手順を提案・実行することで、人間には不可能な速度でイノベーションを創出します。

MITエネルギーイニシアティブ(MITEI)は、核融合炉の制御やデータセンター自体の省エネ化にもAIを活用しています。技術者、経済学者、政策立案者が連携し、AIと物理インフラを融合させることが、安定かつクリーンなエネルギー社会実現の必須条件です。

Meta、AI電力確保へ電力取引事業に参入申請

AIデータセンターの電力確保

Meta電力取引事業への参入を申請
AIデータセンターに必要な電力確保が目的
新規発電所の建設を加速させる狙い

リスク軽減と業界動向

長期契約と余剰電力の再販リスクヘッジ
Microsoftも申請中、Apple承認済み
ルイジアナ州拠点にガス発電所3基が必要

Metaは、AIデータセンターの稼働に必要な電力を安定確保するため、米連邦政府に対して電力取引事業への参入許可を申請しました。この動きは、急増するAI需要に対応するための新規発電所の建設を加速させる狙いがあります。

承認されれば、Metaは新設発電所からの長期的な電力購入を確約できるようになります。同時に、余剰電力を卸売市場で再販する権利を持つことで、長期契約に伴う財務リスクを軽減する仕組みを構築する計画です。

同様の申請はMicrosoftも行っており、Appleはすでに承認を取得済みです。Metaエネルギー責任者は、電力会社に対しより積極的な関与姿勢(skin in the game)を示す必要があると強調しています。

AI開発競争の裏で、テック企業の電力需要前例のない規模に膨れ上がっています。例えばルイジアナ州のデータセンターだけでも、新たに3基のガス火力発電所が必要とされるほど、インフラ整備が急務となっています。

重工業の安全手順をAI監査、数年の作業を2カ月に短縮

AIによる安全手順の自動監査

重工業のSOPをLLMで自動監査
規制や図面と照合しエラーを検出

圧倒的なコスト削減と効率化

数年分の作業を2.5ヶ月で完了
手動換算で3500万ドル相当を削減
10年間放置の重大リスクを発見

現場起点の強みと市場性

創業者石油産業背景が信頼獲得
米国だけで2.7万社の巨大市場
現場作業員からも高い支持を獲得

産業用AIスタートアップ「Interface」が、重工業の安全管理に革命を起こしています。同社はLLMを活用して膨大な安全手順書を自動監査し、カナダの大手エネルギー企業において、通常なら数年を要する確認作業をわずか2.5ヶ月で完了させました。

重工業の現場では、作業員が依存する手順書に誤りや古い情報が含まれていることが多く、事故のリスクとなっています。InterfaceはAIを用いて、これらの文書を規制や技術図面と自律的に照合し、人手では不可能な速度と精度でミスを特定します。

導入効果は劇的です。前述のエネルギー企業では、手動で行えば3500万ドル以上のコストがかかる作業を短期間で実施し、1万800件もの修正点を提示しました。中には10年間も誤ったバルブ圧力値が記載されていたケースもあり、重大事故を未然に防いでいます。

ビジネスモデルは、座席数に応じたハイブリッド課金を採用しており、単一契約で年間250万ドルを超える規模に成長しています。Defy.vcなどが主導するシードラウンドで350万ドルを調達し、ヒューストンやブラジルなどへの展開も進めています。

創業者のThomas Lee Young氏はトリニダード・トバゴ出身で、石油インフラに囲まれて育った背景を持ちます。この「現場感」が、ソフトウェアを敬遠しがちな現場作業員からの信頼獲得に繋がり、米国だけで2万7000社存在する巨大市場への切り込み隊長となっています。

Google、AI需要対応でインフラ能力を半年毎に倍増へ

驚異的な拡張目標と制約

半年ごとに処理能力を倍増
4〜5年で1000倍に拡大
コストと電力消費は維持が条件

激化するインフラ開発競争

単なる投資額競争ではない
信頼性と拡張性で差別化図る
OpenAI巨額投資を継続中

GoogleのAIインフラ責任者アミン・ヴァダット氏は今月、全社会議にてAIサービスの需要急増に対応するため、サーバー能力を6ヶ月ごとに倍増させる必要があると明言しました。現場ではインフラ供給が追いつかない状況が続いています。

同氏は今後4〜5年で1000倍の規模拡大を目指すという野心的な計画を提示しました。さらに、この拡張を「実質的に同じコストと電力消費」で実現しなければならないという、技術的に極めて高いハードルも同時に課しています。

AIインフラ競争は最も重要かつ高コストな領域です。単に資金を投じるだけでなく、競合他社よりも信頼性と性能に優れたシステムを構築できるかが、今後のAIレースの勝敗を分ける鍵となると強調しました。

OpenAIも数千億ドル規模のデータセンター建設を計画するなど、テック大手による設備投資競争は過熱しています。Googleは既存サービスへのAI統合を進める中で、これら膨大な計算需要を効率的に処理する体制構築を急ぎます。

米ウェスチングハウスとGoogle提携 AIで原発建設加速

急増する電力需要への対応

2030年までに10基の原子炉建設へ
AI普及に伴う電力不足の解消が狙い

建設プロセスをAIで革新

Google提携工期とコスト削減
デジタルツインボトルネック予測

老舗企業の高度なDX戦略

75年分の知見を生成AIに集約
独自AIインフラで厳しい規制に対応

米原子力大手ウェスチングハウスは、Google Cloudとの戦略的提携を発表しました。AI普及により急増する電力需要に応えるため、同社の次世代原子炉「AP1000」の建設プロジェクトに最新のAI技術を導入し、工期の短縮と効率化を目指します。

同社は2030年までに10基の原子炉建設を開始する計画ですが、複雑な承認プロセスや建設遅延が課題でした。建設コストの約6割を占める工程管理にメスを入れるため、GoogleのAIモデルを活用し、膨大なタスクの順序最適化を行います。

特筆すべきは、創業140年の老舗でありながら高度なAI基盤を有している点です。75年分の技術文書を学習した生成AI「Bertha」や、規制に対応したインフラ「Hive」を構築済みで、これらをGoogleの技術と統合し相乗効果を生み出します。

この取り組みは「AIのためのエネルギーエネルギーのためのAI」という概念に基づいています。デジタルツイン技術とAIを組み合わせることで、建設だけでなく保守や許認可手続きの迅速化も図り、クリーンエネルギー供給を加速させます。

印TCSとTPG、AIデータセンターに20億ドル投資へ

20億ドル規模の新プロジェクト

印TCSと米TPGが提携
総額20億ドル投資
AI向けDC「HyperVault」
TPGが10億ドルを出資

インド市場の深刻な需給ギャップ

世界のデータ20%を生成
DC容量は世界3%のみ
AI需要でインフラ不足深刻

技術仕様と環境への課題

水冷式・高密度設計を採用
初期容量1.2GWを計画
大量の水・電力消費が懸念

インドIT最大手のタタ・コンサルタンシー・サービシズ(TCS)は、米投資会社TPGから10億ドルの出資を受け、総額20億ドルのAIデータセンター構築プロジェクト「HyperVault」を開始します。急増するAIコンピュート需要に対応し、国内インフラを強化する狙いです。

インドは世界のデータの約20%を生成する一方、データセンター容量は世界全体のわずか3%にとどまっています。この深刻な需給ギャップを埋めるため、GoogleMicrosoftなどの巨大テック企業も相次いで数十億ドル規模の投資を行っています。

新プロジェクトでは、AIの高度な計算処理に耐えうる水冷式・高密度データセンターを開発します。初期段階で約1.2ギガワットの容量を構築し、ハイパースケーラーやAI企業向けにインフラを提供・運用する計画です。

一方で、高性能なGPUサーバーは大量の電力と冷却水を必要とします。慢性的な水不足や電力インフラへの負荷が懸念されるインドにおいて、安定的かつ持続可能な資源確保が、プロジェクト成功の鍵を握ることになるでしょう。

NVIDIAのAI基盤、都市運営を「事後」から「事前」へ変革

デジタルツインとAIの融合

OpenUSDで物理AIを統合管理
仮想空間で「もしも」のシナリオ検証
Cosmosで合成データを生成し学習
Metropolisでリアルタイム分析

世界各国の導入事例と成果

台湾・高雄市で対応時間を80%短縮
仏鉄道網でエネルギー消費20%削減
米国ローリー市で検知精度95%
イタリア年間70億件を処理

NVIDIAは、都市インフラの課題解決に向けた包括的な「スマートシティAIブループリント」を発表しました。デジタルツインとAIエージェントを組み合わせることで、交通渋滞や緊急対応といった複雑な課題に対し、シミュレーションに基づいた最適な意思決定を支援します。

技術の中核は、物理AIワークフロー全体を接続するOpenUSDフレームワークです。OmniverseとCosmosを活用して仮想空間内で合成データを生成し、AIモデルを学習させます。これにより、都市は現実で起こりうる多様なシナリオを事前に検証可能となります。

台湾の高雄市では、Linker Visionの物理AIシステムを採用し、街路灯の破損などのインシデント対応時間を80%短縮しました。手作業による巡回を廃止し、迅速な緊急対応を実現することで、都市機能の維持管理を効率化しています。

フランスの鉄道事業者SNCFは、Akilaのデジタルツインを活用して駅の運営を最適化しました。太陽熱や人の動きを予測することで、エネルギー消費を20%削減し、設備のダウンタイムも半減させるなど、大幅な効率化に成功しています。

米国ノースカロライナ州ローリー市では、EsriとMicrosoftの技術を統合し、車両検知の精度を95%まで向上させました。交通分析のワークフローを改善し、インフラ計画や管理に必要な包括的な視覚情報をリアルタイムで得ています。

これらの事例が示すように、NVIDIAの技術は都市運営を従来の「事後対応型」から、データに基づく「事前予測型」へと変革しています。世界中の都市がデジタルツインとAIエージェントを導入し、持続可能で効率的な都市づくりを加速させています。

Ai2が「Olmo 3」公開、完全透明性と推論力で企業支援

完全な透明性と操作性

学習データや過程を完全公開
企業独自のカスタマイズが容易
商用可能なApache 2.0採用

推論能力と効率の向上

思考過程が見えるThinkモデル
計算効率が従来の2.5倍に向上
LlamaQwenに対抗する性能

非営利AI研究機関のAi2は、完全な透明性を備えた最新LLMファミリー「Olmo 3」を公開しました。企業が求めるデータプライバシーと制御性を重視し、学習データからチェックポイントまで全てオープンソースとして提供します。

ラインナップは、高度な推論を行う「Think」、基盤となる「Base」、指示追従に優れた「Instruct」の3種です。特にThinkモデルは、推論プロセス(思考の連鎖)を明示的に出力できる初の完全オープンな32Bモデルとなります。

最大の特徴は、ブラックボックス化が進む商用AIに対する透明性の確保です。GoogleOpenAI推論過程を隠す傾向にある中、Olmo 3は企業がモデルの挙動を完全に把握し、デバッグや監査を行うことを可能にします。

企業ごとのカスタマイズ性も大幅に強化されました。「万能な解決策はない」という思想のもと、主要な学習段階ごとのチェックポイントを提供し、企業が自社データを追加して再学習(ファインチューニング)しやすい設計となっています。

性能面では、メタのLlama 3.1や中国Qwenに対抗しうると主張しています。特に計算効率は従来比で2.5倍に向上しており、より少ないコストとエネルギーで高性能な推論処理を実現している点が強みです。

AI不倫訴訟と詐欺SaaS化、米データ監視問題の教訓

AIの法的リスクと犯罪の産業化

AIへの感情依存が離婚や親権争いの`法的火種`に
OpenAIは対話ログの秘匿特権を主張も議論は平行線
Googleが詐欺ツール販売網`Lighthouse`を提訴
犯罪もサブスク型へ、技術不要で参入障壁が低下

インフラ戦略と監視社会の死角

データセンター適地は再エネと水資源豊富な`中西部`
DHSが不正確な警察データを違法収集し監視テストに利用
データ連携の加速が招く`プライバシー侵害`の懸念

WIREDの報道から、経営者が今押さえるべきテック業界の重要トピックを解説します。AIとの関係がもたらす新たな法的リスク、サイバー犯罪のエコシステム化、そして政府によるデータ活用の暴走など、技術進化が引き起こす社会的な摩擦とビジネスへの影響について、その核心を紐解きます。

「AI不倫」が現実的な法的リスクとして浮上してきました。チャットボットへの過度な感情的依存や性的な対話が、離婚訴訟における`不貞行為`に準ずる扱いを受ける事例が出ています。AIへの課金が家計への背信行為とみなされたり、親権争いで親としての判断能力を問う材料にされたりする可能性があります。

これに関連し、OpenAIはユーザーの会話ログ開示を拒む姿勢を見せています。同社は弁護士・依頼人間のような「秘匿特権」を主張しますが、Google検索履歴と同様に企業へ預けたデータであるとの反論もあり、議論は紛糾しています。企業内利用においても、ログの`監査とプライバシー`の境界線は曖昧なままです。

サイバーセキュリティ分野では、犯罪の「SaaS化」が脅威です。Googleは詐欺ツール販売網「Lighthouse」を提訴しましたが、彼らは月額サブスクリプションで攻撃キットを提供し、技術力のない犯罪者の参入を容易にしています。攻撃の産業化・組織化を前提とした、より強固な`防御態勢`が不可欠です。

インフラ投資の視点では、米国内のデータセンター建設地としてテキサス州や中西部が有望視されています。AI基盤の維持には膨大な電力と冷却水が必要であり、再生可能エネルギーの供給力と水資源の確保が、今後のインフラ戦略における決定的な`競争優位性`となる見通しです。

データガバナンスの課題も露呈しました。国土安全保障省(DHS)がシカゴ警察の不正確なギャング情報を違法に収集し、監視リストのテストに利用していたことが発覚しました。組織間の安易なデータ統合は、誤った情報に基づく不当な監視や排除を招く恐れがあり、厳格な`コンプライアンス管理`が求められます。

NVIDIAがスパコン市場を独占、AI融合で科学発見を加速

スパコン市場の構造的転換

TOP100の88%がアクセラレーテッド
CPU単独システムは15%未満に激減
Green500上位8枠をNVIDIAが独占

科学技術賞候補を総なめ

ゴードン・ベル賞候補5組全てが採用
津波予測計算を100億倍高速化
気候モデルで1km解像度を実現

AIとシミュレーションの融合

欧州初エクサ級JUPITERが稼働
GH200がAIと計算性能を両立

2025年11月18日、NVIDIAはSC25において、スパコン界の最高権威ゴードン・ベル賞のファイナリスト5チームすべてが同社の技術を採用していると発表しました。AIとシミュレーションの融合により、科学計算の常識が覆されつつあります。

かつてCPUが主流だったスパコン市場は、「グレート・フリップ」と呼ばれる大転換を迎えました。現在、世界TOP100システムの88%がGPUなどのアクセラレータを採用しており、そのうち8割をNVIDIA GPUが駆動しています。

特筆すべき成果として、テキサス大学オースチン校などのチームはデジタルツインを用いた津波予測において、従来50年要した計算をわずか0.2秒で完了させ、100億倍の高速化を実現しました。これにより災害時のリアルタイム対応が可能になります。

気候変動対策でも画期的な進展が見られます。スイスのスパコン「Alps」を用いたICONプロジェクトは、地球全体を1km解像度シミュレーションすることに成功。24時間で146日分の気象変化を予測し、長期的な気候モデルの精度を飛躍的に高めました。

欧州初のエクサスケールスパコン「JUPITER」は、シミュレーション性能だけでなく、116 AIエクサフロップスという驚異的なAI処理能力を提供します。省電力性能を示すGreen500でも上位をNVIDIA搭載機が独占し、効率と性能の両立を証明しました。

これらの成果は、GH200 Grace Hopperなどの最新チップとCUDA-Xライブラリの進化によるものです。ナノスケールのトランジスタ設計や宇宙船エンジンの排気シミュレーションなど、多岐にわたる分野で人類の課題解決を加速させています。

GoogleピチャイCEO、過熱するAI投資の「非合理性」に警鐘

市場の過熱とGoogleの優位性

兆ドル規模のAI投資非合理性あり
バブル懸念も自社はフルスタックで強み
独自チップYouTubeデータを保有

AI活用とエネルギー課題

AIの出力を盲信すべきではない
創造的用途で活用し適応力を高める
電力消費増で気候目標進捗に影響も

Googleのサンダー・ピチャイCEOは2025年11月、BBCとのインタビューで、過熱するAI投資ブームには「非合理性」が含まれていると警告しました。市場のバブル懸念に対し、同氏は自社の「フルスタック」な技術基盤が競争優位になると強調。AIへの過信を戒めつつ、社会的な適応の必要性を訴えています。

ピチャイ氏は、どの企業もバブル崩壊の影響を免れないとしつつ、Google独自の立ち位置に自信を見せました。半導体からYouTubeデータ、最先端の研究まで、フルスタックで技術を保有する統合的なアプローチが、市場の混乱を乗り越える鍵になると語ります。

AIツールの利用に関しては、出力を盲信すべきではないと注意を促しました。現状では正確性に課題が残るものの、創造的な執筆など得意分野での活用が推奨されます。AIに適応し使いこなすスキルを習得した人材こそが、職業人生で成功を収めると予測しています。

AIの膨大なエネルギー需要についても言及があり、2030年のネットゼロ目標の達成ペースに遅れが生じる可能性を認めました。しかし、エネルギー制約が経済に悪影響を及ぼすリスクも指摘し、エネルギー技術への投資を通じて目標達成を目指す姿勢を崩していません。

MIT会議、送電網強靭化と対中競争・連携強化が焦点に

産学連携と送電網の強靭化

技術革新へスタートアップ連携が必須
スペイン停電受け送電網の強靭化を議論
データセンター電力フォーラムを発足

脱炭素技術と商業化の壁

2050年に300TWhの蓄電が必要
特許の商業化率はわずか4.2%と判明
持続可能燃料の研究を26年から拡大

中国優位と米国の政策課題

中国クリーンテック競争で優位に
米国政策の一貫性欠如が弱点

マサチューセッツ工科大学(MITエネルギーイニシアチブ(MITEI)は年次研究会議を開催し、エネルギー転換における産学官連携、送電網の強靭化、米中競争の行方を主要テーマとして議論しました。2025年4月のスペイン大規模停電や中国のクリーンテック優位性を背景に、参加者は技術革新の加速と政策の安定性が急務であるとの認識を共有しています。

会議では、単独でのイノベーションは限界に達しており、スタートアップや大学とのパートナーシップが不可欠であると強調されました。特に再生可能エネルギーの統合やデータセンターの需要増大に伴い、既存の電力システムへの負荷が懸念されています。これを受け、MITEIは新たに「データセンター電力フォーラム」を立ち上げ、インフラ強化と緊急時計画の策定に向けた議論を主導する方針です。

脱炭素化の実現に向けた技術的課題も浮き彫りになりました。2050年の目標達成には300テラワット時の蓄電容量が必要と試算されていますが、特許の商業化率はわずか4.2%に留まっています。MIT発の高温熱貯蔵技術や持続可能な燃料開発への期待が高まる一方で、研究室から市場への橋渡しを行う支援体制の強化が求められています。

地政学的リスクについては、中国が風力や太陽光分野で圧倒的なシェアを握る中、米国政策の一貫性欠如が競争力低下の要因として指摘されました。一方で、電池製造における米中企業の合弁事業など、現実的な供給網強化の動きも見られます。専門家は、米国が競争力を取り戻すには、長期的な超党派のエネルギー政策と国際的な協力体制の構築が必要だと結論付けています。

AIバブルの正体と副作用:生産性なき熱狂とインフラ枯渇

AI投資と生産性の乖離

AI導入人員削減の口実の可能性
マクロでの生産性向上は未確認
インターネット普及期と同様の遅効性

データセンター特需の影

建設ラッシュが電気設備不足を招く
他産業の設備投資を圧迫する副作用
米国製造能力低下への懸念

Bloombergの人気ポッドキャスト「Odd Lots」のホスト、ジョー・ワイゼンソール氏がWIREDのインタビューに応じ、過熱するAI投資米国経済の実相について語りました。同氏は、株式市場がAIブームで活況を呈する一方で、実体経済における生産性向上の効果には懐疑的な見方を示しています。経営者投資家は、AIバブルがもたらすリソース配分の歪みと、その背後にある構造的な課題を注視する必要があります。

多くの企業がAI活用を掲げていますが、ワイゼンソール氏はこれが人員削減を正当化するための「空爆支援」として使われている可能性を指摘します。現時点でAIツールがホワイトカラーの業務を劇的に代替し、統計的な生産性を押し上げている証拠は乏しいのが実情です。過去のIT革命同様、テクノロジーの普及と成果の間にはタイムラグが存在する可能性があります。

看過できないのは、AIインフラへの巨額投資が引き起こす「クラウディングアウト(締め出し)」効果です。データセンター建設のために発電タービンや変圧器などの電気設備が買い占められ、一般的な商業施設や工場の建設に必要な資材が枯渇しています。資本力のあるテック企業がリソースを吸い上げることで、他産業の設備投資や成長が阻害される副作用が生じています。

米国経済の足元には、ボーイングやインテルに象徴される製造能力の低下という深刻な課題も横たわっています。中国との競争やサプライチェーンの脆弱性は懸念材料ですが、一方で米国には圧倒的なエネルギー資源と富があり、仮に孤立しても自給自足が可能であるという強靭さも併せ持っています。AIバブルの行方は、こうしたマクロ経済の強弱と複雑に絡み合っています。

元インテルCEO出資、電力半減チップ新興企業

AI時代の電力問題を解決

AI需要で逼迫する電力供給
チップ電力消費を50%以上削減
プロセッサ直近で電力を供給
エネルギー損失を大幅に最小化

元インテルCEOも絶賛

シリーズAで2500万ドルを調達
ゲルシンガー氏が技術を高く評価
TSMC初回ロットを生産中
2026年前半に顧客テスト開始

半導体スタートアップのPowerLattice社が、元インテルCEOのパット・ゲルシンガー氏がパートナーを務めるベンチャーキャピタルなどからシリーズAで2500万ドル(約37億円)を調達しました。同社は、AIの普及で急増するデータセンター電力消費を50%以上削減する画期的なチップレット技術を開発。業界のベテランが集結し、エネルギー効率の課題解決に挑みます。

AIモデルの学習や推論には膨大な計算能力が必要で、データセンター電力不足はテック業界共通の課題です。この状況を受け、半導体メーカーにとってエネルギー効率の向上は今や最優先事項。PowerLattice社の挑戦は、まさにこの時代の要請に応えるものです。

同社が開発したのは、プロセッサのすぐ近くに電力を供給する小型の「電力供給チップレット」です。電力の伝送距離を極限まで短くすることで、エネルギー損失を大幅に削減するという、コンセプトはシンプルながら極めて効果的な手法です。この革新が50%以上の電力削減を実現します。

今回の投資を主導したPlayground Globalのパートナーであり、元インテルCEOのゲルシンガー氏は、PowerLatticeのチームを「電力供給のドリームチーム」と絶賛。彼の参加は、同社の技術力と将来性に対する強力な信任の証と言えるでしょう。

PowerLatticeはすでに最初のマイルストーンを達成しています。最初のチップレットは半導体受託製造最大手のTSMCで生産が始まっており、匿名の提携メーカーが機能テストを実施中です。2026年前半には、より多くの顧客がテストできる体制を整える計画です。

潜在顧客はNvidiaやAMDといった大手から、特定のAIに特化したチップ開発企業まで多岐にわたります。競合も存在しますが、ゲルシンガー氏は「50%の効率改善は並外れた成果」と述べ、同社の技術が市場で大きなシェアを獲得すると確信しています。

NVIDIA、スパコン革新で科学技術の新時代へ

AI物理モデルと新ハード

AI物理モデルApollo発表
次世代DPU BlueField-4
量子連携技術NVQLink

世界80以上のスパコン採用

米学術最大級Horizon構築
エネルギー省に7基導入
日本の理研も新システム採用
欧州初のExascale機も

NVIDIAは、先日開催されたスーパーコンピューティング会議「SC25」で、AI時代の科学技術計算をリードする一連の革新技術を発表しました。シミュレーションを加速するAI物理モデルApolloや、データセンターの頭脳となる次世代DPU BlueField-4、量子コンピュータと連携するNVQLinkなどが含まれます。これらの技術は世界80以上の新システムに採用され、研究開発のフロンティアを大きく押し広げます。

特に注目されるのが、AI物理モデル群「Apollo」です。これは、電子デバイス設計から流体力学、気候変動予測まで、幅広い分野のシミュレーションをAIで高速化するものです。従来手法より桁違いに速く設計空間を探索できるため、SiemensやApplied Materialsなどの業界リーダーが既に採用を表明。製品開発サイクルの劇的な短縮が期待されます。

AIファクトリーのOSを担うのが、次世代データ処理装置(DPU)「BlueField-4」です。ネットワーク、ストレージ、セキュリティといった重要機能をCPUやGPUからオフロードすることで、計算リソースをAIワークロードに集中させます。これにより、データセンター全体の性能と効率、そしてセキュリティを飛躍的に向上させることが可能になります。

これらの最先端技術は、世界中のスーパーコンピュータで採用が加速しています。テキサス大学の学術機関向けでは米国最大となる「Horizon」や、米国エネルギー省の7つの新システム、日本の理化学研究所のAI・量子計算システムなどがNVIDIAプラットフォームで構築されます。科学技術計算のインフラが、新たな次元へと進化しているのです。

さらに未来を見据え、NVIDIAは量子コンピューティングとの連携も強化します。新技術「NVQLink」は、GPUスーパーコンピュータと量子プロセッサを直接接続するユニバーサルなインターコネクトです。これにより、古典計算と量子計算を組み合わせたハイブリッドなワークフローが実用的になり、これまで解けなかった複雑な問題への挑戦が始まります。

一連の発表は、NVIDIAが単なるハードウェア供給者ではなく、AI時代の科学技術インフラをソフトウェア、ハードウェアエコシステム全体で定義する存在であることを示しています。経営者エンジニアにとって、このプラットフォーム上でどのような価値を創造できるか、その真価が問われる時代が到来したと言えるでしょう。

Google、AI天気予報を刷新 8倍高速・高精度化

性能が飛躍的に向上

予測生成が8倍高速化
TPU1分未満の予測完了
最大15日先、1時間単位の予報
新技術で複数シナリオを生成

ビジネス・研究利用を加速

Google主要サービスに順次統合
エネルギーや物流業界などへ提供
Vertex AIで早期アクセス開始
研究者向けに予測データも公開

Googleは2025年11月17日、AIを活用した最新の天気予報モデル「WeatherNext 2」を発表しました。この新モデルは、従来比で予測生成速度が8倍に向上し、精度も大幅に改善されています。Google検索Pixelスマートフォンなどの自社製品に統合されるほか、企業向けにも提供が開始され、AIによる気象予測が本格的な実用段階に入ります。

「WeatherNext 2」の最大の特徴は、その圧倒的な処理速度と精度です。GoogleTPUチップ1つで1分未満に予測を完了でき、これは従来の物理ベースモデルがスーパーコンピュータで数時間を要した処理に相当します。気温や風速など、観測される変数の99.9%において、既存の最先端モデルを上回る精度を達成しています。

この飛躍的な性能向上を支えるのが、「Functional Generative Network (FGN)」と呼ばれる新しいAIモデリング手法です。モデルに意図的に「ノイズ」を注入することで、単一の入力から物理的に矛盾のない数百通りの予測シナリオを一度に生成できます。これにより、起こりうる最悪のケースなども含めた、より網羅的な気象予測が可能になりました。

Googleは「WeatherNext 2」を、検索GeminiPixelGoogleマップといった主要サービスに順次統合し、一般ユーザーの利便性を高めます。さらに、エネルギー、農業、運輸、物流といった気象情報が事業に直結する業界向けにも、高解像度な1時間単位の予測を提供し、企業の精密な意思決定を支援します。

企業や開発者向けには、Google CloudのVertex AIプラットフォーム上で早期アクセスプログラムを開始。Earth EngineやBigQueryといったサービスを通じて予測データも公開します。これは、AI天気予報が「研究室から実世界へ」移行したことを示す象徴的な動きであり、今後、様々な産業での活用が期待されます。

AIチップ冷却に革命、マイクロ流体技術が性能を最大化

AI時代の深刻な熱問題

限界に近づく従来の冷却技術
AIチップの性能を阻む「熱」

Corintis社の革新技術

チップを直接冷やすマイクロ流体
冷却効率は従来比で3倍を実証
チップ温度を80%以上低減

今後の事業展開と展望

チップ内蔵型で冷却10倍向上へ
シリーズAで2400万ドルを調達

スイスのスタートアップCorintis社が、AIチップの性能を最大限に引き出す画期的な冷却技術を開発しました。同社は、微細な流路でチップを直接冷やす「マイクロ流体技術」を用い、Microsoftとの共同実証で既存技術の3倍の熱除去効率を達成。この成果を受け、シリーズAで2400万ドル(約36億円)の資金調達に成功し、データセンターの性能とエネルギー効率を抜本的に改善するキープレイヤーとして注目されています。

AIの普及に伴い、データセンターの消費電力と発熱量は爆発的に増加しています。サーバーラックあたりの電力は、この8年で6kWから270kWへと約45倍に急増。2年以内にはメガワット級に達すると予測されています。この深刻な「熱問題」は、高性能なAIチップの能力を最大限に活用する上での大きな障壁となっており、従来の空冷や画一的な液体冷却では限界を迎えつつあります。

この課題に対し、Corintis社はマイクロ流体技術という革新的な解決策を提示します。これは、チップ上の特に発熱量の多い「ホットスポット」を狙い、冷却液を微細な流路を通じて直接送り込む技術です。チップごとに最適化された流路設計により、従来の空冷方式と比較してチップ温度を80%以上も低減させることに成功しました。

その効果は、Microsoftとの共同テストで具体的に示されました。同社のビデオ会議ソフト「Teams」を稼働させたサーバーにおいて、Corintis社の技術は既存の冷却方法に比べ3倍高い熱除去効率を記録。チップ温度の低下は、処理性能の向上だけでなく、エネルギー効率の改善や故障率の低下にも直結し、データセンター全体の運用コスト削減に大きく貢献します。

同社の強みは、チップごとに最適な流路を設計するシミュレーションソフトウェアと、髪の毛ほどの細さ(約70マイクロメートル)の流路を持つ銅製部品を量産できる積層造形(3Dプリンティング)技術にあります。これにより、今日の液体冷却システムとも互換性のあるソリューションを迅速に提供可能です。

Corintis社は、将来的にはチップパッケージ自体に冷却流路を直接組み込むことで、現在の10倍の冷却性能向上を目指しています。2400万ドルの資金調達を元に、米国ドイツに新拠点を設立し、2026年末までに100万個の製品生産を計画。次世代AIインフラを支える冷却技術のデファクトスタンダードとなるか、その動向から目が離せません。

ローカルAI時代へ、PC構造が数十年ぶり大変革

NPU搭載競争が激化

AI処理特化のNPUを標準搭載
電力効率に優れバッテリー消費抑制
チップ各社のTOPS性能競争が加速

統合メモリへの構造変化

CPUとGPU分離メモリがボトルネックに
統合メモリでデータ転送を高速化
大規模モデルのローカル実行が可能に

OSレベルでのAI最適化

MSがCopilot+ PCで業界を先導
OSが最適なプロセッサを自動選択

PC業界が、AI、特に大規模言語モデル(LLM)をクラウドを介さず個人のPC上で直接実行するため、数十年ぶりの構造変革期に突入しています。この動きは、AI処理に特化したNPU(Neural Processing Unit)の搭載と、CPUやGPUがメモリを共有する「統合メモリアーキテクチャ」への移行という二つの大きな技術革新によって牽引されています。これにより、低遅延でプライバシーも保護された、よりパーソナルなAI体験が実現しようとしています。

これまでのPCは、ほとんどのAI処理をクラウド上のデータセンターに依存していました。しかし、個人のPCでAIを動かすには性能が不足していたのです。その解決策の主役がNPUです。AIが得意とする行列演算に特化したこのチップは、CPUやGPUよりも遥かに高い電力効率でAIタスクを処理します。Qualcomm、AMD、Intelといった半導体大手は、性能指標であるTOPS(1秒間の演算回数)を競い合い、PCのAI性能を急速に向上させています。

もう一つの革命はメモリ構造です。従来の高性能PCでは、CPUが使うメインメモリと、GPUが使う専用のグラフィックスメモリは分離していました。しかし、巨大なAIモデルを動かすには、この分離構造が非効率でした。CPUとGPU間でデータをやり取りするたびに、大きな遅延と電力消費が発生していたためです。これはAIの応答速度を著しく損なうボトルネックとなっていました。

このメモリの課題を解決するのが、Appleが先行していた「統合メモリアーキテクチャ」です。CPU、GPU、そしてNPUが一つの大きなメモリプールを共有することで、プロセッサ間のデータ転送が不要になり、劇的に高速化します。AMDの「Ryzen AI Max」などがこの流れを追随しており、これにより、これまでデータセンターでしか扱えなかった大規模なAIモデルも、手元のノートPCで動かせる可能性が現実味を帯びてきました。

ハードウェアの進化と歩調を合わせ、ソフトウェアも大きく変わろうとしています。マイクロソフトは「Copilot+ PC」構想を掲げ、Windows OS自体にAI実行基盤を統合しています。これにより、アプリケーションはAIの処理内容に応じて、CPU、GPU、NPUの中から最適なプロセッサを自動で使い分けることが可能になります。開発者はより簡単に、ローカルPCの性能を最大限に引き出すAIアプリを開発できるようになるでしょう。

NPUの搭載と統合メモリへの移行は、単なる性能向上ではありません。それはPCアーキテクチャそのものを根本から再発明する動きです。この変化は、アップグレードや修理を困難にするという課題もはらんでいますが、いずれは「手元で動く汎用人工知能(AGI)」という壮大な目標さえ視野に入れています。PC業界は今、AIを中心に据えた新たなエコシステムの構築に向けて大きく舵を切ったのです。

AIの電力需要急増、再生可能エネルギーが解決の鍵に

AIブームと電力消費

データセンター投資石油探査を凌駕
AIの電力需要電力網を圧迫
需要の半分は米国に集中

再エネへの移行と商機

解決策として太陽光発電に注目
規制やコスト面で再エネが有利
革新的技術を持つ新興企業に好機

巨額投資と今後の課題

IT大手がデータセンターへ巨額投資
使用済みEV電池再利用の新ビジネス
資金調達における政府支援の重要性

国際エネルギー機関(IEA)の最新報告によると、2025年のデータセンターへの投資額は5800億ドルに達し、新規石油探査への投資を初めて上回る見通しです。この背景には生成AIの急速な普及があり、その膨大な電力消費が既存の電力網を圧迫。この課題解決のため、再生可能エネルギーへの移行が新たなビジネス機会として注目されています。

生成AIの普及がもたらす「AIデータセンターブーム」は、世界の電力事情に大きな影響を与えています。特に電力需要の半分が集中すると予測される米国では、既存の電力網への負荷が深刻な問題です。これは気候変動を加速させるという懸念にも繋がり、持続可能なエネルギー源の確保が急務となっています。

この電力危機への対応策として、多くの事業者が再生可能エネルギーに注目しています。特に太陽光発電は、規制のハードルが低くコスト面でも有利なため、ビジネス上の合理的な選択肢です。これは革新的なエネルギー技術を持つ新興企業にとって大きな商機となります。

OpenAIが1.4兆ドル、Metaが6000億ドルを投じるなど、IT大手はデータセンター建設に巨額の投資を計画しています。この巨大な資金の流れは、AIインフラの重要性を物語っています。しかし、これらの野心的な計画がすべて実現するかは不透明であり、資金調達の方法も大きな課題です。

新たなビジネスも生まれています。例えばRedwood Materials社は、使用済みEVバッテリーを再利用したマイクログリッド事業を開始。AIデータセンター向けに提供し、電力網への負荷を軽減するソリューションとして注目されています。こうした動きが、電力問題を解決する鍵となるかもしれません。

今後の焦点は、企業努力だけに頼らない資金調達の枠組みです。OpenAIが米政府にCHIPS法に基づく税額控除の拡大を求めるなど、官民連携の重要性が増しています。AI時代のインフラ整備は、一企業の課題を超え、国家的な政策課題となりつつあるのです。

グーグル、テキサス州に400億ドル投資 AIインフラ強化へ

400億ドルの巨大投資

2027年までの400億ドル投資計画
2郡に新データセンター建設

エネルギーと人材への投資

3000万ドルのエネルギー基金設立
太陽光・蓄電池プラントを併設
1700人以上の電気技師を育成

米国のAI覇権が狙い

テキサス州の労働力と基盤を支援
米国AIリーダーシップを維持

Googleは2025年11月14日、テキサス州に2027年までに400億ドル(約6兆円)投資すると発表しました。この投資は、急増する需要に対応するため、AIとクラウドの新たなインフラを構築することが目的です。米国の技術的優位性を維持する狙いがあります。

投資の中核をなすのは、アームストロング郡とハスケル郡での新しいデータセンターキャンパスの建設です。これにより、GoogleクラウドサービスやAIモデルの処理能力が大幅に向上します。15年以上にわたり拠点を置くテキサス州での事業をさらに拡大する形です。

Googleインフラの責任ある成長を掲げ、エネルギー問題にも積極的に取り組みます。新たに3000万ドルのエネルギーインパクト基金を設立するほか、電力開発会社との電力購入契約を通じて6200メガワット以上の新エネルギーを確保します。

特に注目すべきは、ハスケル郡の新データセンターの一つが、新しい太陽光発電・蓄電池プラントと並行して建設される点です。これは、再生可能エネルギーを活用し、事業運営に伴う環境負荷を軽減する同社の姿勢を明確に示しています。

インフラ建設を支える人材育成も重視します。専門団体と協力し、2030年までに1700人以上の見習いを含む電気技師を育成する計画です。これにより、州内の熟練労働者のパイプラインが倍増する見込みです。

今回の巨額投資は、テキサス州の労働力とインフラを支援するだけでなく、米国がAI分野で世界をリードするための技術的屋台骨を確保するという国家的な戦略の一環と位置づけられています。

米国でデータセンター反対運動が激化、AIブームに影

加速する住民の反発

わずか3ヶ月で980億ドルの事業が停滞
全米で超党派の反対運動が拡大
選挙の主要な政治争点にも浮上

反発を招く3つの要因

電力・水・土地の大量消費への懸念
税制優遇による地域貢献の欠如
一般家庭の電気料金高騰への不満

AIブームの新たな課題

巨大テック企業の投資は継続
地域社会との合意形成が不可欠に

米国で、AIの基盤となるデータセンター建設に対する地域社会の反対運動が急速に激化しています。調査によると2025年第2四半期だけで980億ドル規模のプロジェクトが阻止・遅延しました。電力や水の大量消費、電気料金の高騰などが原因で、住民運動は超党派の政治問題に発展。AIブームを支えるインフラ整備が新たな壁に直面しています。

AIセキュリティ企業10a Labsの調査プロジェクト「Data Center Watch」の報告書が、この潮流の変化を明らかにしました。2025年3月から6月のわずか3ヶ月間で、反対運動により8件のプロジェクトが完全に阻止され、9件が遅延。その経済的影響は980億ドルに上り、それ以前の約1年間の影響額640億ドルを大幅に上回る規模です。

なぜ住民はこれほど強く反発するのでしょうか。最大の理由は、データセンターが地域の資源を大量に消費することへの懸念です。電力、水、土地を「吸い上げる」一方で、税制優遇措置により地域への経済的貢献が乏しいという不満があります。電力需要が一般家庭の電気料金を押し上げることへの懸念も大きな要因となっています。

この問題はもはや単なる地域問題ではありません。ジョージア州やバージニア州では、データセンター規制が選挙の主要な争点に浮上。民主党、共和党の区別なく、候補者が規制強化を訴えて支持を集める例が相次いでいます。超党派の政治課題へと発展しており、これまで推進側だった政治家も無視できない状況になっています。

一方で、AI開発を牽引する巨大テック企業の投資意欲は衰えていません。Metaは今後3年間でAIインフラに6000億ドルを投じる計画です。しかし、地域社会の反発という新たなリスクが顕在化した今、企業にはより丁寧な情報開示と合意形成が求められます。AI時代のインフラ整備は、社会との対話が鍵を握ることになりそうです。

エージェントAI、視覚データを「意味」ある資産へ

視覚AI、エージェントで次世代へ

従来型CVの「なぜ」の限界
VLMが文脈理解の鍵
検索・分析・推論を自動化

ビジネス変革をもたらす具体例

車両検査で欠陥検知率96%達成
インフラ点検レポートを自動作成
スポンサー価値をリアルタイムで測定
スマートシティの誤報を削減

NVIDIAは、エージェントAIを活用して従来のコンピュータビジョン(CV)を革新する3つの方法を発表しました。既存のCVシステムでは困難だった「なぜそれが重要か」という文脈理解や将来予測を可能にし、企業が保有する膨大な視覚データをビジネスの洞察に変えるのが狙いです。中核技術は、視覚と言語をつなぐビジョン言語モデル(VLM)。これにより、視覚情報の価値を最大化する道が開かれようとしています。

従来のCVシステムは、特定の物体や異常を検知することには長けていますが、「何が起きているか」を説明し、その重要性を判断する能力に欠けていました。このため、映像データの分析は依然として人手に頼る部分が多く、時間とコストがかかるという課題がありました。エージェントAIは、この「認識」と「理解」の間のギャップを埋める役割を担います。

第一のアプローチは「高密度キャプション」による検索性の向上です。VLMを用いて画像動画に詳細な説明文を自動生成することで、非構造化データだった映像コンテンツが、豊かなメタデータを持つ検索可能な資産に変わります。これにより、ファイル名や基本タグに依存しない、より柔軟で高精度なビジュアル検索が実現可能になります。

この技術はすでに実用化されています。例えば、車両検査システムを手掛けるUVeye社は、VLMで膨大な画像を構造化レポートに変換し、欠陥検知率を人手作業の24%から96%へと飛躍させました。また、スポーツマーケティング分析のRelo Metrics社は、ロゴの露出に文脈情報を加え、スポンサー価値をリアルタイムで算出することに成功しています。

第二のアプローチは、既存システムのアラート強化です。多くのCVシステムが出す「はい/いいえ」式の単純なアラートに、VLMが「どこで、なぜ、どのように」といった文脈を付与します。スマートシティ分野でLinker Vision社は、この技術で交通事故や災害などのアラートを検証し、誤検知を減らすと共に、各事象への迅速で的確な対応を支援しています。

そして第三に、複雑なシナリオの「AI推論」が挙げられます。エージェントAIシステムは、複数の映像やセンサーデータを横断的に処理・推論し、根本原因の分析や長時間の点検映像からのレポート自動生成といった高度なタスクを実行します。これは、単一のVLMだけでなく、大規模言語モデル(LLM)や検索拡張生成RAG)などを組み合わせたアーキテクチャによって実現されます。

Levatas社は、このAI推論を活用し、電力インフラなどの点検映像を自動レビューするAIエージェントを開発しました。従来は手作業で数週間かかっていたレポート作成プロセスを劇的に短縮し、インフラの安全性と信頼性の向上に貢献しています。このように、エージェントAIは、企業のオペレーションを根底から変える力を持っています。

NVIDIAは、開発者がこれらの高度な機能を実装できるよう、各種VLMモデルや開発プラットフォームを提供しています。エージェントAIの導入は、企業が日々蓄積する視覚データを単なる記録から、戦略的な意思決定を支える「生きたインテリジェンス」へと昇華させる重要な一歩となるでしょう。

AIの電力危機、超電導ケーブルが救世主か

AIデータセンターの電力問題

ラックあたり消費電力メガワット級
従来の銅線では発熱とスペースが限界

Veirの超電導ケーブル

液体窒素で-196℃に冷却し電力損失ゼロ
銅線の20分の1のスペースで設置可能
送電距離は銅線の5倍を実現

実用化に向けた動き

Microsoftが出資する注目企業
2026年にパイロット運用開始
2027年の商用化を目指す

Microsoftが出資する米スタートアップVeirが、AIデータセンターの爆発的な電力需要に対応するため、超電導ケーブルを開発しています。従来の銅線では対応困難なメガワット級の電力を、省スペースかつ高効率で供給する新技術です。2027年の商用化を目指し、来年には実際のデータセンターで試験運用を開始する計画で、AIインフラの次世代標準となるか注目が集まります。

AIの進化でデータセンター電力消費は急増しています。ラックあたりの需要は数十kWから200kWに達し、将来は数メガワットに及ぶとされます。このままでは、電力ケーブルがスペースを圧迫し、発熱処理も追いつかなくなるという深刻な課題に直面しています。

Veirの解決策が超電導ケーブルです。液体窒素で-196℃に冷却した素材で電力損失をゼロにします。従来の銅線と比較し、20分の1のスペースで済み、電力供給距離は5倍に延びるといいます。データセンターの設計自由度を飛躍的に高める可能性を秘めています。

同社は元々、電力会社の送電網向けに技術開発を進めていました。しかし、変化の速いデータセンター業界からの強い要望で事業の軸足を転換。課題が切迫するAI市場こそ、新技術導入の好機だと判断したのです。市場ニーズを的確に捉えた戦略と言えるでしょう。

Veirはすでに模擬施設で技術実証を完了。来年にはデータセンターでのパイロット運用を開始し、2027年の本格的な商用化を目指します。この技術が普及すれば、AI性能を最大限に引き出す電力インフラのボトルネックが解消されるかもしれません。

Pixel大型更新、AIが通知要約し生産性を劇的改善

AIで業務効率を最大化

長文会話をAIが自動で要約
通話内容を自動で文字起こし・要約
AIが詐欺の可能性をチャットで警告
重要連絡先(VIP)の通知を自動で優先

Geminiで創造性を解放

メッセージ内で写真をAIが再構成
集合写真の表情や装飾をAIが修正

利便性と安全性の向上

詐欺電話検知を多国で展開
マップに電力モードを追加

Googleは2025年11月、同社のスマートフォン「Pixel」シリーズ向けに、AI機能を大幅に強化するソフトウェアアップデート「Pixel Drop」を発表しました。AIモデルGeminiを活用し、通知の自動要約や高度な詐欺検知、写真編集など多岐にわたる新機能を提供。ビジネスユーザーの生産性向上とセキュリティ強化を両立させるアップデートとなっています。

今回のアップデートの目玉は、AIによる通知の自動要約機能です。長文のメッセージや活発なグループチャットの内容を通知画面で簡潔にまとめてくれるため、重要な情報を素早く把握できます。情報過多になりがちな現代において、ビジネスパーソンが集中力を維持し、効率的にコミュニケーションを取る上で強力なツールとなるでしょう。

セキュリティ面も大幅に強化されました。チャットメッセージの通知段階で、AIが詐欺の可能性を検知し「Likely scam」と警告を表示する新機能を追加。従来の通話中の詐欺検知機能も、イギリスやカナダなど提供地域を拡大し、巧妙化するオンライン詐欺からユーザーを保護する体制をグローバルに広げています。

Googleの最新AIモデルGemini Nanoオンデバイスで活用される点も注目です。メッセージアプリ内で写真を再構成する「Remix」機能や、通話内容を文字起こし・要約する「Call Notes」機能(日本でも利用可能に)が実装され、創造性と業務効率の両面でAIの力をより身近に体感できるようになりました。

Googleフォトでは、AIによる写真編集機能がさらに進化。「Help me edit」機能を使えば、「サングラスを外して」「笑顔にして」といった自然言語の指示で、集合写真の細部を簡単に修正できます。個人の写真ライブラリから最適な画像を基に編集するため、極めて自然な仕上がりが特徴です。

このほか、重要な連絡先からの通知を優先するVIP機能の強化や、Googleマップ運転中のバッテリー消費を抑える省電力モードも追加されました。今回のアップデートは、AIをあらゆる場面で活用し、ユーザー体験を向上させるGoogleの強い意志を示すものと言えます。

AIインフラ巨額投資、バブル懸念と環境の壁

過熱するAIインフラ投資

Oracle連合が180億ドルを調達
OpenAIインフラ1.4兆ドル投資
Metaも3年で6000億ドルを計画

二大リスク:バブルと環境

実際のAI需要はまだ限定的
電力・水不足で稼働できない施設
企業のネットゼロ目標達成に暗雲

データセンター最適地

従来はカリフォルニア州などに集中
今後はテキサス州などが候補

OpenAIMetaなど大手テック企業が、AIインフラ、特にデータセンターへ数千億ドルから兆ドル規模の投資を相次いで発表しています。生成AIの急速な進化を支えるためですが、その過熱ぶりは経済的な「AIバブル」への懸念と、深刻な環境負荷という二つの大きな課題を浮き彫りにしました。特に、データセンターの膨大な電力・水消費と、その建設場所が新たな経営上の焦点となっています。

投資の規模は凄まじいものがあります。直近では、Oracle関連のデータセンター事業が20の銀行団から180億ドルもの融資枠を確保。OpenAIソフトバンクなどと組み、総額1.4兆ドル規模のインフラ構築を計画しています。Metaも今後3年間で6000億ドルを投じることを表明しており、市場の熱狂はとどまるところを知りません。

しかし、この巨大な投資に見合う需要はまだ不透明です。マッキンゼーの調査によると、多くの企業がAIを導入しつつも、本格的な活用は限定的で「様子見」の段階にあります。AIソフトウェアの進化速度と、建設に数年を要するデータセンターのタイムラグが、供給過剰リスクを高めているのです。

物理的なインフラの制約も深刻化しています。マイクロソフトのサティア・ナデラCEOは、半導体不足よりも「チップを設置するデータセンターのスペースがない」と懸念を示しました。最新チップ膨大な電力需要に既存の電力網が対応できず、完成したデータセンター稼働できないケースも出てきています。

環境への影響も無視できません。データセンターは冷却のために大量の水を消費し、膨大な電力を必要とします。このエネルギー需要の急増は、大手テック企業が掲げる「ネットゼロ」目標の達成を困難にしています。最悪の場合、データセンターだけでハンガリー一国分以上のCO2を排出するとの試算もあります。

こうした背景から、データセンターの「立地」が重要性を増しています。従来はIT人材が豊富なバージニア州やカリフォルニア州に集中していましたが、水不足や電力網の逼迫が問題視されています。今後は、再生可能エネルギーが豊富で水資源に余裕のあるテキサス州やモンタナ州、ネブラスカ州などが最適な建設候補地として注目されています。

AIの未来は、巨額の投資競争だけでなく、こうした経済的・環境的課題をどう乗り越えるかにかかっています。経営者やリーダーは、AIモデルの効率化や冷却技術の革新といった技術面に加え、持続可能性を考慮したインフラ戦略を立てることが、長期的な成功の鍵となるでしょう。

AI投資加速へ、OpenAIが米政府に税優遇拡大を要求

政府に求めるAIインフラ支援

CHIPS法の税優遇拡大を要請
対象はAIデータセンターやサーバー
許認可プロセスの迅速化
銅など原材料の戦略的備蓄

巨額投資と政府保証の否定

8年で1.4兆ドルの資本コミットメント
資本コスト低減と民間投資の誘発
幹部発言の混乱とSNSでの火消し
政府による融資保証は明確に否定

OpenAIが、トランプ政権に対しAIデータセンター建設を加速させるため、連邦政府の税制優遇措置の拡大を要請していたことが明らかになりました。10月27日付の書簡で、半導体産業支援策「CHIPS法」の税額控除をAIインフラにも適用するよう求めています。巨大投資リスクを下げ、民間投資を呼び込む狙いです。

要請の核心は「先端製造投資税額控除(AMIC)」の適用範囲拡大です。現在、半導体製造に限定される35%の税額控除を、電力網部品、AIサーバー、そしてAIデータセンター自体にも広げるべきだと主張。これにより実質的な資本コストの低下を見込んでいます。

税制優遇に加え、建設に関する許認可や環境審査プロセスの迅速化も要求しています。さらに、銅やアルミニウム、レアアースといったAIインフラに不可欠な原材料の戦略的備蓄の創設も求めており、サプライチェーンの安定化も視野に入れているようです。

この要請の背景には、今後8年間で1.4兆ドル(約210兆円)に上るというOpenAIの巨額な資本計画があります。この巨大プロジェクトを円滑に進める上で、政府による環境整備が不可欠と判断。民間資本を最大限に活用するための後押しを求めている形です。

一方で、OpenAIは政府による直接的な救済や融資保証は求めていないと強調しています。幹部による「バックストップ(安全網)」発言が憶測を呼びましたが、サム・アルトマンCEOはこれを否定し、あくまで公正な競争を促す政策を求めているとの立場を示しました。

「人間が制作」著名監督、新作でAI利用を否定

「人間製」宣言の背景

人気ドラマ制作者ヴィンス・ギリガン氏
新作ドラマのエンドクレジットに注記
「この番組は人間製」と異例の明記
AI不使用を明確にする新たな試み

AIへの痛烈な批判

AIを「盗作マシン」と痛烈に批判
AI生成コンテンツを「無意味の反芻」
シリコンバレーへの強い不信感を表明
クリエイター人間性の重視を主張

人気ドラマ「ブレイキング・バッド」の制作者として知られるヴィンス・ギリガン氏が、Apple TV+で公開された新作「Pluribus」において、生成AIを一切使用していないことを明確に示しました。エンドクレジットに「この番組は人間によって作られました」と異例の注意書きを挿入し、インタビューではAIを「盗作マシン」と痛烈に批判。クリエイティブ業界におけるAIとの向き合い方に一石を投じています。

この異例の宣言は、番組のエンドクレジットの最後に表示されます。「動物の安全を確保するため、調教師が撮影現場に立ち会いました」という注意書きのすぐ下に、「この番組は人間によって作られました」という簡潔な一文が添えられています。これは、生成AIの利用が広がる映像業界において、制作者の意図を明確に示すための新たな手法と言えるでしょう。

ギリガン氏のAIに対する姿勢は極めて批判的です。同氏は米誌Varietyのインタビューで、AIを「世界で最も高価でエネルギーを消費する盗作マシン」と断じました。さらに、AIが生成するコンテンツを「牛が反芻するように、無限に繰り返される無意味なループ」と表現し、その創造性の欠如を厳しく指摘しています。

彼の批判の矛先は、AI技術を生み出したシリコンバレーにも向けられています。「シリコンバレーよ、ありがとう!またしても世界を台無しにしてくれた」と皮肉を込めて語り、テクノロジーが社会や文化に与える負の影響に対して強い懸念と不信感を表明しました。この発言は、技術革新のあり方を問うものです。

ギリガン氏のこの行動は、他の映画製作者やクリエイターにとっても重要な前例となる可能性があります。AIを使わずに人間の手だけで作られた作品であることを品質保証のように示す動きが広がるかもしれません。AIの活用が加速する一方で、「人間による創造性」の価値を再定義しようとする動きとして注目されます。

AIが招く電気代高騰、米選挙で民主党勝利の追い風に

AIが選挙の争点に

有権者の最大の関心事となった電気料金
民主党候補が相次いで勝利
共和党の化石燃料擁護論は響かず

問われる公約実現性と新政策

再生可能エネルギーへの転換加速
データセンターへの公平な負担要求
料金凍結など公約実現の難しさ
所得ベースの新料金体系の模索

2025年11月のアメリカの選挙で、AIデータセンターの急増が引き起こした電気料金の高騰が主要な争点となり、ニュージャージー、バージニア、ジョージアの各州で民主党候補が勝利を収めました。有権者の生活を直撃する光熱費問題への対策を公約に掲げたことが、勝因となった形です。

背景にあるのは、AIの爆発的な普及による電力需要の急増です。特に世界最大のデータセンター集積地であるバージニア州では、電力網への懸念が深刻化しています。安定供給への不安と料金上昇が有権者の不満に火をつけ、データセンターは一部で「悪役」と見なされるようになりました。

こうした状況を受け、バージニア州知事選で勝利したアビゲイル・スパンバーガー氏や、ニュージャージー州のマイキー・シェリル次期知事は、再生可能エネルギーの拡大や原子力発電の推進を公約。さらに、データセンターに「公正な負担」を求める姿勢を明確にし、有権者の支持を集めました。

この潮流は、大規模な原子力発電所の建設コスト超過分が消費者に転嫁されていたジョージア州にも波及。共和党が独占していた公共事業委員会で民主党候補2名が当選しました。化石燃料を擁護する共和党の主張は、安価になった太陽光や風力発電の前では説得力を持ちませんでした。

しかし、当選した民主党の前途は多難です。料金凍結の実現には法的な壁があり、原子力や洋上風力発電所の建設には長い年月を要します。また、トランプ政権による再生可能エネルギーへの逆風も懸念材料であり、公約実現への道のりは決して平坦ではありません。

今後は、所得に応じた料金体系や、データセンターが地域に貢献する「コミュニティ給付協定」といった、より革新的な政策が求められます。エネルギー価格が政治の動向を左右する「新しい電力政治」の時代が、アメリカで始まろうとしています。

MIT、AI電力需要増に対応する新組織設立

AIが招く電力危機

2030年に世界需要が倍増
米国では電力の9%を消費予測
主因はAI利用の爆発的拡大

MITの産学連携フォーラム

研究者と産業界の専門家を結集
持続可能なAI成長の解決策を模索
エネルギー業界全体が参加

多角的な研究アプローチ

低/ゼロカーボン電力の供給
送電網の拡張と運用管理
AI活用による配電・立地の最適化

マサチューセッツ工科大学(MIT)のエネルギーイニシアティブ(MITEI)が9月、AIの急拡大で急増するデータセンター電力需要に対応するため、産学連携の「データセンター・パワー・フォーラム」を設立しました。このフォーラムは、研究者と産業界の専門家を集め、持続可能なデータ駆動型の未来に向けた革新的な電力ソリューションを探求することを目的としています。

AIの利用拡大は、電力インフラに前例のない負荷をかけています。調査機関によれば、世界のデータセンター電力需要は2030年までに倍以上に増加する見通しです。米国だけでも、全電力消費に占めるデータセンターの割合は2023年の4%から、2030年には9%に達すると予測されており、エネルギー業界にとって喫緊の課題となっています。

この課題に対し、MITEIが設立したフォーラムは、AIの持続可能な成長電力インフラの強化という二つの目標を追求します。MITEIのディレクターは「AIと送電網のバリューチェーン全体から利害関係者を集め、非商業的かつ協力的な環境で解決策を議論する場を提供する」と述べ、産学連携の重要性を強調しています。

フォーラムの研究対象は多岐にわたります。具体的には、低炭素・ゼロカーボンのエネルギー供給、送電網の負荷運用と管理、電力市場の設計や規制政策などが含まれます。さらに、省電力プロセッサや効率的なアルゴリズム、データセンターの冷却技術といった、エネルギー効率を高めるための技術開発も重要なテーマです。

MITEIはこれまでも、AIを活用した配電の最適化やデータセンターの立地に関する経済性分析など、関連プロジェクトを多数支援してきました。新設されたフォーラムは、これらの既存研究の知見を統合し、より包括的で実用的な解決策を生み出すためのハブとしての役割を担うことが期待されています。

AI技術の発展は、ビジネスの生産性や競争力を飛躍的に高める可能性を秘めています。しかし、その裏側にあるエネルギー問題から目を背けることはできません。今回のMITの取り組みは、技術革新と持続可能性の両立を目指す上で、重要な一歩となるでしょう。

MS、人類に奉仕する「人間中心」超知能を開発へ

「人間中心」の超知能構想

人類に奉仕するためだけに設計
人間が常に管理下に置く存在
無制限な自律性を持たないAI
開発のための専門チームを結成

目指す3つの応用分野

個人の学習・生産性を支えるAIコンパニオン
ヘルスケア産業での活用支援
クリーンエネルギー等の科学的発見

マイクロソフトAI部門の責任者であるムスタファ・スレイマン氏は2025年11月6日、人間が常に管理下に置き、人類に奉仕することのみを目的とした「ヒューマニスト(人間中心主義的)超知能」を開発する構想を明らかにしました。AIが人類に脅威をもたらすとの懸念が高まる中、同氏はAI開発の主導権を人間が握り続けることの重要性を強調し、この構想の実現に向けた専門チームの立ち上げも発表しました。

スレイマン氏が提唱する超知能は、「無制限で高度な自律性を持つ存在」ではありません。ブログ投稿の中で同氏は、あくまで「慎重に調整され、文脈化され、制限内にある」AIだと定義しています。このビジョンは、AIが自律的に動き、人間の制御を超えてしまうという「シンギュラリティ」への懸念に一線を画すものです。

この発表は、激化するAGI(汎用人工知能)開発競争の中で行われました。スレイマン氏は「AGIへの競争という物語を拒否する」と述べていますが、一方でマイクロソフトOpenAIとの新たな契約により、独自にAGIを追求する権利を得ています。これにより、同社はOpenAIのIPを利用して独自のAGI開発を進めることも可能になりました。

では、この「ヒューマニスト超知能」は具体的に何を目指すのでしょうか。スレイマン氏は3つの主要な応用分野を挙げています。個人の学習や生産性を支援する「AIコンパニオン」、ヘルスケア分野での活用、そしてクリーンエネルギーなどにおける「新たな科学的ブレークスルー」の創出です。

マイクロソフトAIでは、AIよりも人間が重要だと信じている」とスレイマン氏は断言します。彼が目指すのは、人類のチームの一員として機能する、従属的で制御可能なAIです。決して「パンドラの箱」を開けることのないAIの開発に向け、マイクロソフトの新たな挑戦が始まりました。

Google、AIで自然保護を加速 地球の未来を守る

AIで地球を可視化

Google Earth AI」で惑星を分析
衛星データを統合し変化を瞬時に把握

未来を予測し危機を防ぐ

生物の生息地を高精細に地図化
深層学習で森林破壊リスクを予測

現場の専門家と課題解決

市民参加型でAIモデルを訓練
山火事予測など地域課題へAIを応用

Googleは2025年11月6日、AI技術を駆使して地球規模の自然保護を加速させる取り組みを公表しました。同社は衛星データとAIを統合したツールGoogle Earth AI」などを活用し、地球環境の可視化、未来予測、現場専門家の支援という3つの柱で活動を展開。2030年までに陸と海の30%を保護する国際目標「30x30」の達成に貢献します。

私たちの社会は健全な生態系の上に成り立っています。しかし、野生生物は過去50年で激減し、生物多様性の喪失は今や世界的な経営リスクです。Googleは、この深刻な課題に対し、Google Earthなどで培ってきた20年以上にわたる地球観測の知見と最新AI技術を投入し、解決を急いでいます。

取り組みの中核をなすのが「Google Earth AI」です。このツールは、膨大な衛星・気候データを統合し、Geminiの高度な推論能力を組み合わせます。従来は専門家が数年を要した複雑な分析をわずか数分で実行可能にしました。例えば、干ばつ時の砂嵐リスク予測など、具体的な対策に繋がる洞察を提供します。

AIは現状分析だけでなく、未来を予測し、危機を未然に防ぐ力も持ちます。同社はAIを用いて生物の生息地を高解像度で地図化し、絶滅危惧種の保護計画を支援。さらに、深層学習モデルで森林破壊のリスクを予測する世界初のデータセットを公開し、予防的な保全活動への道を拓いています。

技術の真価は、現場で活かされてこそ発揮されます。Googleは、一般市民が熱帯雨林の音を聞いて生物種を特定し、AIモデルの訓練に協力する「Forest Listeners」プロジェクトを推進。また、Google.orgを通じてブラジルのNPOを支援し、AIによる山火事予測など地域固有の課題解決を後押ししています。

Googleは、AIの環境負荷にも配慮し、システムの効率化やクリーンエネルギーへの投資を並行して進めています。AIは万能の解決策ではなく、あくまで触媒です。最先端のAI技術と、現場の人々の情熱や知見が融合してこそ、地球の未来を守る真の変革が生まれるのではないでしょうか。

グーグル、AIの電力危機を宇宙で解決へ

宇宙データセンター構想

AIの電力需要急増への対応
太陽光発電を利用する衛星群
Google製AIチップTPUを搭載
衛星間は光通信で高速接続

残された技術的課題

宇宙空間での熱管理
システムの長期信頼性の確保
過酷な放射線環境への対策

Googleは11月5日、AIの爆発的な電力需要に対応するため、宇宙空間にデータセンターを設置する壮大な構想「Project Suncatcher」を発表しました。これは太陽光で稼働する衛星群にAIチップを搭載し、地球の資源制約から脱却する試みです。実現には多くの技術的課題が残りますが、AIの持続可能な未来を拓く一手となるでしょうか。

なぜ宇宙なのでしょうか。背景には、AIの凄まじい電力消費があります。一説では2028年までにAIだけで米国全家庭の電力消費の22%に相当する量に達すると予測されています。また、データセンターの冷却には大量の水が必要となり、地球環境への負荷が大きな懸念となっています。

「Project Suncatcher」は、低軌道に多数の小型衛星を打ち上げ、それぞれにGoogle独自のAIアクセラレータ「TPU(Tensor Processing Unit)」を搭載します。動力は太陽光発電で全て賄い、衛星間の通信には高速な自由空間光通信を利用。これにより、宇宙に一つの巨大な計算基盤を構築する計画です。

もっとも、これは「ムーンショット(壮大な挑戦)」であり、課題も山積しています。スンダー・ピチャイCEOも認めるように、宇宙空間の過酷な放射線、真空での熱管理、そして軌道上でのシステムの長期的な信頼性確保が大きなハードルです。初期テストではTPUの放射線耐性が確認されたとしています。

Googleはこのプロジェクトを通じて、AIの計算能力を地球の制約から解放し、需要の伸びに際限なく応えられるソリューションを模索しています。この野心的な試みがAIインフラの新たなフロンティアを切り拓くか、その動向が注目されます。

銅積層プレートでAIの熱問題を解決

深刻化するAIの発熱問題

次世代GPUの消費電力最大600kW
データセンターの冷却能力が限界に
メモリ等周辺チップの冷却が課題

新技術スタックフォージング

銅シートを熱と圧力で一体化
継ぎ目なし漏洩リスクを低減
3Dプリンタより安価で高強度

競合を上回る冷却性能

熱性能は競合比35%向上
髪の毛半分の微細な流路を実現

米国スタートアップ、Alloy Enterprises社が、AIデータセンターの深刻な発熱問題に対応する画期的な冷却技術を開発しました。次世代GPUの消費電力は最大600キロワットにも達し、既存の冷却方式では限界が見えています。同社は銅の薄いシートを熱と圧力で一体化させる「スタックフォージング」技術を用い、高性能な冷却プレートを製造。AIの進化を支えるインフラの課題解決に乗り出します。

AIの性能向上に伴い、GPUの発熱量は爆発的に増加しています。Nvidia社が2027年にリリース予定の次世代GPU「Rubin」シリーズでは、サーバーラックあたりの消費電力が最大600キロワットに達する見込みです。この膨大な電力を処理するためには、空冷から液冷への移行が不可欠ですが、特に周辺チップの冷却ソリューションが追いついていないのが現状です。

Alloy Enterprises社が開発した「スタックフォージング」は、この課題を解決する独自技術です。レーザーで精密に加工した銅のシートを何層にも重ね、特殊な装置で熱と圧力をかけて接合します。これにより、まるで一つの金属塊から削り出したかのような、継ぎ目のない冷却プレートが完成します。複雑な内部構造を自在に設計できるのが大きな特徴です。

従来の冷却プレートは、機械で削り出した2つの部品を接合して作られるため、高圧下での液漏れリスクが常にありました。一方、3Dプリンティングは高コストで、金属内部に微小な空洞が残り強度が低下する課題があります。スタックフォージングはこれらの欠点を克服し、素材本来の強度を保ちつつ、低コストで信頼性の高い製品を実現します。

この新技術により、冷却プレートの性能は飛躍的に向上しました。同社によれば、熱性能は競合製品に比べて35%も高いとのことです。また、人間の髪の毛の半分ほどである50ミクロンという微細な流路を内部に形成できるため、より多くの冷却液を循環させ、効率的に熱を除去することが可能になります。

Alloy Enterprises社は既にデータセンター業界の「すべての大手企業」と協業していると述べており、その技術への期待の高さがうかがえます。当初はアルミニウム合金で技術を開発していましたが、データセンターからの強い要望を受け、熱伝導性と耐食性に優れた銅へと応用しました。AIの進化を止めないため、冷却技術の革新が今まさに求められています。

AIデータセンターブーム、米国経済に歪みと電力危機

巨額投資がもたらす歪み

GDP成長のほぼ全てを占める投資
他セクターへの資本流入が減少
AI利用料は補助金漬けの現状

エネルギー危機とコスト増

電力網を圧迫する膨大な電力消費
供給不足による電気料金の高騰
将来のサージプライシング導入リスク

市場と雇用の変調

AI関連株が牽引する株式市場
ハイテク大手の人員削減と雇用の停滞

MicrosoftAmazonなど巨大テック企業が2025年、米国でAIデータセンターに記録的な投資を行っています。この投資米国経済の成長を牽引する一方で、電力インフラの逼迫、将来的なコスト急騰、他産業での雇用停滞といった深刻な経済の歪みを生み出しています。AIによる生産性向上という明るい面の裏で、その持続可能性が問われる事態となっています。

ハーバード大学の経済学者ジェイソン・ファーマン氏の試算によると、2025年上半期の米国GDP成長のほぼ全てが、データセンター関連投資によるものでした。これは、AIという単一技術に資本が異常に集中していることを示唆します。その結果、製造業など他の重要セクターへの投資が滞り、経済全体の健全な成長を阻害する懸念が高まっています。

AIの膨大な計算処理を支えるデータセンターは、凄まじい量の電力を消費します。しかし、米国電力網の増強が全く追いついていないのが現状です。電力需給の逼迫はすでに各地で電気料金の高騰を招いており、OpenAIは「電力不足が米国のAIにおける優位性を脅かす」と政府に警告する書簡を送りました。

現在のAIサービス利用料は、テック企業の補助金によって安価に抑えられています。しかし専門家は、いずれ需要に応じて価格が変動する「サージプライシング」が導入されると予測します。そうなれば、AIの推論コストは急騰し、多くの企業のAI活用戦略の前提が覆される可能性があります。収益化への道はまだ見えていません。

米国の株式市場はAI関連銘柄が牽引し、活況を呈しています。しかしその裏では、GPUなどの資産の耐用年数を長く見積もる会計処理によって、利益が実態より大きく見えている可能性が指摘されています。一部の企業は巨額の債務を抱え始めており、AIバブル崩壊のリスクも囁かれています。

巨額の投資が行われる一方で、ハイテク大手は人員削減を進めています。データセンターへの資本集中は、本来であれば雇用を生み出すはずの他分野への投資機会を奪っています。AIが一部の職を代替し始めている兆候もあり、AIブームが必ずしも雇用市場全体にプラスに作用していない現実が浮き彫りになっています。

AIの導入を急ぐ企業にとって、このブームの裏にあるリスクを直視することが不可欠です。リーダーは、目先の性能だけでなく、エネルギー効率や単位あたりの経済性(ユニットエコノミクス)を重視し、持続可能なAI戦略を構築する必要があるでしょう。コスト構造の変動に備え、より賢く、より効率的なAI活用が求められています。

GoogleのAI、家庭・職場・がん治療で進化加速

ビジネスと生活の変革

職場向けAI Gemini Enterprise 始動
家庭向けAI Gemini for Home 登場
アイデア記述だけでアプリ開発が可能に
AIによる高度なセキュリティ保護

未来を拓く先端研究

AIが がん治療の新手法を発見
量子優位性を実証する新アルゴリズム
核融合エネルギー開発をAIで加速

Googleは2025年10月、AI分野における一連の重要な進展を発表しました。これには、職場での生産性を革新する「Gemini Enterprise」や、家庭での利便性を高める「Gemini for Home」の導入が含まれます。さらに、がん治療法の発見や量子コンピュータのブレークスルーなど、最先端の研究成果も公開。AI技術を実社会の課題解決や生活向上に役立てる同社の強い意志が示されました。

ビジネス領域では、職場向けAIの新たな中核として「Gemini Enterprise」が発表されました。これは単なるチャットボットを超え、企業のデータを活用してAIエージェントを構築・展開できるプラットフォームです。また開発者向けには、アイデアを自然言語で記述するだけでAIアプリを構築できる「vibe coding」機能がAI Studioに搭載され、開発のハードルを劇的に下げることが期待されます。

私たちの日常生活にも大きな変化が訪れそうです。スマートホーム体験を一新する「Gemini for Home」は、従来のGoogleアシスタントに代わり、より対話的で文脈を理解するAIとして登場しました。また、サイバーセキュリティ月間に合わせ、詐欺や脅威からユーザーを守る新しいAIセキュリティ機能も多数導入され、デジタル世界の安全性が一層強化されます。

最先端の研究分野では、歴史的な成果が報告されました。GoogleGemmaモデルを基にしたAIは、がん細胞を免疫システムが攻撃しやすくする新たな治療経路の発見に貢献。さらに量子AIチームは、スーパーコンピュータを凌駕する計算速度を持つ検証可能な量子アルゴリズム「Quantum Echoes」を実証し、未来の科学技術に道を開きました。

これら一連の発表は、GoogleがAIを研究室から現実世界へと展開するフェーズを加速させていることを示しています。ビジネスの効率化から、難病の治療、未来のエネルギー開発まで、その応用範囲は広がり続けています。経営者エンジニアにとって、これらのAIツールをいかに活用するかが、今後の競争力を左右する重要な鍵となるでしょう。

Google、宇宙AIデータセンターで計算能力を拡張

壮大な宇宙構想

Google新研究計画サンキャッチャー
宇宙空間でのAI計算能力を拡張
TPU搭載衛星をネットワーク

宇宙ならではの利点

常時太陽光で安定した電力供給
地上の最大8倍太陽光発電効率
地上の電力・土地問題を回避

実現への道のり

衛星間の超高速通信が最大の課題
2027年に試作機打ち上げ予定

Googleは2025年11月4日、宇宙空間で機械学習の計算能力を飛躍的に拡張する新研究計画「プロジェクト・サンキャッチャー」を発表しました。AIチップTPU」を搭載した多数の衛星を太陽光発電で稼働させ、ネットワーク化する壮大な構想です。地上のデータセンターが抱える電力消費や土地問題を解決し、AIの可能性を最大限に引き出すことを目指します。

この構想の背景には、AIの急速な発展に伴うデータセンターの爆発的な増加があります。その膨大な電力消費と設置場所の確保は、IT業界全体の大きな課題です。実際、イーロン・マスク氏なども宇宙空間でのデータセンター構想に言及しており、宇宙利用はAIインフラの新たなフロンティアとなりつつあります。

宇宙空間が持つ最大の利点は、ほぼ無限の太陽エネルギーを利用できる点です。「サンキャッチャー」計画では、衛星を常に太陽光が当たる軌道に投入します。宇宙のソーラーパネルは地上の最大8倍も発電効率が高く、安定的かつクリーンな電力でAIを稼働させることが可能になります。

実現には、多くの技術的課題を乗り越える必要があります。最大の難関は、高速で移動する衛星同士を超高速の光通信で接続する技術です。Googleはすでに地上での実験で毎秒1.6テラビットの双方向通信に成功しており、今後さらなるスケールアップを目指す方針です。

Googleはこの計画を、自動運転技術「Waymo」のような長期的な「ムーンショット(壮大な挑戦)」と位置付けています。第一歩として、パートナー企業と共に2027年初頭までに試作衛星2基を打ち上げ、軌道上でのハードウェア性能を検証する予定です。AIの未来を宇宙に託す挑戦が、今まさに始まりました。

MIT、AI実用化を加速する新手法を開発

最適AIモデルを瞬時に選択

膨大なモデル群から最適解を特定
対話形式でアノテーション作業を削減
わずか25例でモデル選択も可能
野生動物の分類などで既に実証済み

高速かつ実行可能な解を保証

AIの速度と従来手法の信頼性を両立
電力網など複雑な最適化問題に対応
実行可能性を100%保証する新手法
従来比で数倍の高速化を達成

マサチューセッツ工科大学(MIT)の研究チームが、実世界の課題解決を加速する2つの画期的なAI手法を発表しました。最適なAIモデルを効率的に選ぶ「CODA」と、複雑な問題を高速かつ確実に解く「FSNet」です。これらの技術は、AI導入のボトルネックを解消し、企業の生産性や収益性向上に直結する可能性を秘めています。

AI活用が進む一方、膨大な公開モデルから自社の課題に最適なものを選ぶ作業は大きな壁でした。有名なリポジトリには190万ものモデルが存在し、その評価だけでプロジェクトが停滞することも。この「モデル選択のジレンマ」が、AI実用化の足かせとなっていました。

MITが開発した「CODA」は、この問題を解決します。対話形式で最も情報価値の高いデータへのラベル付けを促すことで、評価作業を劇的に効率化。研究では、わずか25個のサンプルで最適なモデルを特定できたケースもあります。これにより、迅速かつ的確なモデル選択が可能になります。

一方、電力網管理などの最適化問題では、速度と信頼性の両立が課題です。従来の数学的ソルバーは正確ですが時間がかかり、AI予測は高速でも物理制約を破る「実行不可能な解」を出すリスクを抱えていました。失敗が許されない領域では、AIの導入は困難視されてきたのです。

新手法「FSNet」は、AIの速度と従来手法の信頼性を融合させました。まずAIが最適解を高速に予測し、次にその予測値を基に従来のソルバーが制約条件を100%満たすように解を微調整します。この2段階アプローチにより、従来比で数倍の速度向上と、実行可能性の完全な保証を両立させました。

これらの手法は具体的な成果を上げています。「CODA」は野生動物の画像分類で有効性を実証し、「FSNet」は電力網最適化で従来手法を凌駕する性能を示しました。応用範囲は生態系保護から金融、製造業まで、あらゆる産業の意思決定を変革する可能性を秘めています。

「CODA」と「FSNet」は、AIを単なる予測ツールから、現実世界の複雑なオペレーションを支える信頼性の高いパートナーへと引き上げるものです。AI導入の障壁を下げ、その価値を最大化するこれらの研究は、企業の競争力を左右する重要な鍵となるでしょう。今後のビジネス実装への展開が期待されます。

マイクロソフトAI投資加速、電力不足が新たなボトルネックに

世界中でAIインフラ巨額契約

豪州企業と97億ドルの契約
クラウド企業Lambdaとも大型契約
UAEに152億ドル投資
最新NVIDIAGPUを大量確保

GPU余剰と電力不足の矛盾

チップ在庫はあっても電力が不足
データセンター建設が需要に追いつかない
CEO自らが課題を認める発言
エネルギー確保が最重要課題に浮上

マイクロソフトが、AIの計算能力を確保するため世界中で巨額のインフラ投資を加速させています。しかしその裏で、確保した大量のGPUを稼働させるための電力不足とデータセンター建設の遅れという深刻な問題に直面しています。同社のサティア・ナデラCEO自らがこの課題を認めており、AIのスケールアップにおける新たなボトルネックが浮き彫りになりました。

同社は、オーストラリアデータセンター企業IRENと97億ドル、AIクラウドを手がけるLambdaとは数十億ドル規模の契約を締結。さらにアラブ首長国連邦(UAE)には今後4年で152億ドルを投じるなど、最新のNVIDIAGPUを含む計算資源の確保をグローバルで推進しています。これは、急増するAIサービスの需要に対応するための動きです。

しかし、ナデラCEOは「現在の最大の問題は計算能力の供給過剰ではなく、電力データセンターの建設速度だ」と語ります。OpenAIサム・アルトマンCEOも同席した場で、ナデラ氏は「チップの在庫はあるが、接続できる場所がないのが実情だ」と述べ、チップ供給から物理インフラへと課題が移行したことを明確に示しました。

この問題の背景には、これまで横ばいだった電力需要データセンターの急増によって予測を上回るペースで伸びていることがあります。電力会社の供給計画が追いつかず、AI競争の足かせとなり始めています。AIの知能単価が劇的に下がるほど、その利用は爆発的に増え、さらなるインフラ需要を生む「ジェボンズのパラドックス」が現実味を帯びています。

アルトマン氏は核融合や太陽光発電といった次世代エネルギー投資していますが、これらの技術がすぐに大規模展開できるわけではありません。AIの進化を支えるためには、計算資源だけでなく、それを動かすための安定的かつ大規模な電力供給網の構築が、テクノロジー業界全体の喫緊の課題となっているのです。

脱・投機実行、決定論的CPUがAI性能を予測可能に

投機的実行の限界

予測失敗によるエネルギー浪費
Spectre等の脆弱性リスク
AI処理での性能の不安定化

決定論的実行の革新

時間ベースでの正確な命令実行
パイプライン破棄なくし高効率化
ハードウェア簡素化と低消費電力

AI/MLへのインパクト

ベクトル演算での高スループット
TPUに匹敵する性能を低コストで実現

30年以上主流だったCPUの「投機的実行」に代わる新技術として、「決定論的実行」モデルが登場しました。これは命令を予測に頼らず時間ベースで正確に実行するもので、特にAIや機械学習(ML)の分野で課題だった性能の不安定さを解消します。エネルギー効率とセキュリティを大幅に向上させ、予測可能なパフォーマンスを実現する次世代アーキテクチャとして注目されています。

従来の投機的実行は、命令の実行順序を予測することで高速化を図ってきました。しかし、予測が外れるとパイプラインを破棄・再実行する必要があり、エネルギーの浪費と遅延が発生します。さらに、SpectreやMeltdownといった深刻なセキュリティ脆弱性の温床にもなりました。特にAIワークロードでは、この予測不可能性が性能の大きな足かせとなっていました。

新しい決定論的実行モデルは、予測という「当て推量」を排除します。代わりに「タイムカウンター」と「レジスタスコアボード」という仕組みを利用し、各命令に正確な実行タイミングを割り当てます。データやリソースが利用可能になる瞬間を事前に計算し、計画通りに命令を実行するため、無駄な処理が一切発生しないのです。

このアーキテクチャの最大の利点は、予測可能なパフォーマンスです。処理するデータによって性能が大きく変動する「パフォーマンスクリフ」がなくなり、安定したスループットを実現できます。また、パイプラインの破棄が不要になるため、エネルギー効率が劇的に向上し、ハードウェア設計も簡素化できるというメリットがあります。

決定論的実行は、ベクトル演算や行列演算が多用されるAI/MLワークロードに特に適しています。GoogleTPUのような専用ハードウェアに匹敵するスループットを、より低コストかつ低消費電力で実現する可能性を秘めています。これにより、データセンターからエッジデバイスまで、幅広いAIアプリケーションの性能向上に貢献するでしょう。

開発者にとって、この移行はスムーズです。アーキテクチャはRISC-V命令セットの拡張をベースにしており、GCCやLLVMといった既存のツールチェーンと互換性があります。プログラミングモデルを大きく変えることなく、ハードウェアの予測可能性と効率性の恩恵を受けられるため、よりシンプルに高性能なアプリケーションを開発できます。

かつて投機的実行がCPU設計に革命をもたらしたように、決定論的実行は次のパラダイムシフトとなるのでしょうか。AI時代の到来により、性能の予測可能性と電力効率への要求はかつてなく高まっています。この新しいアプローチは、次世代コンピューティングの鍵を握る重要な技術革新と言えるでしょう。

AIの電力消費急増、電気料金値上げの懸念現実に

高まる電気料金への懸念

米消費者の8割が料金を懸念
AI・データセンターが主因と認識

急増するデータセンター需要

米国電力需要は10年以上横ばい
直近5年で商業・産業用が急増
2028年に最大12%を消費と予測

追いつかない電力供給網

再エネ拡大も政策リスクが影
天然ガスは輸出優先で国内不足
発電所建設の長期化がボトルネック

米国でAIとデータセンター電力消費が急増し、消費者の間で電気料金の値上げに対する懸念が広がっています。太陽光発電事業者Sunrunが実施した最新の調査によると、消費者の80%データセンター電力消費が自身の光熱費に与える影響を心配していることが判明。近年の電力需要の急激な伸びが、この懸念を裏付けています。

消費者の懸念は杞憂ではありません。米国電力需要は10年以上安定していましたが、データセンターを含む商業利用の急増で状況は一変しました。データセンター電力消費は2018年から倍増し、現在では米国の総発電量の約4%を占めます。ローレンス・バークレー国立研究所は、2028年までにこの割合が最大12%に達すると予測しており、電力網への負荷は増す一方です。

これまで旺盛な電力需要は、太陽光など再生可能エネルギーの拡大で賄われてきました。しかし、再エネ導入を促す政策には先行き不透明感があります。一方、もう一つの主要電源である天然ガスも、増産分が輸出に優先され、発電所の新設も時間がかかるため、供給が需要に追いつかない懸念が高まっています。

AI技術は、一部で雇用削減の手段と見なされるなど、社会的な懸念も存在します。こうした状況で、生活に直結する電気料金の値上げという問題が加われば、AI開発やデータセンター建設に対する社会的な反発が一層強まる可能性も指摘されています。

OpenAI、ミシガン州に巨大AIインフラ新設

ミシガン州の新拠点

サリーン・タウンシップに新設
1ギガワット超の巨大施設
2026年初頭に着工予定
2500人超の雇用を創出

スターゲイト計画全体像

オラクルとの提携事業
総計画容量は8GW超
今後3年で4500億ドル投資
節水型の閉ループ冷却を採用

OpenAIは10月30日、オラクルと共同で進める巨大AIインフラ計画「スターゲイト」をミシガン州に拡張すると発表しました。1ギガワットを超える新キャンパスを建設し、米国のAIインフラ構築と中西部の経済成長を支援する狙いです。これにより、計画全体の投資額は今後3年間で4500億ドルを超える見通しです。

新拠点はミシガン州サリーン・タウンシップに建設され、2026年初頭に着工予定です。開発はRelated Digital社が担当し、建設期間中には2500人以上の組合建設労働者の雇用が創出される見込みです。AIの発展に必要なインフラ構築が、地域経済に直接的な機会をもたらします。

今回の拡張により、「スターゲイト」計画の総容量は8ギガワットを超え、総投資額は4500億ドルを上回ります。今年1月に発表された「10ギガワット、5000億ドル」という目標達成に向け、計画を前倒しで進めている形です。この投資米国の「再工業化」を促す好機と位置づけられています。

環境への配慮も特徴です。新施設では、水の消費を大幅に削減する閉ループ冷却システムを採用します。また、電力は既存の送電網の余剰容量を利用し、追加で必要となる設備投資はプロジェクトが負担するため、地域住民への影響は回避される計画です。

OpenAIは、ミシガン州が長年米国エンジニアリングと製造業の中心地であったことを進出の理由に挙げています。テキサスやオハイオなどに続く今回の拡張により、AIがもたらす恩恵が全米に行き渡るためのインフラ整備を加速させる考えです。

Google、AIで大気浄化 ブラジルで3事業を支援

AIで挑む3つの大気浄化策

廃棄物からのメタンガスを回収
AIで排出源特定と効果を監視
機械学習でアマゾンの森林再生
AIで森林の炭素貯留量を測定

新技術と地域連携で炭素除去

岩石風化作用でCO2を固定化
AIが炭素除去プロセスを最適化
地域社会への経済・環境貢献も両立
多様な解決策への継続的な投資

Googleブラジルで、AIと科学技術を駆使した3つの気候変動対策プロジェクトを支援していることが明らかになりました。廃棄物からのメタン回収、機械学習による森林再生、岩石を利用した二酸化炭素(CO2)除去といった多角的なアプローチで、大気の浄化を目指します。これらの取り組みは、地球規模の課題解決と地域社会への貢献を両立させるモデルとして注目されます。

まず、短期的に温暖化への影響が最も大きいメタンガス対策です。Googleは廃棄物管理会社Orizonと連携し、埋立地から発生するメタンを回収、エネルギーに転換する事業を支援。AIは、メタンの主要な排出源を特定し、削減策の効果を監視する上で重要な役割を果たします。これにより、強力な温室効果ガスが大気中に放出されるのを防ぎます。

次に、自然の力を活用した炭素除去です。パートナーのMombak社は、ブラジル最大の再植林企業で、機械学習とデータサイエンスを用いてアマゾンの劣化した土地に在来種の木々を植えています。AIを活用した衛星画像解析などで、森林がどれだけの炭素を吸収・貯蔵しているかを正確に測定・管理し、効果的な森林再生を推進します。

さらに、画期的な新技術も導入します。Terradot社は、岩石が自然にCO2を吸収する「風化」というプロセスを技術的に加速させる手法を開発。ブラジルの広大な農業地帯でこの技術を展開し、土壌の質を改善しつつ、大気中のCO2をギガトン規模で恒久的に除去する可能性を秘めています。AIモデルは、土壌や気象データを分析し、炭素除去効果を最大化します。

Googleはこれらのプロジェクトを通じて、気候変動対策には単一の万能薬はなく、多様な解決策の組み合わせが不可欠であると示しています。最先端のAI技術を環境分野に応用し、地域社会に経済的・環境的な利益をもたらすこれらの事例は、サステナビリティとビジネスを両立させたい企業にとって、大きな示唆を与えるものではないでしょうか。

AI脅威論に終止符、科学者が描くべき未来

AIへの広がる懸念

科学界に広まるAIへの悲観論
偽情報や人権侵害など悪用の多発
ビッグテックによる技術支配の強化

未来を拓くAIの善用

言語の壁を越える翻訳技術
創薬や科学研究を加速するAI
民主的プロセスを強化する応用

科学者に求められる行動

倫理的で公平な業界改革の主導
ポジティブな未来像の明確な提示

AIに対する懸念が科学界でも広がる中、専門家リスクを警告するだけでなく、社会に有益な未来像を積極的に描くべきだと提言しています。偽情報や人権問題などの課題を認めつつ、AIには人々の生活を向上させる大きな可能性があると指摘。科学者や技術者がその実現に向け、開発の舵取り役を担うことの重要性を訴えています。

現在、AIが社会問題に拍車をかけているとの見方が強まっています。偽情報の拡散、戦争の高度化、そして膨大なエネルギー消費による環境負荷など、ネガティブな側面が目立ちます。ビッグテックによる技術支配も進み、AIが「あらゆることを悪化させている」という感覚さえ広がっているのです。

この悲観論は科学界も例外ではありません。ある調査では、科学者の間で生成AIの日常利用に対し、期待よりも懸念が3倍近く多いことが示されました。この風潮が続けば、AI開発を善導できるはずの人材が「手遅れだ」と諦め、そのプロセスから離れてしまう恐れはないでしょうか。

では、どうすればこの流れを変えられるのでしょうか。気候変動対策と同様、単にリスクを警告するだけでは不十分です。科学者や技術者は、AIがもたらす有益で具体的な未来像を社会に示し、その実現に向けた行動を促す必要があります。ポジティブなビジョンこそが、人々を動かす原動力となるのです。

AIの善用例は、既に数多く生まれ始めています。少数言語を含むコミュニケーションの壁を取り払い、創薬や基礎科学の研究を加速させ、さらには民主的な政策決定を支援する応用も登場しています。これらの初期段階の取り組みを育て、社会実装を広げていくことが重要です。

科学者にはAIの未来を形作る特権と責任があります。専門家は、倫理的な業界改革、有害利用への抵抗、社会を良くするための責任ある利用、そして制度改革の提唱という4つの行動を呼びかけます。技術の方向性は中立ではなく、私たちの選択次第です。望ましい未来を築くため、今こそ明確なビジョンが求められています。

Extropic、省エネAIチップでデータセンター覆す

新方式「熱力学チップ」

GPUとは根本的に異なる仕組み
熱のゆらぎを利用して計算
確率的ビット(p-bit)で動作
数千倍のエネルギー効率目標

初の試作機と将来性

初の実動ハードウェアを開発
AIラボや気象予測企業で試験
次世代機で拡散モデルを革新へ
データセンター電力問題に挑戦

スタートアップのExtropic社が、データセンターの常識を覆す可能性を秘めた新型コンピュータチップの最初の実動ハードウェアを開発しました。この「熱力学的サンプリングユニット(TSU)」は、従来のチップより数千倍のエネルギー効率を目指しており、AIの爆発的な普及に伴う莫大な電力消費問題への画期的な解決策として注目されています。

TSUは、GPUなどが用いる0か1のビットとは根本的に異なります。熱力学的な電子のゆらぎを利用して確率そのものを扱う「確率的ビット(p-bit)」で動作します。これにより、AIモデルや気象予測など、複雑なシステムの確率計算を極めて効率的に行えるようになります。この革新的なアプローチが、省エネ性能の鍵です。

同社は今回、初の試作機「XTR-0」を開発し、一部のパートナー企業への提供を開始しました。提供先には、最先端のAI研究を行うラボや気象モデリングを手がけるスタートアップ、さらには複数の政府関係者が含まれており、実環境での有用性の検証が始まっています。

パートナーの一社である気象予測AI企業Atmo社のCEOは、この新技術に大きな期待を寄せています。Extropicのチップを使えば、様々な気象条件が発生する確率を従来よりはるかに効率的に計算できる可能性があると述べており、より高解像度な予測モデルの実現につながるかもしれません。

Extropic社は、将来の展望も具体的に示しています。同社が発表した論文では、数千個のp-bitを搭載した次世代チップで、画像生成AIなどに用いられる「拡散モデル」を効率化できると説明。来年には25万p-bitを搭載したチップ「Z-1」の提供を目指しています。

この独自のアプローチは、業界専門家からも高く評価されています。ある専門家は「従来のトランジスタのスケーリングが物理的な限界に達する中、Extropic社の物理情報処理へのアプローチは、今後10年で変革をもたらす可能性がある」と指摘しています。

AIデータセンターへの巨額投資が続く一方で、そのエネルギー需要は深刻な課題です。Extropic社の挑戦は、ハードウェアの根本的な革新によってこの問題を解決しようとするものです。たとえ成功確率がわずかでも、試す価値のある重要な取り組みだと言えるでしょう。

ゲイツ氏、気候対策はAI活用と健康重視へ

ゲイツ氏の新提言

排出量削減への過度な固執を批判
健康と繁栄の向上を最優先
AIによる農業・医療分野の支援

現場からの批判

汚染者を免罪する危険な議論
現場のニーズを無視した技術論
AI開発による排出量増の矛盾

マイクロソフト創業者ビル・ゲイツ氏が、気候変動対策に関する新たなメモを発表しました。同氏は、世界の気候変動コミュニティは排出量削減に固執しすぎていると指摘し、今後はAI技術を活用して人々の「健康と繁栄」を向上させることに注力すべきだと提言。しかし、この主張は現場のニーズを無視し、汚染者を免罪しかねないとして、専門家や活動家から強い批判を招いています。

ゲイツ氏はメモの中で、「気候変動に関する終末論的な見通しが、短期的な排出目標に過度に焦点を合わせさせている」と主張。気候変動は文明の終わりを意味するものではなく、人々の健康と繁栄こそが気候変動に対する最善の防御策であると論じ、気温上昇を唯一の指標とすることに疑問を呈しています。

提言の核となるのがAIの活用です。ゲイツ氏は、農家がAIから作付けに関する最適なアドバイスを得たり、医療従事者がAI搭載デバイスで妊婦を診断したりする未来像を提示。これにより、気候変動の影響を最も受けやすい低所得国の人々の生活を直接的に改善できると強調します。

しかし、この「排出量軽視」ともとれる主張には批判が集中しています。非営利団体の専門家は「危険なほど見当違いで、誤解を招く」と厳しく指摘。排出量削減という根本的な課題から目をそらし、化石燃料産業などの汚染者の責任を曖昧にする議論につながりかねないとの懸念が広がっています。

また、現場のニーズとの乖離も問題視されています。アフリカの農業支援者は、AIが作付け情報を提供しても、肝心の水がなければ作物は育たないと指摘。現場が本当に必要としているのは、太陽光発電の水ポンプのような実用的な技術であり、トップダウンの技術導入への反発も招いています。

さらに、ゲイツ氏自身の矛盾も指摘されています。同氏が推進するAIは膨大な電力を消費します。実際にマイクロソフトの炭素排出量は、AI開発の活発化に伴い近年増加傾向にあり、自社の「カーボンネガティブ」目標達成を困難にしているのが実情です。

気候変動対策は、排出量削減か、人々の生活向上か、という二者択一の問題ではありません。汚染者に責任を求めつつ、最も脆弱な立場の人々が繁栄できるための支援を確保すること。両者を同時に追求する多角的なアプローチが今、求められているのではないでしょうか。

NVIDIA、AI工場設計図と新半導体を一挙公開

AI工場構築の設計図

政府向けAI工場設計図を公開
ギガワット級施設のデジタルツイン設計
次世代DPU BlueField-4発表
産業用AIプロセッサ IGX Thor

オープンなAI開発

高効率な推論モデルNemotron公開
物理AI基盤モデルCosmosを提供
6G研究用ソフトをオープンソース化

NVIDIAは10月28日、ワシントンD.C.で開催の技術会議GTCで、政府・規制産業向けの「AIファクトリー」参照設計や次世代半導体、オープンソースのAIモデル群を一挙に発表しました。これは、セキュリティが重視される公共分野から創薬エネルギー、通信といった基幹産業まで、AIの社会実装をあらゆる領域で加速させるのが狙いです。ハード、ソフト、設計思想まで網羅した包括的な戦略は、企業のAI導入を新たな段階へと導く可能性があります。

発表の核となるのが、AI導入の設計図です。政府・規制産業向けに高いセキュリティ基準を満たす「AI Factory for Government」を発表。PalantirやLockheed Martinなどと連携します。また、Omniverse DSXブループリントは、ギガワット級データセンターデジタルツインで設計・運用する手法を提示。物理的な建設前に効率や熱問題を最適化し、迅速なAIインフラ構築を可能にします。

AIインフラの性能を根幹から支える新半導体も発表されました。次世代DPU「BlueField-4」は、AIデータ処理、ネットワーキング、セキュリティを加速し、大規模AI工場の中枢を担います。さらに、産業・医療のエッジ向けには、リアルタイム物理AIプロセッサ「IGX Thor」を投入。従来比最大8倍のAI性能で、工場の自動化や手術支援ロボットの進化を後押しします。

開発者エコシステムの拡大に向け、AIモデルのオープンソース化も加速します。高効率な推論でAIエージェント構築を容易にする「Nemotron」モデル群や、物理世界のシミュレーションを可能にする「Cosmos」基盤モデルを公開。さらに、次世代通信規格6Gの研究開発を促進するため、無線通信ソフトウェア「Aerial」もオープンソースとして提供します。

これらの技術は既に具体的な産業応用へと結実しています。製薬大手イーライリリーは、1000基以上のNVIDIA Blackwell GPUを搭載した世界最大級の創薬AIファクトリーを導入。General Atomicsは、核融合炉のデジタルツインを構築し、シミュレーション時間を数週間から数秒に短縮するなど、最先端科学の現場で成果を上げています。

今回の一連の発表は、AIが研究開発段階から、社会を動かす基幹インフラへと移行する転換点を示唆しています。NVIDIAが提示する「AIファクトリー」という概念は、あらゆる産業の生産性と競争力を再定義する可能性を秘めています。自社のビジネスにどう取り入れ、新たな価値を創造するのか。経営者やリーダーには、その構想力が問われています。

クアルコム、AIチップで王者NVIDIAに挑戦状

新チップでNVIDIAに対抗

AI200を2026年に投入
AI250を2027年に投入
AIモデルの推論処理に特化
サウジのAI企業が採用表明

モバイル技術をデータセンターへ

スマホ向けNPU技術が基盤
最大72チップでラック構成
AI250で大幅な低消費電力を実現
AI200は768GBのRAM搭載

携帯電話向け半導体大手のクアルコムは2025年10月27日、AI(人工知能)チップ市場への本格参入を発表しました。AIモデルの「推論」に特化した新製品「AI200」と「AI250」を投入し、同市場で圧倒的なシェアを誇るNVIDIAの牙城に挑みます。モバイル向けで培った技術をデータセンター向けに転用する戦略で、新たな成長を目指します。

2026年に投入予定の「AI200」は、AI推論に最適化され768GBのRAMを搭載します。2027年には、効率を飛躍的に高め、大幅な低消費電力を実現するという「AI250」をリリース予定。両製品ともAIモデルの学習ではなく、実行(推論)に特化している点が特徴です。

チップの核となるのは、スマートフォン向けで培ってきた「Hexagon NPU」技術です。この電力性能に優れたモバイル技術データセンターに応用することで、競合との差別化を図ります。同社の技術資産を最大限に活用した戦略と言えるでしょう。

クアルコムの参入は、これまで携帯電話や通信機器が主力だった同社にとって大きな戦略転換を意味します。最大72個のチップを単一コンピュータとして連携させる構成も可能で、NVIDIAやAMDのGPUが支配するデータセンター市場への明確な挑戦状と受け止められています。

すでにサウジアラビアの公共投資基金(PIF)傘下のAI企業「Humain」が新チップの採用を表明。同社はサウジアラビアでAIデータセンターを構築しており、クアルコムチップがそのインフラの中核を担います。初の大口顧客を獲得し、幸先の良いスタートを切りました。

OpenAI、AI覇権の鍵は電力と米政府に提言

AI覇権を脅かす電力不足

米国のAIリーダーシップに黄信号
電力不足が最大のボトルネック
中国との深刻な「電子の格差
電子は新たな石油、戦略資産に

政府への4つの緊急提言

年間100GWの新規電力容量を構築
規制を近代化しエネルギー投資を促進
AI教育で次世代の労働者を育成
国家安全保障のためのAI活用拡大

OpenAIは2025年10月27日、米国のAI覇権確保に向け、年間100ギガワット(GW)の新規エネルギー容量構築を米政府に提言しました。急成長する中国との「電子の格差」に強い危機感を示し、電力を国家の戦略的資産と位置付けるよう訴えています。

なぜ今、電力なのでしょうか。AIは基盤技術ですが、その稼働には膨大な電力を消費します。OpenAIの分析では、AIインフラへの最初の1兆ドル投資が3年間でGDPを5%以上押し上げる一方、現在の電力供給ではこの成長を支えきれないと警告しています。

最大の脅威は中国の存在です。中国は2024年だけで429GWもの新規電力容量を追加しました。これは同年の米国の増加分(51GW)の8倍以上に相当します。OpenAIはこの状況を「電子の格差」と呼び、AI覇権競争における米国の弱点になりかねないと警鐘を鳴らしています。

OpenAIは提言だけでなく、自らも行動で示しています。同社はテキサス州やウィスコンシン州などで大規模データセンタースターゲイト」を建設中で、今後3年間で4000億ドル以上を投じ、約7GWの計算能力を追加する計画です。これは地域経済の活性化にも繋がります。

しかし、インフラ構築には大きな壁も存在します。それは熟練労働者の不足です。分析によると、今後5年間で米国のAI関連インフラを支えるには、現在の熟練労働者総数の約20%に相当する人材が新たに必要になるといいます。AI教育と職業訓練プログラムの拡充が急務です。

OpenAIは、かつての高速道路網整備やアポロ計画のように、米国には国家的な大事業を成し遂げてきた歴史があると強調します。AIという一世紀に一度の好機を掴むため、国を挙げた大胆な投資と行動が今こそ求められている、という強いメッセージを発信しているのです。

中国発MiniMax-M2、オープンソースLLMの新王者

主要指標でOSSの首位

第三者機関の総合指標で1位
独自LLMに迫るエージェント性能
コーディングベンチでも高スコア

企業導入を促す高効率設計

商用利用可のMITライセンス
専門家混合(MoE)で低コスト
少ないGPU運用可能
思考プロセスが追跡可能

中国のAIスタートアップMiniMaxが27日、最新の大規模言語モデル(LLM)「MiniMax-M2」を公開しました。第三者機関の評価でオープンソースLLMの首位に立ち、特に自律的に外部ツールを操作する「エージェント性能」で独自モデルに匹敵する能力を示します。商用利用可能なライセンスと高い電力効率を両立し、企業のAI活用を加速させるモデルとして注目されます。

第三者評価機関Artificial Analysisの総合指標で、MiniMax-M2オープンソースLLMとして世界1位を獲得しました。特に、自律的な計画・実行能力を測るエージェント関連のベンチマークでは、GPT-5Claude Sonnet 4.5といった最先端の独自モデルと肩を並べるスコアを記録。コーディングやタスク実行能力でも高い性能が確認されています。

M2の最大の特長は、企業での導入しやすさです。専門家の知識を組み合わせる「MoE」アーキテクチャを採用し、総パラメータ2300億に対し、有効パラメータを100億に抑制。これにより、わずか4基のNVIDIA H100 GPUでの運用を可能にし、インフラコストを大幅に削減します。さらに、商用利用を認めるMITライセンスは、企業が独自に改良・展開する際の障壁を取り払います。

高いエージェント性能を支えるのが、独自の「インターリーブ思考」形式です。モデルの思考プロセスがタグで明示されるため、論理の追跡と検証が容易になります。これは、複雑なワークフローを自動化する上で極めて重要な機能です。開発者は構造化された形式で外部ツールやAPIを連携させ、M2を中核とした高度な自律エージェントシステムを構築できます。

M2の登場は、オープンソースAI開発における中国勢の台頭を象徴しています。DeepSeekやアリババのQwenに続き、MiniMaxもまた、単なるモデルサイズではなく、実用的なエージェント能力やコスト効率を重視する潮流を加速させています。監査や自社でのチューニングが可能なオープンモデルの選択肢が広がることは、企業のAI戦略に大きな影響を与えるでしょう。

Google、AIの電力需要急増で原発を再稼働へ

AIと電力問題

AI・クラウド電力需要が急増
安定的なクリーン電力確保が課題に

Googleの解決策

電力大手NextEra Energyと協業
アイオワ州の休止原発を2029年に再稼働
Googleが再稼働投資電力コストを負担

再稼働のインパクト

600MW超のクリーン電力を供給
アイオワ州に数千人の雇用創出
AI成長とエネルギー確保の両立モデル

Googleは2025年10月27日、電力大手NextEra Energyとの協業を発表しました。アイオワ州唯一の原子力発電所を再稼働させ、急増するAIインフラ電力需要を賄います。クリーンで安定した電力確保が目的です。

生成AIの普及はデータセンター電力消費を急増させています。Google天候に左右されず24時間稼働できる原子力に着目。AI成長を支える迅速かつ大規模なクリーン電力確保策として、休止中の原発再稼働を決断しました。

発電所は2029年初頭に再稼働し、600MW超の電力を供給する計画です。契約に基づき、Googleは再稼働への投資を可能にし、発電コストを負担します。これにより、一度稼働していたプラントを迅速に活用できます。

このプロジェクトは電力確保にとどまりません。発電所の再稼働はアイオワ州に数千人規模の雇用大きな経済効果をもたらすと期待されています。ハイテク産業の成長が地域経済の活性化に直接貢献する好例となるでしょう。

Googleは他にも需要の柔軟化や次世代送電技術の導入など、多角的なエネルギー戦略を進めています。信頼性が高く拡張可能なエネルギーを迅速に確保し、持続可能なAIの発展を目指す姿勢を明確にしました。

米政府、AMDと組み国家主権AIスパコン開発へ

10億ドルの大型プロジェクト

エネルギー省とAMDが提携
総額10億ドルの契約を締結
2基のAIスパコンを開発
オークリッジ国立研究所に設置

2基の新スパコンの役割

Lux:国家初のAIファクトリー
Luxは2026年初頭に稼働
Discovery:科学研究を加速
Discoveryは2029年稼働予定

半導体大手AMDは10月27日、米エネルギー省と10億ドル規模の契約を締結したと発表しました。この提携に基づき、テネシー州のオークリッジ国立研究所に2基のAIスーパーコンピュータ「Lux」と「Discovery」を開発します。「Lux」は2026年初頭、「Discovery」は2029年の稼働を目指しており、米国の科学技術と国家安全保障の強化が目的です。

「Lux」は、米国初となる科学、エネルギー、国家安全保障に特化した「AIファクトリー」と位置づけられています。AI基盤モデルの訓練や微調整、展開に特化しており、データ集約的なワークロードに最適化された設計です。これにより、発見や技術革新を加速させることが期待されます。

一方の「Discovery」は、エネルギー、生物学、先端材料、製造業など、幅広い分野での画期的な研究を推進します。次世代原子炉やバッテリー、半導体などの設計支援が主な用途です。「Bandwidth Everywhere」設計により、既存のスパコン「Frontier」を上回る性能とエネルギー効率を実現します。

AMDと米政府の協力は今回が初めてではありません。同研究所に設置されている世界最速級のスパコン「Frontier」の開発にもAMDは関与しています。今回のプロジェクトは、これまでの協力関係を基盤とし、米国のAI覇権と科学技術力をさらに強化する戦略的な一手と言えるでしょう。

グーグル、東南アジアのAI経済成長を加速

AIで科学と持続可能性を革新

AlphaFoldで難病研究を支援
農業APIで気候変動に対応
クリーンエネルギー計画ツール開発に資金提供

全世代へのAIスキル教育を推進

ASEAN財団と連携しAIリテラシー教育
教師向けにGemini Academyを提供
若者のデジタルウェルビーイングに500万ドル拠出
学生向けGemini Proプランを1年間無償提供

Googleは東南アジアでのAI活用による経済成長を加速させるため、新たなイニシアチブを発表しました。ASEANビジネス・投資サミットで公表されたこの計画は、科学研究の促進、持続可能性の向上、そしてAIスキルの普及を三つの柱としています。同地域でのAIの急速な普及を背景に、官民連携でその潜在能力を最大限に引き出すことを目指します。

東南アジアは、テクノロジーに前向きな国民性と高いデジタル普及率を背景に、AI成長の絶好の機会を迎えています。地域住民の70%がすでに週次で生成AIを利用しており、AI導入によって最大2700億米ドルの経済効果が見込まれるとの試算もあります。この勢いを確実な成長につなげることが、今回の取り組みの狙いです。

AIは科学的発見のペースを劇的に速めています。Google DeepMindが開発したタンパク質構造解析AI「AlphaFold」は、東南アジアの8万5000人以上の研究者に利用されています。マレーシアでの感染症治療薬の研究や、シンガポールでのパーキンソン病早期発見など、医療分野で具体的な成果を生み出しています。

持続可能性と気候変動へのレジリエンス向上も重要なテーマです。作物の種類や生育状況を分析する農業APIをマレーシア、ベトナム、インドネシアに拡大します。また、クリーンエネルギーへの移行を支援するため、AIを活用した計画ツールを開発する非営利団体に150万ドルの資金を提供します。

AIの恩恵を誰もが享受するには、スキル教育が不可欠です。Google.orgはASEAN財団の「AI Ready ASEAN」を支援し、すでに80万人の若者や教育者にAIリテラシーを提供しました。さらに、オンラインプラットフォーム「AI Class ASEAN」を通じて、自己学習の機会を広げています。

教育現場への直接的な支援も強化します。「Gemini Academy」を通じてインドネシアやフィリピンなど5カ国で29万人以上の教師を研修し、授業でのAI活用を後押ししています。さらに、18歳以上の学生には「Gemini AI Pro Plan」を12ヶ月間無償で提供し、次世代のAI人材育成を図ります。

Googleは、政府、企業、地域社会との緊密な連携を通じて、革新的で包括的、かつ責任あるAIエコシステムを構築することを目指しています。今回の取り組みは、AIを東南アジアの発展の強力なエンジンとし、地域全体の繁栄と強靭な未来を築くための重要な一歩となるでしょう。

脳を模倣した省エネAI、MITが新技術

脳に学ぶAIの省エネ化

AIの膨大な電力消費が課題
脳の情報処理・記憶を模倣
データ移動をなくし効率化
持続可能なAI実現への道

新デバイス「イオンシナプス」

信号強度を調整するシナプスの役割
イオンで電気抵抗を精密制御
タングステン酸化物を利用
半導体技術との互換性も視野

マサチューセッツ工科大学(MIT)の研究チームが、人工知能(AI)の膨大なエネルギー消費問題を解決する新技術を開発しています。人間の脳の情報処理メカニズムを模倣した「ニューロモーフィックコンピューティング」に基づき、消費電力を大幅に削減するデバイスを研究。この成果は、AIの持続可能性を高め、計算コストという産業界の大きな課題に光明を投じるものとして注目されます。

なぜ脳の仕組みが重要なのでしょうか。現在のコンピュータは、情報を処理する場所と記憶する場所が分かれているため、データのやり取りに多くのエネルギーを消費します。一方、人間の脳ではニューロン間の接続部「シナプス」で情報処理と記憶が同時に行われます。この圧倒的な効率性を再現することが、省エネAI実現の鍵となります。

研究の中心は「電気化学的イオンシナプス」と呼ばれる微小デバイスです。研究チームは、タングステン酸化物にマグネシウムイオンを出し入れすることで、電気の通りやすさ(抵抗)を精密に制御。これにより、脳のシナプスが信号の強弱を調整するように、デバイスの特性を自在に「チューニング」できるといいます。

この脳型コンピューティング技術は、AIの運用コストを劇的に下げる可能性を秘めています。特に大規模言語モデルの学習や運用にかかる電力は、企業の収益性を圧迫する要因となりつつあります。MITの研究は、エネルギーという制約からAIを解放し、より広範な社会実装を後押しする画期的な一歩と言えるでしょう。

急増AIデータセンター、電力消費と持続可能性に警鐘

巨大な電力消費と環境負荷

冷却等で膨大な電力を消費
ニューヨーク市の半分の電力を使う施設も
アイルランドでは電力の20%超を消費
環境負荷のデータは多くが企業秘密

過熱する投資とバブル懸念

テック大手による数千億ドル規模投資
供給に対し消費者需要が未成熟
会計操作による利益水増しの疑い
小型モデルなど技術革新のリスク

OpenAIマイクロソフトなど巨大テック企業が、AIの計算基盤であるデータセンターへ数千億ドル規模の投資を加速させています。しかしその裏では、膨大な電力消費による環境負荷や地域社会との軋轢、供給過剰によるAIバブルの懸念といった問題が深刻化。AIの急成長を支えるインフラの持続可能性が今、問われています。

データセンターは、AIモデルを動かすためのサーバーが詰まった巨大な倉庫です。ユーザーからの指示(クエリ)は「トークン」と呼ばれる小さなデータに分解され、GPU画像処理半導体)が並列処理で高速に応答を生成します。この一連のプロセスと、サーバーを冷却し続けるために膨大な電力が必要となります。

そのエネルギー消費量は桁外れです。例えば、Meta社が計画する新施設は、ニューヨーク市のピーク時電力の約半分に相当する電力を消費する見込みです。アイルランドでは、データセンターがすでに国の総電力の20%以上を消費。しかし、多くの企業は環境負荷に関する詳細なデータを公開しておらず、実態の把握は困難を極めます。

市場ではOpenAIの「Stargate」プロジェクトのように、数千億ドル規模の投資計画が次々と発表されています。一方で、AIサービスへの消費者支出はまだ限定的であり、供給が需要を大幅に上回るリスクが指摘されています。一部では、インフラ費用を過小に報告し、利益を水増ししているとの見方さえあります。

データセンター建設は、政治的な対立も生んでいます。政府が国策としてAI産業を後押しする一方、地域レベルでは住民の反対運動が激化。電力料金の高騰、水資源の枯渇、騒音などが主な理由です。テネシー州メンフィスでは、イーロン・マスク氏のxAIが無許可でガスタービンを設置し、地域社会から厳しい批判を浴びました。

現在の巨大投資は、「大規模モデルがAIの主流であり続ける」という前提に基づいています。しかし、より少ない計算資源で動く効率的な小型モデルや、新たなチップ設計、量子コンピューティングといった技術革新が、現在のインフラを陳腐化させる可能性も否定できません。AI業界の急激なスケール競争は、大きな不確実性をはらんでいるのです。

Google、初のCCS発電所支援で脱炭素を加速

初のCCSプロジェクト契約

米イリノイ州のガス発電所を支援
発電電力大部分を購入
CO2排出量の約90%を回収
2030年初頭の商業運転開始

技術普及への狙い

安定したクリーン電力源を確保
技術普及とコスト低減を加速
IEAなども有効性を承認
排出量報告の透明性を重視

Googleは2025年10月23日、炭素回収・貯留(CCS)技術を導入したガス発電所を支援する初の企業契約を締結したと発表しました。イリノイ州の「Broadwing Energy」プロジェクトから電力の大部分を購入し、データセンターを支える安定したクリーン電力網の構築を目指します。この取り組みは、CCS技術の商用化を加速させる画期的な一歩となります。

なぜ今、CCSなのでしょうか。再生可能エネルギー天候に左右される一方、CCS付きガス発電は24時間365日稼働できる「クリーンで安定したベースロード電源」として期待されています。国際エネルギー機関(IEA)なども、電力部門や製造業の脱炭素化に不可欠な技術としてその有効性を認めています。

今回のプロジェクトは、プロジェクト開発者LCIとの連携で進められます。発電容量400MW超の新設プラントから排出されるCO2の約90%を回収し、併設された米農産物大手ADM社の施設で地下1.6km超の深さに永久貯留します。2030年初頭の商業運転開始を予定しています。

このプロジェクトは環境面だけでなく、地域経済にも大きな利益をもたらします。今後4年間で推定750人の常勤雇用を創出し、プラント稼働後も数十人規模の恒久的な雇用を支える見込みです。Googleは、地域社会との連携を重視しながら開発を進める方針です。

Googleはこの協業を通じ、CCS技術の性能向上やコスト低減を加速させ、世界的な普及を目指します。プロジェクトの環境健全性を担保するため、排出量報告の透明性も重視します。AIによる効率化と並行してクリーンエネルギー技術ポートフォリオを拡充し、脱炭素社会の実現を多角的に推進する構えです。

AI開発の生産性向上、ソフトウェアの断片化解消が鍵

AI開発を阻む「複雑性の壁」

断片化したソフトウェアスタック
ハードウェア毎のモデル再構築
6割超のプロジェクトが本番前に頓挫
エッジ特有の性能・電力制約

生産性向上への道筋

クロスプラットフォームの抽象化レイヤー
最適化済みライブラリの統合
オープン標準による互換性向上
ハードとソフトの協調設計

ArmをはじめとするAI業界が、クラウドからエッジまで一貫した開発を可能にするため、ソフトウェアスタックの簡素化を急いでいます。現在、断片化したツールやハードウェア毎の再開発がAIプロジェクトの大きな障壁となっており、この課題解決が開発の生産性と市場投入の速度を左右する鍵を握っています。

AI開発の現場では、GPUやNPUなど多様なハードウェアと、TensorFlowやPyTorchといった異なるフレームワークが乱立。この断片化が非効率な再開発を招き、製品化までの時間を浪費させています。調査会社ガートナーによれば、統合の複雑さを理由にAIプロジェクトの6割以上が本番前に頓挫しているのが実情です。

このボトルネックを解消するため、業界は協調した動きを見せています。ハードウェアの違いを吸収する抽象化レイヤーの導入、主要フレームワークへの最適化済みライブラリの統合、ONNXのようなオープン標準の採用などが進んでいます。これにより、開発者はプラットフォーム間の移植コストを大幅に削減できるのです。

簡素化を後押しするのが、クラウドを介さずデバイス上でAIを処理する「エッジ推論」の急速な普及です。スマートフォンや自動車など、電力や処理能力に制約のある環境で高性能なAIを動かすには、無駄のないソフトウェアが不可欠です。この需要が、業界全体のハードウェアとソフトウェアの協調設計を加速させています。

この潮流を主導するのが半導体設計大手のArmです。同社はCPUにAI専用の命令を追加し、PyTorchなどの主要ツールとの連携を強化。これにより開発者は使い慣れた環境でハードウェア性能を最大限に引き出せます。実際に、大手クラウド事業者へのArmアーキテクチャ採用が急増しており、その電力効率の高さが評価されています。

AIの次なる競争軸は、個別のハードウェア性能だけでなく、多様な環境でスムーズに動作する「ソフトウェアの移植性」に移っています。エコシステム全体で標準化を進め、オープンなベンチマークで性能を競う。こうした協調的な簡素化こそが、AIの真の価値を引き出し、市場の勝者を決めることになるでしょう。

便利AIの死角、個人データ痕跡を最小化する6つの鍵

自律型AIのデータリスク

利便性の裏で膨大な個人データを生成
生活習慣がデジタル痕跡として長期蓄積
意図せぬプライバシー侵害の危険性

プライバシー保護の設計

データ保持期間と目的の限定
アクセス権の最小化と一時化
AIの行動を可視化しユーザーが制御
データの一括削除と完全消去を保証

ユーザーに代わり自律的に行動する「エージェントAI」は、その利便性の裏で膨大な個人データを生成・蓄積し、プライバシー上のリスクをもたらすと専門家が警鐘を鳴らしています。しかし、設計段階で規律ある習慣を取り入れることで、この問題は解決可能です。本稿では、AIの機能性を損なうことなく、利用者の「デジタル・トレイル(痕跡)」を劇的に削減するための6つの具体的なエンジニアリング手法を解説します。

エージェントAIは、ユーザーの指示を超えて自ら計画し、行動するシステムです。例えばスマートホームAIは、電力価格や天候を監視し、自動で空調やEV充電を最適化します。しかしその過程で、AIへの指示、行動、予測データなどがログとして大量に蓄積されます。これが、個人の生活習慣を詳細に記録した危険なデータ痕跡となり得るのです。

こうしたデータ蓄積は、システムの欠陥ではなく、多くのエージェントAIにおけるデフォルトの動作であることが問題を深刻にしています。開発者は迅速なサービス提供を優先し、データ管理を後回しにしがちです。その結果、ユーザーが把握できない形で、ローカルやクラウド上のストレージに個人データが散在・蓄積されてしまうのです。

この問題の解決に、全く新しい設計思想は必要ありません。プライバシー保護の国際基準であるGDPRの諸原則、すなわち「目的の限定」「データ最小化」「アクセス・保存期間の制限」「説明責任」といった、確立された考え方を技術的に実装することで十分に対応可能だと専門家は指摘します。

具体的な対策として、まずAIが利用するメモリやデータをタスク実行に必要な期間に限定することが挙げられます。次に、個々の実行IDに関連する全てのデータを紐付け、ユーザーが単一のコマンドで一括かつ完全に削除できる仕組みを構築します。デバイスへのアクセス権も、必要な操作のみを許可する一時的なものにすべきです。

AIの行動の透明性を確保することも極めて重要です。AIの計画、実行内容、データの流れ、消去予定日時などを平易な言葉で示す「エージェント・トレース」機能は、ユーザーに安心と制御手段を与えます。また、データ収集は最もプライバシー侵害の少ない方法を常に選択し、自己監視ログや第三者分析機能はデフォルトで無効にすることが推奨されます。

これらの習慣を実践すれば、AIの自律性や利便性を維持したまま、プライバシーリスクを大幅に低減できます。AIが真に人間に奉仕する存在であり続けるために、開発者は今こそプライバシーを尊重したシステム設計に取り組むべきではないでしょうか。

OpenAI、日本のAI成長へ経済ブループリント公表

AI成長を支える3つの柱

あらゆる層へのAIアクセス提供
戦略的なインフラ投資の加速
大規模な再教育プログラムの実施

期待される経済効果と課題

経済価値100兆円超の創出
GDPを最大16%押し上げる可能性
デジタルと環境(GX)の両立

AI開発をリードするOpenAIは10月22日、日本がAIの潜在能力を最大限に引き出すための政策フレームワーク『日本経済ブループリント』を公表しました。この提言は、日本のイノベーションを加速させ、国際競争力を強化し、持続可能で包括的な経済成長を達成することを目的としています。官民学の連携を促し、AIが全世代に利益をもたらす社会の実現を目指します。

ブループリントは、AIによる広範な成長を実現するための3つの柱を掲げています。第一に、中小企業から公的機関まで誰もがAIの恩恵を受けられる『包摂的なアクセス』の確保。第二に、データセンター半導体製造といった『戦略的なインフラ投資』の加速。そして第三に、全世代を対象とした『教育と生涯学習』の推進です。

AIの導入は、日本経済に大きな変革をもたらす可能性があります。独立した分析によれば、AIは日本経済に100兆円を超える付加価値をもたらし、GDPを最大で16%押し上げる潜在力を持つと推定されています。日本がこの歴史的な好機をいかに大胆に掴み、世界のAIリーダーとしての地位を確立できるかが問われています。

変革はすでに始まっています。製造業では検査コストの削減、医療・介護現場では事務作業の軽減が実現しつつあります。また、教育分野ではAIチューターが個別学習を支援し、さいたま市や福岡市などの自治体では行政サービスの向上にAIが活用されています。これらは単なる効率化に留まらず、日本の創造性を増幅させる未来を示唆しています。

この成長を実現するには、デジタルと物理的なインフラへの持続的な投資が不可欠です。日本データセンター市場は2028年までに5兆円を超えると予測され、エネルギー需要も比例して増加します。そのため、デジタル変革(DX)と環境変革(GX)を両立させ、計算資源とグリーンエネルギー供給を一体で成長させる長期的戦略が求められます。

OpenAIは、日本のイノベーションと倫理を両立させるアプローチが、責任あるAI活用世界的なモデルになり得ると考えています。このブループリントは、日本のAIエコシステムの成長と共に進化する『生きた文書』です。官民が一体となり、AIがもたらす恩恵を社会全体で分かち合う未来の実現が期待されます。

Google主催会議、AIが拓く未来の生産性を探る

世界のリーダー200人超が集結

Google主催の年次会議
カリフォルニア州で開催
ビジネス、科学、芸術の第一人者

AIが牽引する未来の生産性

AIによる生産性向上を議論
GoogleのAI量子研究所を公開
ロボティクス核融合も焦点

ヘルスケアから経済まで議論

CRISPRとAIによる医療革新
著名経済学者による経済討論

Googleは2025年10月22日、カリフォルニア州で年次会議「Zeitgeist 2025」を開催しました。18回目となる今回は、ビジネス、科学、技術、芸術の各分野から200人以上のグローバルリーダーが集結。AIを活用した生産性向上や、イノベーションを通じて地球規模の課題をいかに解決できるかについて、2日間にわたり活発な議論が交わされました。

会議の最大の焦点は、AIがもたらす未来の生産性でした。参加者はGoogleのAI量子研究所を視察したほか、ロボティクスや核融合エネルギーが次世代の成長を牽引する可能性について議論。未来の産業を形作る最先端技術の動向に、大きな関心が寄せられました。

ヘルスケア分野も重要な議題となりました。ゲノム編集技術CRISPR-Cas9の共同開発者であるジェニファー・ダウドナ氏らが登壇し、ゲノム編集とAIの融合がもたらす医療のブレークスルーについて議論。個別化医療や難病治療への応用が期待される革新的なアプローチが紹介されました。

経済やビジネスの未来に関するセッションも注目を集めました。著名な経済学者であるモハメド・エラリアン氏やマイケル・スペンス氏らが世界経済の動向を分析。また、ライフスタイルブランドの創設者マーサ・スチュワート氏とGoogleのCFOルース・ポラット氏が起業家精神について語り合いました。

この会議は、単なる技術カンファレンスではありません。富と目的、海洋保護といった多様なテーマが取り上げられ、分野を超えたアイデア交換とパートナーシップ構築の場となりました。Zeitgeistは、次なる時代精神を形作るための重要なフォーラムとしての役割を改めて示しました。

元Cohere幹部、巨大AI競争から離脱し新会社

巨大化路線の限界

計算資源投入による性能向上の鈍化
専門家からも上がる懐疑論
巨額のコストとエネルギー消費

新会社は「適応」で勝負

新会社Adaption Labs設立
実世界から学ぶAIシステム
継続的かつ効率的な自己改善

AI開発の未来像

高価な再調整からの脱却
AIの民主化と多様化の可能性

AIユニコーン企業Cohereの元AI研究責任者サラ・フッカー氏が、新会社「Adaption Labs」を設立しました。同社は、計算資源を大量に投下する巨大AIモデル開発競争に異議を唱え、実世界の経験から継続的に学習する、より効率的な「適応型AI」の開発を目指します。この動きは、業界で主流となっているスケーリング一辺倒の方針に一石を投じるものとして注目されています。

フッカー氏は、現在のAI開発を「魅力的だが退屈」と指摘。計算能力を増強するだけでは、世界と対話できる真の知能は生まれないとの考えです。性能向上のためのコストが非効率なレベルに達し、限界が近いと警鐘を鳴らしています。

Adaption Labsが目指すのは、導入後もリアルタイムで間違いから学ぶAIです。現在のAIは本番環境での自己改善が難しく、高額な再調整が必須でした。同社はAIが環境から効率的に学習できることを証明し、この課題を解決します。具体的な技術は非公開です。

業界全体でも、スケーリング信仰は揺らぎ始めています。MITの研究では巨大AIモデルの「収穫逓減」が指摘され、著名研究者からもLLMの限界を問う声が上がっています。AI開発は新たなブレークスルーを模索する時期に差し掛かっているのかもしれません。

Adaption Labsは、最大4000万ドルのシードラウンドを完了したと報じられています。フッカー氏はCohere在籍時、特定用途向けの小型モデルで高い性能を出す実績があります。サンフランシスコを拠点に、世界中から人材を集める方針です。

フッカー氏の挑戦が成功すれば、AI開発の主導権が巨大企業から分散するかもしれません。誰もがAIを安価に、そして継続的に賢くできる時代の到来です。Adaption Labsは、AIが誰のために存在するのかという根源的な問いを投げかけています。

AI気球が天気予報を変革、精度で世界一に

革新的なデータ収集

自律航行する気象気球
従来比数十倍のデータ量
観測空白域のデータを網羅
ハリケーンへの直接投入も

世界最高精度のAI

独自AIモデルWeatherMesh
Google、Huaweiを凌駕
従来モデルを最大30%上回る精度
低コストなGPUで高速運用

スタートアップWindBorne Systems社が、自律航行する気象気球と独自のAIモデル「WeatherMesh」を組み合わせ、世界で最も正確な天気予報システムを開発しました。従来手法では観測が困難だった広大な海洋上のデータを気球で収集し、AIで解析。これにより、ハリケーンの進路予測などで既存の主要モデルを上回る精度を達成し、防災や再生可能エネルギー、農業分野などでの活用が期待されています。

従来の天気予報は、観測データが乏しい海洋や砂漠などの「観測空白域」が存在することが大きな課題でした。特に、多くのハリケーンが発達する海洋上では、有人飛行機による観測は危険とコストを伴うためデータが不足しがちです。このデータ不足が、2024年のハリケーン「ミルトン」のような壊滅的な被害をもたらす異常気象の予測を困難にしていました。

この課題を解決するのが、同社が開発した長時間滞空型の気象気球です。従来の気球が数時間で破裂するのに対し、この気球は50日以上も上空に留まることが可能です。風を読んで高度を自律的に調整し、狙ったエリアのデータを収集します。実際にハリケーン「ミルトン」発生時には、安全な場所から放たれた気球がハリケーンの心臓部に到達し、貴重なデータを取得することに成功しました。

気球が収集した膨大なデータは、同社独自のAI予報モデル「WeatherMesh」に入力されます。このモデルはChatGPTなどにも使われるTransformer技術を基盤とし、競合であるGoogleのGraphCastやHuaweiのPangu-Weatherを上回る予測精度を記録しています。物理ベースの従来モデルと比較しても最大30%精度が高く、それでいて安価なGPUで高速に運用できる効率性も両立しています。

気球によるデータ収集とAIによる予測は、互いに連携する「エンドツーエンド」のシステムを形成しています。AIが予測精度向上に必要なデータ領域を特定し、気球群をその場所へ誘導。気球が収集した最新データが、さらにAIの予測精度を高めるという好循環を生み出します。同社はこの仕組みを「惑星の神経系」と呼び、地球全体の気象をリアルタイムで把握することを目指しています。

WindBorne社は将来的に、常時1万個の気球を飛行させ、地球全体をほぼ継続的に観測する体制を2028年までに構築する計画です。気候変動により異常気象が深刻化する中、高精度な気象予測は、社会のレジリエンスを高める上で不可欠なインフラとなるでしょう。AIとハードウェアを融合させたこのアプローチは、気象予測の新たなスタンダードになる可能性を秘めています。

AI PCが再定義する生産性、鍵は「創造性」

AI PCがもたらす価値

ローカルAI処理による高速化
機密データを保護するセキュリティ
オフラインでも作業可能
低遅延と省エネルギーの実現

創造性が生む事業成果

市場投入までの時間短縮
外部委託費の削減
顧客エンゲージメントの向上
従業員の満足度と定着率向上

AI PCの登場が、ビジネスにおける「生産性」の定義を根底から変えようとしています。マサチューセッツ工科大学(MIT)の研究で生成AIが人間の創造性を高めることが示される中、NPU(Neural Processing Unit)を搭載した次世代PCがその能力を最大限に引き出します。デバイス上でAI処理を完結させることで、低遅延、高セキュリティ、省エネを実現し、単なる効率化ツールを超えた価値を提供し始めています。

企業のIT意思決定者の45%が、すでにAI PCを創造的な業務支援に活用しています。しかし、一般の知識労働者における同目的での利用率は29%にとどまり、組織内で「クリエイティブ格差」が生じているのが現状です。この格差を埋めることが、AI PCのポテンシャルを全社的に引き出す鍵となります。

AI PCは、従業員が創造的な作業に集中できる環境を整えます。専用のNPUがAI関連の負荷を担うため、ユーザーは思考を中断されることなく、アイデア創出に没頭できます。これにより、バッテリー寿命が延び、待ち時間が減少。デザイン動画制作、資料作成など、あらゆる業務でリアルタイムの試行錯誤が可能になります。

この創造性の向上は、具体的な事業成果に直結します。マーケティング部門では、数週間かかっていたキャンペーン素材を数時間で生成。技術部門では、設計や試作品開発のサイクルを大幅に短縮しています。営業担当者は、オフラインの顧客先でもパーソナライズされた提案書を即座に作成でき、案件化のスピードを高めています。

最終的に、AI PCは従業員の働きがいをも向上させます。HPの調査では、従業員が仕事に健全な関係を築く上で最も重要な要素は「充実感」であることが示されています。単なるタスク処理ではなく、創造性を発揮できるツールを与えることは、生産性、満足度、定着率の向上につながるのです。

CIO(最高情報責任者)にとって、AI PCの導入は単なる機器の高速化ではありません。その真価は、従業員の創造性を解放し、新たなアイデアや協業、競争力を生み出す企業文化を醸成することにあります。AI PCをいかに活用し、組織全体の創造性を高めるかが、今後の成長を左右するでしょう。

OpenAI元研究者ら、AI科学自動化へ3億ドル調達

AI科学自動化の新星

OpenAIGoogle出身者が創業
科学的発見の自動化が目標
スタートアップ名はPeriodic Labs

成功を支える3つの技術

LLMの高度な推論能力
信頼性の高いロボットアーム
高精度な物理シミュレーション

巨額資金と超電導開発

シードで3億ドルという巨額調達
当面の目標は新超電導物質の発見

OpenAIの著名研究者リアム・フェドゥス氏と元Google Brainのエキン・ドウス・キュバック氏が、新スタートアップ「Periodic Labs」を設立し、ステルスモードを解除しました。同社はAIによる科学的発見の自動化を目指しており、シードラウンドで3億ドル(約450億円)という異例の巨額資金調達に成功し、シリコンバレーで大きな注目を集めています。

創業者の二人は、生成AIが科学的発見を根本から変えるという議論が深まる中、ついにその構想を現実にする時が来たと判断しました。シミュレーションによる新化合物の発見、ロボットによる物質合成、そしてLLMによる結果分析と軌道修正という一連のプロセスを完全に自動化する、壮大なビジョンを掲げています。

この挑戦を可能にしたのは、近年の3つの技術的進展です。一つは、フェドゥス氏自身も開発に関わったLLMの強力な推論能力。二つ目は、粉末合成をこなせるロボットアームの信頼性向上。そして三つ目が、複雑な物理システムをモデル化できる機械学習シミュレーションの高精度化です。

Periodic Labsのアプローチが画期的なのは、実験の「失敗」にも価値を見出している点です。従来の科学では成功が評価されますが、AIにとっては失敗データも現実世界との接点を持つ貴重な学習データとなります。これにより、AIモデルをさらに強化できると創業者らは考えています。

フェドゥス氏の退職ツイートは、ベンチャーキャピタルVC)による激しい争奪戦の引き金となりました。ある投資家は「ラブレター」を送ったほどです。最終的に、元OpenAIの同僚が在籍するFelicisがリード投資家に決定。他にもNVIDIAやジェフ・ベゾス氏など、著名な投資家が名を連ねています。

巨額の資金を元手に、同社はすでに各分野の専門家を集め、ラボを設立済みです。当面の目標は、よりエネルギー効率の高い技術の鍵となる新しい超電導物質の発見です。AIによる科学はまだ黎明期ですが、このチームの挑戦は、その可能性を大きく切り開くかもしれません。

AIデータセンター、フラッキングガスで稼働の現実

AIの巨大な電力需要

西テキサスに巨大データセンター建設
フーバーダム級の電力ガスで発電
OpenAIもガス火力発電所を併設

環境と地域社会への影響

ブルドーザーによる自然環境の破壊
干ばつ地域での水消費への懸念
騒音や光害など住民生活への影響

推進される化石燃料利用

中国との競争を背景に開発を正当化
米政府も許認可を迅速化し後押し

AIの爆発的な成長を支える巨大データセンターが、環境負荷の高いフラッキングガス(水圧破砕法による天然ガス)で稼働している実態が明らかになりました。PoolsideやOpenAIなどのAI企業が、米テキサス州などで化石燃料を直接利用する発電所を併設した施設を次々と建設。その背景には、中国との技術覇権争いがあります。

AIコーディング支援のPoolsideは、西テキサスにニューヨークのセントラルパークの3分の2に及ぶ広大なデータセンターを建設中です。ここではフーバーダムに匹敵する2ギガワット電力を、近隣のパーミアン盆地で採掘された天然ガスを燃やして賄います。OpenAIの巨大プロジェクト「スターゲイト」も同様の戦略をとっています。

こうした開発は、地域社会に深刻な影響を及ぼしています。建設のために広大な自然がブルドーザーで破壊され、干ばつの続く地域では貴重な水資源の消費が懸念されています。建設に伴う騒音や夜間の照明は、静かな生活を求めてきた住民の暮らしを一変させているのです。

なぜ化石燃料への依存が進むのでしょうか。OpenAI幹部は、中国エネルギーインフラ増強に対抗し、国家の再工業化を進める必要性を主張します。米政府も2025年7月の大統領令で、ガス火力AIデータセンターの許認可を迅速化し、再生可能エネルギーを除外する形でプロジェクトを後押ししています。

一方で、こうした大規模なガス発電所の新設は必ずしも必要ないとの指摘もあります。デューク大学の研究によれば、電力会社は年間を通じて利用可能な容量の約半分しか使っていません。データセンターがピーク時の電力消費を少し抑えるだけで、既存の電力網で需要を吸収できる可能性があるのです。

将来的には小型モジュール炉や太陽光、核融合への期待も高まっていますが、実用化には数十年を要する可能性があります。それまでの間、AIの発展は化石燃料への依存と環境負荷という不都合な真実を抱え続けることになります。そのコストを誰が負担するのか、という重い問いが突きつけられています。

GoogleのAI、核融合炉を制御 CFSと提携

AIで核融合開発を加速

AIでプラズマを最適制御
高速シミュレーターを活用
クリーンエネルギー実用化へ

次世代核融合炉「SPARC」

CFSが開発中の実験炉
史上初の純エネルギー生成目標
高温超電導磁石が鍵

AIの具体的な役割

数百万回の仮想実験を実施
エネルギー効率の最大化
複雑なリアルタイム制御の実現

Google傘下のAI企業DeepMindは2025年10月16日、核融合スタートアップのCommonwealth Fusion Systems(CFS)との研究提携を発表しました。DeepMindのAI技術と高速シミュレーター「TORAX」を用いて、CFSが建設中の次世代核融合炉「SPARC」の運転を最適化します。クリーンで無限のエネルギー源とされる核融合の実用化を、AIの力で加速させることが狙いです。

提携の核心は、AIによるプラズマ制御の高度化にあります。核融合炉では1億度を超えるプラズマを強力な磁場で閉じ込める必要がありますが、その挙動は極めて複雑で予測困難です。DeepMindは過去に強化学習を用いてプラズマ形状の安定化に成功しており、その知見をCFSの先進的なハードウェアに応用し、より高度な制御を目指します。

具体的な協力分野の一つが、高速シミュレーター「TORAX」の活用です。これにより、CFSは実験炉「SPARC」が実際に稼働する前に、数百万通りもの仮想実験を実施できます。最適な運転計画を事前に探ることで、貴重な実験時間とリソースを節約し、開発全体のスピードアップを図ることが可能になります。

さらにAIは、エネルギー生成を最大化するための「最適解」を膨大な選択肢から見つけ出します。磁場コイルの電流や燃料噴射など、無数の変数を調整する複雑な作業は人手では限界があります。将来的には、AIが複数の制約を考慮しながらリアルタイムで炉を自律制御する「AIパイロット」の開発も視野に入れています。

提携先のCFSは、マサチューセッツ工科大学発の有力スタートアップです。現在建設中の「SPARC」は、高温超電導磁石を用いて小型化と高効率化を実現し、投入した以上のエネルギーを生み出す「ネット・エネルギーを史上初めて達成することが期待される、世界で最も注目されるプロジェクトの一つです。

GoogleはCFSへの出資に加え、将来の電力購入契約も締結済みです。AIの普及で電力需要が急増する中、クリーンで安定したエネルギー源の確保は巨大テック企業にとって喫緊の経営課題となっています。今回の提携は、その解決策として核融合に賭けるGoogleの強い意志の表れと言えるでしょう。

AIデータセンター宇宙へ、コスト10分の1の衝撃

宇宙設置の圧倒的メリット

エネルギーコストを10分の1に削減
ほぼ無尽蔵の太陽光エネルギー
冷却水不要、真空で自然冷却
CO2排出量を大幅に削減

軌道上AI処理が拓く未来

初のデータセンターGPUを搭載
地球観測データをリアルタイム分析
応答時間を数時間から数分へ
災害検知や気象予測に応用

米国ワシントン州のスタートアップStarcloud社が、2025年11月にNVIDIAのH100 GPUを搭載したAI衛星を打ち上げます。これは、宇宙空間にデータセンターを構築するという壮大な計画の第一歩です。地球上のデータセンターが抱えるエネルギー消費や冷却の問題を、ほぼ無尽蔵の太陽光と宇宙の真空を利用して解決し、エネルギーコストを地上比で10分の1に削減することを目指します。

AIの需要急増は、データセンター電力消費と冷却という大きな課題を生んでいます。Starcloud社はこの解決策を宇宙に求めました。軌道上では太陽光エネルギー源とし、宇宙の真空を無限のヒートシンクとして利用。冷却水が不要となり、エネルギーコストは地上設置に比べ10分の1にまで削減可能と試算しています。

11月に打ち上げ予定の衛星「Starcloud-1」は、小型冷蔵庫ほどの大きさながら、データセンタークラスのGPUであるNVIDIA H100を搭載。これにより、従来の宇宙での処理能力を100倍以上上回るコンピューティングが実現します。最先端GPUが宇宙空間で本格稼働するのは、これが史上初の試みとなります。

宇宙データセンターの主な用途は、地球観測データのリアルタイム分析です。衛星が収集した膨大なデータをその場でAIが処理し、山火事の早期発見気象予測に活かします。地上へのデータ転送が不要になるため、災害対応などの応答時間を数時間から数分へと劇的に短縮できる可能性があります。

Starcloud社のフィリップ・ジョンストンCEOは「10年後には、ほぼ全ての新設データセンターが宇宙に建設されるだろう」と予測します。同社は次世代のNVIDIA Blackwellプラットフォーム統合も視野に入れており、軌道上でのAI性能はさらに飛躍する見込みです。宇宙がAIインフラの新たなフロンティアとなる未来は、もう目前に迫っています。

Meta、AIインフラ強化でArmと提携し効率化へ

提携の狙い

AIシステムを効率的に拡大
ランキング・推薦システムを移行
Arm低消費電力という強み

Metaの巨大インフラ投資

需要増に対応するデータセンター網拡張
オハイオ州で数GW規模のプロジェクト
ルイジアナ州で5GW規模の巨大施設

Nvidiaとは異なる提携

Nvidiaのような資本提携はなし
技術協力に特化した柔軟な連携モデル

ソーシャルメディア大手のMetaは2025年10月15日、半導体設計大手Armとの提携を発表しました。これは、AIサービスの需要急増に対応するため、自社のAIインフラを効率的に拡張する狙いがあります。具体的には、Metaのランキング・推薦システムをArmの「Neoverse」プラットフォームに移行させ、30億人を超えるユーザーへのサービス提供を強化します。

今回の提携の鍵は、Armワットパフォーマンス(消費電力あたりの性能)の高さです。AIの次の時代は「大規模な効率性」が定義するとArmは見ており、Metaはこの強みを活用してイノベーションを加速させます。GPU市場を席巻するNvidiaなどとは異なり、Armは低消費電力という独自の強みを武器に、AIインフラ市場での存在感を高めています。

この動きは、Metaが進める前例のない規模のインフラ拡張計画の一環です。同社はAIサービスの将来的な需要を見越し、データセンター網を大幅に拡大しています。オハイオ州では数ギガワット級のプロジェクトが進行中。さらにルイジアナ州では、完成すれば5ギガワットの計算能力を持つ巨大キャンパスの建設が2030年まで続きます。

このパートナーシップが注目されるのは、近年の他のAIインフラ取引とは一線を画す点です。NvidiaOpenAIなどに巨額投資を行うなど、資本関係を伴う提携が相次いでいるのとは対照的に、MetaArmの間では株式の持ち合いや大規模な物理インフラの交換は行われません。技術協力に特化した、より柔軟な連携モデルと言えるでしょう。

OpenAI、アルゼンチンで巨大AIインフラ構想

巨大プロジェクト「Stargate」

南米初のStargateプロジェクト
Sur Energy社がインフラ開発を主導
クリーンエネルギーでAIインフラを稼働
OpenAI電力購入者(オフテイカー)候補

アルゼンチンのAI潜在力

ChatGPT利用者が1年で3倍増
ミレイ大統領のAI成長ビジョン
政府機関へのAI導入も協議

OpenAIは2025年10月14日、アルゼンチンのエネルギー企業Sur Energyと提携し、ラテンアメリカ初となる大規模AIデータセンターStargate」プロジェクトの建設を検討すると発表しました。クリーンエネルギーを活用し、アルゼンチンを地域のAIハブに育てるのが狙いです。この動きは、ミレイ大統領政権との協議を経て、両社が意向表明書(LOI)に署名したことで具体化しました。

この巨大プロジェクトでは、Sur Energyがエネルギー供給とインフラ開発を主導します。同社はクラウドインフラ開発企業などとコンソーシアムを形成し、データセンターエコシステム全体を、安全で持続可能なエネルギー源で稼働させる計画です。OpenAIは、主要な電力購入者(オフテイカー)となる可能性を歓迎しています。

OpenAIがアルゼンチンに注目する背景には、同国のAIに対する高い受容性があります。国内のChatGPTユーザーは過去1年で3倍以上に急増し、若年層の利用が特に活発です。また、OpenAIのツールを活用する開発者コミュニティもラテンアメリカでトップクラスの規模を誇り、AIインフラ構築の土壌が整っていると評価されています。

OpenAIインフラ開発に加え、アルゼンチン政府との連携も深めます。「OpenAI for Countries」構想の一環として、まず政府機関自体でのAI導入を協議しています。これにより、行政職員の業務を効率化し、コストを削減しながら、国民により良いサービスを提供できると期待されています。世界各地でのパートナーシップの知見が生かされるでしょう。

OpenAIサム・アルトマンCEOは、「このプロジェクトは、AIをアルゼンチンのより多くの人々の手に届けるためのものだ」と述べました。さらに、「AIがもたらす成長と創造性に対するミレイ大統領のビジョンは明確で力強い。Stargateは、その実現を後押しするだろう」と期待を表明しています。

提携先のSur Energy社は「国のユニークな再生可能エネルギーの可能性と、世界規模の重要インフラ開発を組み合わせる歴史的な機会だ」とコメントしました。この連携が、アルゼンチンを世界の新たなデジタル・エネルギー地図における重要拠点へと押し上げる可能性を秘めています。

OpenAI、Broadcomと共同でAIチップを開発・導入

OpenAIとBroadcomの提携

自社設計のAIアクセラレータ開発
Broadcomと共同でシステム構築
10ギガワットの導入を目指す
2026年後半から導入開始

戦略的背景と目的

Nvidiaへの依存低減が目的
モデル知見をハードウェアに組み込み
AI需要の急増に対応
AMD、Nvidiaとも提携済み

OpenAIは13日、半導体大手のBroadcomと戦略的提携を結び、自社で設計したAI向け半導体「アクセラレータ」の開発・導入を進めると発表しました。この提携は、AI計算に対するNvidiaへの依存を低減し、将来的なAI需要の急増に備えるための重要な一手です。

両社が共同で開発・導入を目指すのは、計10ギガワット規模のAIアクセラレータです。これは原子力発電所約10基分の電力に相当する膨大な計算能力を意味します。Broadcomは半導体の製造と、データセンターを繋ぐネットワーク機器の提供を担当します。

OpenAIサム・アルトマンCEOは「AIの可能性を解き放つための基盤構築に不可欠なステップだ」と述べています。自社でチップを設計することで、最先端のAIモデル開発で得た知見を直接ハードウェアに組み込み、新たな性能と知能を解き放つことを目指します。

この動きはOpenAIだけのものではありません。MetaGoogleといった巨大テック企業も、自社のAIサービスに最適化したカスタムチップの開発を急進させています。OpenAIも既にAMDやNvidiaと大規模な提携を結んでおり、サプライヤーの多元化を戦略的に進めています。

プロジェクトのスケジュールも明らかになりました。Broadcomによる機器の導入は2026年下半期から開始され、2029年末までに完了する予定です。これにより、OpenAIChatGPTSoraといったサービスを支える計算基盤を強化していきます。

Broadcomのホック・タンCEOは「AGI人工汎用知能)の追求における転換点だ」と協業の重要性を強調。同社にとっては、AIインフラ市場でのリーダーシップを確立する絶好の機会となります。両社の協力関係が、次世代のAI開発を加速させることになるでしょう。

NVIDIA主導、次世代AI工場の設計図公開

新世代AIインフラの設計

`Vera Rubin NVL144`サーバー開発
`Kyber`ラックでGPU高密度化
`100%液冷`設計を採用
AIエージェント向けの高性能化

電力効率を大幅向上

`800VDC`への電圧移行
従来比`150%`以上の電力伝送
銅使用量を`大幅削減`
データセンターの省エネ化

強力なパートナー連携

`50社以上`のパートナーが支援
`Intel`や`Samsung`も参画
オープン標準で開発を加速

NVIDIAとパートナー企業は、AIの推論需要拡大に対応する次世代AI工場の設計図を公開しました。10月13日にサンノゼで開催されたOCPグローバルサミットで発表されたもので、`800VDC`への電圧移行や`100%液冷`技術が核となります。オープンなエコシステムによる開発で、AIインフラの効率と性能を飛躍的に高める狙いです。

新世代の基盤となるのが、サーバー「Vera Rubin NVL144」と、576個のGPUを搭載可能な「Kyber」ラックです。これらはAIエージェントなど高度な推論処理を想定しており、垂直配置のコンピュートブレードにより、ラックあたりのGPU密度を最大化します。

最大の革新は電力システムです。従来の交流から`800ボルトの直流`(800VDC)へ移行することで、電力伝送効率が150%以上向上します。これにより、銅の使用量を削減し、データセンターの省スペースとコスト削減を実現します。

この挑戦はNVIDIA単独では成し遂げられません。FoxconnやHPE、Vertivなど50社以上のパートナーが、MGXサーバーや800VDC対応の部品、電力システムを開発しています。オープンな標準規格が、迅速な市場投入を可能にしています。

エコシステムはさらに広がりを見せています。IntelSamsung Foundryが、NVIDIAの高速接続技術「NVLink Fusion」に参画。各社が開発する独自チップNVIDIAインフラにシームレスに統合し、AIファクトリーの多様化と高速化を後押しします。

NVIDIAが描くのは、特定の企業に閉じない未来です。オープンな連携と標準化が、ギガワット級の巨大AIファクトリーの構築を加速させます。これは、AI時代のインフラにおける新たなパラダイムシフトと言えるでしょう。

AI時代のストレージ、SSDが主役へ

ストレージのボトルネック

AI需要でデータが「温かく」なる
HDDは低遅延処理に不向き
並列計算に性能不足
GPU活用を阻害する要因に

SSD導入のメリット

消費電力を大幅に削減
データセンター占有面積を9分の1に
建設資材のCO2を8割削減
GPUのさらなる規模拡大を可能

AIの普及が加速し、データセンターは深刻なストレージのボトルネックに直面しています。かつて保管されていたコールドデータが、AIモデルの精度向上のために頻繁に利用される「温かいデータ」へと変化。この転換に対応するため、低遅延で高性能なSSD(ソリッドステートドライブ)への移行が、AI時代のインフラ構築における必須戦略となっています。

従来のHDDは、多くの可動部品を持つため、AIが求める低遅延処理や高いIOPS(入出力操作)に対応できません。特にデータへの物理的アクセスが伴う遅延は、リアルタイムな推論や学習の障害となります。大規模化すればするほど、消費電力や冷却コストも増加するのです。

一方、高容量SSDは性能と効率で大きく上回ります。ある研究では、エクサバイト規模のストレージでSSDはHDD比で消費電力を77%削減データセンターの占有面積も9分の1に抑えられ、省電力・省スペース化で浮いたリソースをGPUの規模拡大に再投資できるのです。

この省スペース化は、サステナビリティにも貢献します。データセンター建設に必要なコンクリートや鋼材の使用量を8割以上削減できるほか、運用終了後のドライブ廃棄数も9割減少。環境負荷の低減が、企業価値向上にも繋がるのです。

これは単なるハードウェアの刷新ではなく、インフラ戦略の根本的な再構築です。今後は、GPUサーバーの熱管理に不可欠な液冷技術とSSDを組み合わせるなど、AIの要求に応える効率的な設計が主流となるでしょう。今こそ、ストレージ戦略を見直す時です。

Pixel Watch 4登場、AI搭載と修理しやすさで進化

利便性を高める新機能

交換可能なバッテリーとディスプレイ
緊急時の衛星通信にも対応
高速な磁気式充電ドック

デザインと体験の向上

最大3000ニトの高輝度ディスプレイ
好みに合わせるカラーテーマ機能
水泳など50種の運動を自動検出
腕を上げるだけで起動する音声操作

Googleが2025年10月10日、新型スマートウォッチ「Pixel Watch 4」を発表しました。最大の特徴は、AIアシスタントGemini」の統合と、ユーザー自身で交換可能なバッテリーおよびディスプレイです。緊急時の衛星通信機能も新たに搭載し、利便性と安全性を大幅に向上。デザインの刷新とヘルスケア機能の強化も図り、スマートウォッチ市場での競争力を高めます。

ビジネスパーソンにとって注目すべきは、手首から直接AI「Geminiを利用できる点でしょう。スマートフォンを取り出すことなく、腕を上げるだけで天気予報の確認やタイマー設定が可能になる「raise-to-talk」機能を搭載。会議中や移動中など、両手がふさがりがちな状況でも、スマートに情報を引き出し、タスクをこなせます。

Pixel Watch 4は、バッテリーとディスプレイを交換可能にすることで、製品寿命の長期化を実現しました。これは「修理する権利」への配慮であり、サステナビリティを重視する現代の消費者ニーズに応える動きです。デバイスを長く愛用できることは、結果的にコストパフォーマンスの向上にも繋がります。

ディスプレイは、屋外での視認性が劇的に改善されました。周囲の明るさに応じて輝度を自動調整し、最大3000ニトの明るさを実現。サングラスをかけていても、ランニングのペースや通知をはっきりと確認できます。また、好みの配色を選べるカラーテーマ機能により、自分だけのスタイルを表現することも可能です。

新開発の磁気式充電ドックは、利便性を大きく高めています。ウォッチを置くだけで定位置に吸着し、充電中は時刻を表示するナイトスタンドモードとしても機能。わずか15分の充電で朝のランニングに必要な電力を確保できる急速充電も魅力です。41mmモデルで最大30時間のバッテリー持続時間を誇ります。

フィットネス機能も進化しました。ランニングやウォーキングなどのアクティビティを自動で検出し記録する機能や、水泳中に自動で画面をロックする機能を搭載。プールでの指標もカスタマイズでき、より詳細なデータ管理が可能になりました。ピクルボールを含む50種類以上のエクササイズに対応し、多様なワークアウトをサポートします。

NVIDIA新GPU、AI推論で15倍の投資対効果

圧倒的なパフォーマンス

ベンチマーク性能・効率ともに最高
GPUあたり毎秒6万トークンの高速処理
ユーザーあたり毎秒1000トークンの応答性
ソフトウェア最適化で性能は継続的に向上

AI工場の新経済性

15倍の投資収益率(ROI)を達成
トークンあたりのコストを5倍削減
前世代比で電力効率が10倍向上
総所有コスト(TCO)を大幅に低減

NVIDIAは2025年10月9日、同社の最新GPUプラットフォーム「Blackwell」が、新しい独立系AI推論ベンチマーク「InferenceMAX v1」で最高性能と効率性を達成したと発表しました。500万ドルの投資15倍の収益を生むなど、圧倒的な費用対効果を示し、AIを大規模に展開する企業の新たな選択基準となりそうです。

この新ベンチマークは、AIが単純な応答から複雑な推論へと進化する現状を反映しています。単なる処理速度だけでなく、多様なモデルや実世界のシナリオにおける総計算コストを測定する初の独立系指標であり、その結果は企業の投資判断に直結します。

具体的な経済効果は目覚ましいものがあります。NVIDIA GB200 NVL72システムへの500万ドルの投資は、7500万ドル相当のトークン収益を生み出すと試算されており、投資収益率(ROI)は15倍に達します。これは「AI工場」の経済性を根本から覆すインパクトです。

総所有コスト(TCO)の面でも優位性は明らかです。B200 GPUはソフトウェアの最適化により、100万トークンあたりのコストをわずか2セントにまで削減しました。これは過去2ヶ月で5倍のコスト効率改善にあたり、継続的な性能向上を証明しています。

この圧倒的な性能は、ハードウェアとソフトウェアの緊密な協調設計によって実現されています。最新アーキテクチャに加え、推論ライブラリ「TensorRT-LLM」やオープンソースコミュニティとの連携が、プラットフォーム全体の価値を最大化しています。

AI活用が試行段階から本格的な「AI工場」へと移行する中、性能、コスト、電力効率といった多角的な指標が重要になります。NVIDIAのプラットフォームは、企業のAI投資における収益性を最大化するための強力な基盤となるでしょう。

AIブームの死角、銅不足を微生物が救う

AIが招く銅の供給危機

AIデータセンター銅需要を急増
2031年に年間需要は3700万トン
従来技術では採掘困難な鉱石が増加
インフラ整備のボトルネック

微生物による銅回収技術

低品位鉱石から銅を抽出する微生物
省エネかつ環境負荷の低い新手法
機械学習最適な微生物を特定
AIが銅を、銅がAIを支える循環構造

AIの爆発的な普及が、インフラに不可欠な『銅』の深刻な供給不足を招いています。データセンター建設で需要が急増する一方、採掘容易な鉱石は枯渇。この課題に対し、米スタートアップEndolith社は、微生物を利用して低品位鉱石から銅を抽出する革新技術を開発。AIでプロセスを最適化し、AI自身の成長を支える循環を生み出そうとしています。

AIデータセンターはまさに銅の塊です。大規模施設一つで数千トンの銅を消費するとも言われます。この需要急増を受け、世界の年間銅需要は2031年までに約3700万トンに達するとの予測もあります。しかし、埋蔵量の7割以上は従来技術では採掘が難しく、供給のボトルネックが目前に迫っています。

この供給ギャップを埋める鍵として注目されるのが『バイオリーチング』です。Endolith社は、特殊な微生物が銅を溶かす自然プロセスを加速させます。高温での製錬や強力な酸を使う従来法に比べ、エネルギー消費と環境負荷を大幅に削減できるのが利点です。見過ごされてきた低品位鉱石が、新たな資源に変わる可能性を秘めています。

この技術の精度と拡張性を支えているのがAIです。同社は、数千種類もの微生物のゲノムや代謝データを機械学習でモデル化。特定の鉱石や環境条件に対し、最も効果的な微生物の組み合わせを予測し、現場に投入します。これにより、試行錯誤に頼っていた生物学的アプローチを、予測可能でスケーラブルなシステムへと進化させているのです。

『AIが銅回収を効率化し、その銅がAIインフラの成長を支える』という好循環が生まれつつあります。しかし、AI開発の議論は計算能力やエネルギー消費に偏りがちで、銅のような物理的基盤は見過ごされがちです。ソフトウェアの野心に、物理世界の供給が追いついていないのが現実ではないでしょうか。

変圧器の納期遅れでデータセンター計画が停滞するなど、銅不足はすでに現実問題となっています。AI時代の持続的な発展は、優れたアルゴリズムだけでなく、銅という金属によって支えられています。その安定供給に向け、微生物という目に見えない生命体が、次なる飛躍の鍵を握っているのかもしれません。

ソフトバンク、54億ドルでABBロボティクス買収 Physical AIを新フロンティアに

Physical AIへの大型投資

買収額は約54億ドル(53.75億ドル)
買収対象はABBグループのロボティクス事業部門
孫正義CEO「次なるフロンティアはPhysical AI」
2026年中旬から下旬買収完了見込み

成長戦略「ASIと融合」を加速

AIチップ・DC・エネルギーと並ぶ注力分野
産業用ロボット分野での事業拡大を再加速
従業員約7,000人、幅広いロボット製品群を獲得
既存のロボティクス投資群との相乗効果を追求

ソフトバンクグループは10月8日、スイスの巨大企業ABBグループのロボティクス事業部門を約53.75億ドル(約8,000億円超)で買収すると発表しました。これは、孫正義CEOが掲げる次なる成長分野「Physical AI(フィジカルAI)」戦略を具現化する大型投資です。規制当局の承認を経て、2026年中旬から下旬に完了する見込みです。

今回の買収は、ソフトバンクが「情報革命」の次なるフェーズとしてAIに集中投資する姿勢を明確に示しています。孫CEOは、「Physical AI」とは人工超知能(ASI)とロボティクスを融合させることであり、人類の進化を推進する画期的な進化をもたらすと強調しています。過去の失敗例を超え、AIを物理世界に実装する試みを加速させます。

買収対象となるABBのロボティクス事業部門は、約7,000人の従業員を抱え、ピッキングや塗装、清掃など産業用途の幅広いロボット機器を提供しています。2024年の売上は23億ドルでしたが、前年比で減少傾向にありました。ソフトバンクは、この部門の販売を再活性化させ、成長軌道に乗せることを目指しています。

ソフトバンクは現在、ロボティクスを最重要視する四つの戦略分野の一つに位置づけています。残りの三分野は、AIチップ、AIデータセンターエネルギーです。この大型投資は、AIインフラ全体を支配し、ASIを実現するという孫氏の壮大なビジョン達成に向けた、重要な布石となります。

ソフトバンクはすでに、倉庫自動化のAutoStoreやスタートアップのSkild AI、Agile Robotsなど、様々なロボティクス関連企業に投資しています。今回のABB買収により、既存のポートフォリオとの相乗効果が期待されます。特に、高性能な産業用ロボット技術とAI知能を結びつけることで、競争優位性を確立する狙いです。

Samsungの超小型AI「TRM」、再帰で巨大LLMを超える

TRMのパラメーターと仕組み

パラメーター数はわずか700万
既存LLMの1万分の1サイズ
再帰的推論による予測の洗練
低コストで高性能モデルを実現

性能と適用領域

数独や迷路など構造化パズルに特化
特定ベンチマーク巨大LLMを凌駕
設計の簡素化が汎化性能向上に寄与
コードはMITライセンスで公開中

韓国Samsung AI研究所の研究者が、新たな超小型AIモデル「TRM(Tiny Recursion Model)」を発表しました。わずか700万パラメーターのこのモデルは、特定の推論ベンチマークにおいて、OpenAIのo3-miniやGoogleGemini 2.5 Proなど、1万倍以上巨大なLLMの性能を凌駕しています。AI開発における「スケールこそ全て」という従来のパラダイムに対し、低コストで高性能を実現する新たな道筋を示す画期的な成果です。

TRMの最大の特徴は、階層構造を持つ複雑なネットワークを排除し、単一の2層モデルを採用した点です。このモデルは、入力された質問と初期回答に対し、推論ステップを繰り返して自身の予測を再帰的に洗練させます。この反復的な自己修正プロセスにより、深いアーキテクチャをシミュレートし、巨大モデルに匹敵する推論能力を獲得しています。

TRMは、構造化され、視覚的なグリッドベースの問題に特化して設計されました。特にSudoku-Extremeで87.4%の精度を達成し、従来モデル(HRM)の55%から大幅に向上。また、人間の推論は容易だがAIには難解とされるARC-AGIベンチマークでも、数百万倍のパラメーターを持つ最上位LLMに匹敵する結果を出しています。

開発者は、高額なGPU投資電力消費を伴う巨大な基盤モデルへの依存は「罠」だと指摘します。TRMの成功は、複雑性を減らすことで逆に汎化性能が向上するという「Less is More(少ない方が豊か)」の設計思想を裏付けました。この成果は、大規模な計算資源を持たない企業や研究者でも、高性能AIを開発できる可能性を示唆します。

TRMのコードは、商用利用も可能なMITライセンスのもとGitHubでオープンソース公開されています。これにより、企業は特定の推論タスク解決のために、巨大LLMのAPIを利用するのではなく、自社のサーバーで低コストの専用モデルを構築・運用できます。今後は、再帰的推論スケーリング則や、生成タスクへの応用が焦点となる見込みです。

AIネイティブ6Gが拓く新時代:エッジ推論とインフラ効率化

6G時代の革新的変化

AIトラフィック前提のネットワーク設計
接続性からエッジでのセンシング・推論
自律走行、製造業などAI駆動アプリを支援

AIネイティブ6Gの主要な利点

周波数・エネルギー極度の効率化
通信事業者への新規収益源創出
ソフトウェア定義型でイノベーションを加速
AIによるリアルタイムサイバーセキュリティ
エッジデータセンターでのAIサービス配信

次世代通信規格「6G」は、従来のネットワーク進化と異なり、設計段階からAIトラフィックを前提とし、AIを基盤とする「AI-native」として構築されます。NVIDIAは、米国主導で高性能かつセキュアなAI-native 6Gソリューション開発プロジェクト「AI-WIN」を推進しています。これは単なる通信速度の向上に留まらず、ネットワークのアーキテクチャと機能を根本的に再定義するものです。

6Gの中核は、ネットワークが接続性だけでなく、エッジで情報を「センシング(感知)」し「インファー(推論)」する能力を持つ点です。これにより、ネットワーク自体がAIサービスを供給するインフラとなります。自律走行車や精密農業、先進製造など、AI駆動型のミッションクリティカルな用途を数百億のエンドポイントで支える基盤が確立されます。

AIネイティブな設計は、無線ネットワークの最も重要な資源である周波数帯域の利用を最適化し、極度の効率性を実現します。エネルギー効率も向上し、運用コストを大幅に削減します。さらに、AI無線アクセスネットワーク(AI-RAN)への投資1ドルに対し、通信事業者は約5ドルのAI推論収益を期待できるとの試算もあり、新たな収益機会を生み出します。

従来の通信インフラは単一目的のハードウェア依存型でしたが、6Gはソフトウェア定義型RANアーキテクチャへと移行します。これにより、モバイル無線サービスとAIアプリケーションを共通のインフラスタックで実行可能となり、ハードウェア更新に依存しない迅速なイノベーションサイクルが実現します。この共通化は、通信事業者の設備投資効果を最大化します。

数十億のIoTデバイスが接続される6G時代において、サイバーセキュリティは不可欠です。AIモデルは膨大なデータストリームをリアルタイムで解析し、脅威の検出と自動的な対応を可能にします。国際的な競争が激化する中、米国はAIを組み込んだ強力な6Gネットワークを開発することで、透明性と信頼性に基づいた技術エコシステムの確立を目指しています。

Google、ベルギーに50億ユーロ投資 AIインフラと雇用を強化

巨額投資の内訳

投資額は今後2年間で追加の50億ユーロ
目的はクラウドおよびAIインフラの拡張
サン=ギスランのデータセンターを拡張

経済効果とクリーン電力

フルタイム雇用を300名追加創出
Enecoらと提携陸上風力発電開発
グリッドをクリーンエネルギーで支援

AI人材育成支援

AI駆動型経済に対応する無料スキル開発提供
低スキル労働者向け訓練に非営利団体へ資金供与

Googleは今週、ベルギー国内のクラウドおよびAIインフラストラクチャに対して、今後2年間で追加の50億ユーロ(約8,000億円)投資すると発表しました。これはサン=ギスランのデータセンター拡張や、300名の新規雇用創出を含む大規模な計画です。同社はインフラ強化に加え、クリーンエネルギーの利用拡大と、現地のAI人材育成プログラムを通じて、ベルギーのデジタル経済への貢献を加速させます。

今回の巨額投資は、AI技術の爆発的な進展を支える計算資源の確保が主眼です。ベルギーにあるデータセンターキャンパスを拡張することで、Google Cloudを利用する欧州企業や、次世代AIモデルを運用するための強固な基盤を築きます。この投資は、欧州におけるデジタル化と経済的未来を左右する重要な一歩となります。

インフラ拡張に伴い、現地で300名のフルタイム雇用が新たに創出されます。Googleは、この投資を通じてベルギーに深く根を下ろし、同国が引き続き技術とAI分野におけるリーダーシップを維持できるよう支援するとしています。先端インフラ整備は、競争優位性を高めたい経営者エンジニアにとって重要な要素です。

持続可能性への取り組みも強化されています。GoogleはEnecoやLuminusなどのエネルギー企業と新規契約を結び、新たな陸上風力発電所の開発を支援します。これによりデータセンター電力を賄うだけでなく、電力グリッド全体にクリーンエネルギーを供給し、脱炭素化へ貢献する戦略的な動きです。

さらに、AI駆動型経済で成功するために必要なスキルを、ベルギー国民に無料で提供するプログラムも開始されます。特に低スキル労働者向けに、実用的なAIトレーニングを提供する非営利団体への資金提供も実施します。インフラと人材、両面からデジタル競争力の強化を目指すのが狙いです。

MLで5倍強いアルミ合金開発 3Dプリントにより航空機軽量化へ

機械学習が導くレシピ

高性能アルミニウム合金のレシピを特定
機械学習を活用した新材料探索
100万通りから40通りに絞り込み成功

高強度化の鍵となる製法

従来の5倍の強度を実現
3Dプリント(LBPF)を採用
急速冷却による微細な析出物を生成

軽量化とコスト削減効果

ジェットエンジンファンブレードへの応用
チタンより50%軽量かつ低コスト
輸送産業のエネルギー節約に寄与

MITエンジニアチームは、機械学習(ML)を活用し、従来の製法に比べ5倍の強度を持つ3Dプリント可能なアルミニウム合金を開発しました。この新合金は、航空機や高性能自動車部品の軽量化を加速させ、輸送産業における大幅なエネルギー節約に貢献すると期待されています。MLによる効率的な材料設計と積層造形(3Dプリント)技術の組み合わせが、高強度と耐熱性を両立させました。

従来、新しい合金を開発するには、100万通り以上の組成をシミュレーションする必要がありましたが、MLを導入することで、わずか40通りの組成評価で最適な配合を特定できました。複雑な要素が非線形に寄与する材料特性探索において、MLツールは設計空間の探索を劇的に効率化します。この手法は、今後の合金設計プロセス全体を変革する可能性を秘めています。

高強度を実現した鍵は、製造プロセスにあります。従来の鋳造では冷却に時間がかかり、合金の強度を左右する微細な析出物が大きく成長してしまいます。対照的に、チームが採用したレーザー粉末床溶融結合(LBPF)などの3Dプリント技術は、急速な冷却と凝固を可能にし、予測通りの高強度を持つ微細な析出物を安定的に生成しました。

新合金は、現行の最強の鋳造アルミニウム合金に匹敵する強度を持ち、さらにアルミニウム合金としては非常に高い400度Cまでの高温安定性を誇ります。これにより、ジェットエンジンのファンブレードなど、これまでチタンや複合材が使われていた部品への適用が可能になります。チタンより50%以上軽量かつ最大10分の1のコストで済むため、部品製造の収益性を高めます。

この3Dプリント可能な新合金は、複雑な形状の製造に適しており、航空機部品のほかにも、高性能自動車データセンターの冷却装置など、幅広い分野での利用が見込まれています。材料設計と積層造形の特性を組み合わせたこの新たな設計手法は、様々な産業における軽量化ニーズに対応し、革新的な製品開発の扉を開きます。

UCLAが光でAI画像を超高速生成、低消費電力とプライバシーを両立

光学AIの3大革新性

生成速度は光速レベルを達成
電子計算より低消費電力で稼働
デジタル情報を保護するプライバシー機能を搭載

技術構造と動作原理

デジタルとアナログのハイブリッド構造
光の位相パターンを利用したアナログ領域での計算
「知識蒸留」プロセスによる学習効率化
画像生成単一の光パスで実行(スナップショットモデル)

米カリフォルニア大学ロサンゼルス校(UCLA)の研究チームは、生成AIのエネルギー問題を解決する画期的な技術として、「光学生成モデル」を発表しました。電子ではなく光子を用いることで、AI画像生成光速レベルで実現し、従来の拡散モデルが抱える高い消費電力とCO2排出量の削減を目指します。この技術は、処理速度の向上に加え、強固なプライバシー保護機能も提供します。

学生成モデルは、デジタルプロセッサとアナログの回折プロセッサを組み合わせたハイブリッド構造です。まず、デジタル領域で教師モデルから学習したシード(光の位相パターン)を作成します。このシードにレーザー光を当て、回折プロセッサが一瞬でデコードすることで、最終的な画像を生成します。生成計算自体は、光を使ったアナログ領域で実行されるのが特徴です。

UCLAのAydogan Ozcan教授によると、このシステムは「単一のスナップショット」でエンドツーエンドの処理を完了します。従来の生成AIが数千ステップの反復を必要とするのに対し、光の物理を利用することで、処理時間が大幅に短縮され、電力効率が劇的に向上します。画質を向上させる反復モデルも開発されており、高い品質を実現しています。

本モデルの大きな利点の一つは、データのプライバシー保護能力です。デジタルエンコーダーから生成される位相情報は、人間には理解できない形式であるため、途中で傍受されても専用のデコーダーなしには解読できません。これにより、生成された情報を特定ユーザーのみが復号できる形で暗号化する仕組みを構築できます。

研究チームは、この技術をデジタルコンピュータエコシステム内の代替品ではなく、「視覚コンピューター」として位置づけています。特に、デバイスが直接人間の目に画像を投影するAR(拡張現実)やVR(仮想現実)システムにおいて、処理システムとして活用することで、クラウドからの情報伝達と最終的な画像生成を光速かつ高効率で実現できると期待されています。

AIの雄ナヴィーン・ラオ氏、新会社でNvidiaに挑戦

新会社の野心的な構想

社名はUnconventional社
AI向け新型コンピュータ開発
カスタム半導体とサーバー基盤
目標は生物学レベルの効率性

異例の巨額資金調達

評価額50億ドル目標
調達目標額は10億ドル
a16zがリード投資家
古巣Databricksも出資

Databricksの元AI責任者ナヴィーン・ラオ氏が、新会社「Unconventional」を設立し、AIハードウェア市場の巨人Nvidiaに挑みます。同社は、50億ドル(約7500億円)の評価額で10億ドル(約1500億円)の資金調達を目指しており、著名VCAndreessen Horowitz (a16z)が投資を主導すると報じられました。AIの計算基盤そのものを再定義する壮大な挑戦が始まります。

ラオ氏が目指すのは、単なる半導体開発ではありません。彼がX(旧Twitter)で語ったビジョンは「知性のための新しい基盤」。生物学と同等の効率性を持つコンピュータを、カスタム半導体とサーバーインフラを統合して作り上げる計画です。これは、現在のAI開発における計算コストとエネルギー消費の課題に対する根本的な解決策となり得るでしょうか。

この挑戦を支えるため、シリコンバレーのトップ投資家が集結しています。リード投資家a16zに加え、Lightspeed、Lux Capitalといった有力VCが参加。さらに、ラオ氏の古巣であるDatabricksも出資者に名を連ねており、業界からの高い期待が伺えます。すでに数億ドルを確保し、10億ドルの調達完了を待たずに開発に着手するとのことです。

ラオ氏は、これまでにも2社のスタートアップを成功に導いた実績を持つ連続起業家です。AIモデル開発の「MosaicML」は2023年にDatabricksが13億ドルで買収。それ以前に創業した「Nervana Systems」は2016年にIntelが4億ドル超で買収しました。彼の持つ技術力と事業構想力が、今回も大きな成功を生むのか注目が集まります。

生成AIの爆発的な普及により、その頭脳であるAI半導体の需要は急増しています。市場をほぼ独占するNvidia一強体制に対し、Unconventional社の挑戦が風穴を開けることができるのか。AIインフラの未来を占う上で、同社の動向から目が離せません。

MIT、米国大学最強のAIスパコンを公開

圧倒的な計算能力

米国大学で最強のAIスパコン
ピーク性能は2 AIエクサフロップス
600基以上のNVIDIAGPU搭載

生成AI研究を加速

生成AIの開発・応用に特化
創薬や新素材設計への応用
気象データ補完や異常検知

幅広い分野への貢献

航空管制や国防分野での実績
ユーザーフレンドリーな設計
エネルギー効率の高い運用も追求

マサチューセッツ工科大学(MIT)リンカーン研究所は2025年10月2日、米国の大学で最も強力なAIスーパーコンピュータ「TX-GAIN」を公開したと発表しました。このシステムは、生成AIや物理シミュレーション、データ分析といった最先端分野の研究を加速させ、科学技術におけるブレークスルー創出を目的としています。研究者はこの圧倒的な計算能力を活用し、新たなイノベーションを追求します。

TX-GAINの性能は、ピーク時で2 AIエクサフロップス(毎秒200京回のAI向け演算)に達します。AI処理に特化した600基以上のNVIDIAGPUがこの計算能力を支え、米国の大学でトップ、北東部地域全体でも最強のAIシステムと評価されています。今夏オンライン化されて以来、研究者の注目を集めています。

TX-GAINの名称が示す通り、特に生成AIの開発と応用に力が注がれています。大規模言語モデルだけでなく、レーダー署名の評価、気象データの補完、ネットワークの異常検知、さらには新薬や新素材の設計といった多様な領域で活用が進みます。これまで不可能だった規模のシミュレーションやモデル訓練が可能になります。

リンカーン研究所スーパーコンピューティングセンター(LLSC)は、これまでも国の重要課題解決に貢献してきました。連邦航空局向けの航空機衝突回避システムや、国防総省向けの自律航法モデルの訓練など、社会の安全保障に直結する研究で数々の実績を上げています。TX-GAINはこれらの取り組みをさらに加速させる強力な基盤となります。

LLSCは、専門家でなくてもスパコンを利用できる「インタラクティブ性」を重視し、ラップトップPCのような手軽な操作性を実現。同時に、AIの膨大な電力消費という課題にも向き合い、エネルギー効率の高い運用と省電力化技術の研究にも取り組むなど、持続可能な研究環境の構築を目指しています。

新Pixel Buds、AIと独自チップで大幅進化

AIが支える新機能

Tensor A1チップでANC実現
AIによる風切り音抑制機能
バッテリー寿命が2倍に向上

ユーザー体験の向上

新設計のツイスト調整スタビライザー
ケースのバッテリーはユーザー交換可能
開発秘話をポッドキャストで公開

グーグルは10月2日、公式ブログ上で新型イヤホン「Pixel Buds 2a」の開発秘話を語るポッドキャスト番組を公開しました。製品マネージャーが登壇し、AIと独自チップでノイズキャンセル性能やバッテリー寿命をいかに向上させたかを解説しています。

進化の核となるのが、独自開発の「Tensor A1」チップです。これによりプロレベルのANC(アクティブノイズキャンセレーション)を実現。さらにAIを活用した風切り音抑制機能も搭載し、あらゆる環境でクリアな音質を提供します。

電力効率の改善でバッテリー寿命は2倍に向上しました。装着感を高める新スタビライザーや、特筆すべきユーザー交換可能なケースバッテリーなど、利用者の長期的な満足度を追求した設計が特徴です。

このポッドキャストでは、こうした技術的な詳細や開発の裏側が語られています。完全版はApple PodcastsやSpotifyで視聴でき、製品の優位性を理解したいエンジニアやリーダーにとって貴重な情報源となるでしょう。

AIインフラ強化へ、Anthropicが新CTOを招聘

新体制の狙い

Stripe CTOのRahul Patil氏が就任
AIインフラ推論チームを統括
創業者大規模モデル開発に専念
製品とインフラ部門の連携強化

激化する開発競争

競合は巨額のインフラ投資を継続
Claude利用急増による負荷増大
速度と電力効率の両立が急務
企業向けサービスの信頼性向上

AI開発企業Anthropicは10月2日、元Stripeの最高技術責任者(CTO)であるRahul Patil氏を新しいCTOとして迎え入れたと発表しました。競争が激化するAIインフラ分野を強化し、自社製品「Claude」の急成長に対応するのが狙いです。共同創業者のSam McCandlish氏はチーフアーキテクトとして、大規模モデル開発に専念します。

新体制では、Patil氏がコンピューティング、インフラ推論といった技術部門全体を統括します。製品エンジニアリングチームとインフラチームをより密接に連携させることで、開発体制の効率化を図ります。一方、CTO職を退いたMcCandlish氏は、モデルの事前学習や大規模トレーニングに集中し、技術の最前線を切り開く役割を担います。

今回の経営陣刷新の背景には、AI業界における熾烈なインフラ開発競争があります。OpenAIMetaなどが計算資源の確保に巨額の資金を投じており、Anthropicインフラの最適化と拡張が喫緊の課題となっていました。

Anthropic自身も、主力AI「Claude」の利用者が急増し、インフラに大きな負荷がかかるという課題に直面していました。同社は7月、一部ヘビーユーザーの利用を受け、APIの利用制限を導入した経緯があります。安定したサービス提供には、インフラの抜本的な強化が不可欠でした。

Patil氏は、Stripeで5年間技術職を務めたほか、Oracleクラウドインフラ担当上級副社長、AmazonMicrosoftでもエンジニアリング職を歴任しました。この20年以上にわたる豊富な経験は、特に企業が求める信頼性の高いインフラを構築・拡張する上で大きな強みとなるでしょう。

AnthropicのDaniela Amodei社長は「Rahul氏は企業が必要とする信頼性の高いインフラを構築・拡張してきた実績がある」と期待を寄せます。Patil氏自身も「AI開発のこの極めて重要な時期に参加できることに興奮している。これ以上の使命と責任はない」と述べ、新天地での貢献に意欲を見せています。

生成AIの電力消費、2030年に23倍増予測

急増するAIの電力消費

簡単なAIへの質問にも電力
ChatGPTは年間米2.9万世帯分を消費
生成AI全体では更に巨大化

2030年の驚異的な未来

総消費電力23倍超に急増
全人類が1日38クエリを利用
超巨大データセンターが数十棟必要

需要を牽引するAIの進化

主因は学習より推論(利用)
自律型AIエージェントの普及

生成AIの急速な普及に伴い、その膨大なエネルギー消費が新たな課題として浮上しています。ChatGPTのようなサービスは既に米国数万世帯分に相当する電力を消費しており、2030年までには生成AI全体の電力需要が現在の23倍以上に達するとの予測も出ています。この需要増に対応するため、OpenAIなどが参画するプロジェクトでは、前例のない規模のデータセンター建設が計画されています。AIの進化がもたらすエネルギー問題の現状と未来を解説します。

OpenAIChatGPTは、1日あたり25億件以上のクエリを処理しています。1クエリあたり0.34ワット時(Wh)と仮定すると、1日で850メガワット時(MWh)を消費する計算です。これは年間で米国の家庭約29,000世帯分の電力に匹敵する規模であり、簡単な対話の裏に隠された膨大なエネルギーコストを示唆しています。

ChatGPTは生成AI市場のほんの一角に過ぎません。Schneider Electric社の調査レポートによれば、2025年時点で生成AI全体が消費する電力は15テラワット時(TWh)に達すると推定されています。これはGoogleGeminiAnthropicClaudeなど、競合サービスの成長も織り込んだ数値であり、AI産業全体のインフラ負荷の大きさを示しています。

課題は将来の爆発的な需要増です。同レポートは、2030年までに生成AIの総電力消費量が347TWhに達すると予測しています。これは2025年比で23倍以上という驚異的な伸びです。背景には、人間だけでなくAIエージェント同士が自律的に対話し、1日あたり3,290億件ものクエリを生成する未来が想定されています。

このエネルギー需要を満たすため、IT大手はインフラの超巨大化を急いでいます。OpenAIなどが参画する「スターゲイト・プロジェクト」では、従来のデータセンターの常識を覆す1ギガワット級の施設の建設が計画されています。2030年までの需要増を賄うには、このような超巨大データセンターが数十棟必要になると試算されています。

AIの電力消費の構造も変化します。これまではモデルを開発する「学習」段階の負荷が注目されてきましたが、今後はユーザーとの対話など「推論(利用)」段階での消費が需要増の主要な牽引役となります。AIが社会に浸透すればするほど、日常的な利用に伴うエネルギー消費が加速度的に増大していくのです。

生成AIの活用は生産性向上の鍵ですが、その裏には無視できないエネルギーコストとインフラへの負荷が存在します。AIの市場価値を追求する上で、エネルギー効率の高いモデルの選択や開発、そして持続可能なインフラ戦略が、企業の競争力を左右する重要な要素となるでしょう。

AIがバッテリー開発を加速、数千万候補から発見

AIによる探索の高速化

3200万候補から80時間で発見
リチウム使用量70%削減の可能性
AIで候補を絞り専門家が最終判断

多様なAIアプローチ

化学基礎モデルで電解質を最適化
LLMで安定性の高い素材を予測
デジタルツインでバッテリー寿命を模擬

次世代への展望

量子コンピュータとの連携
より複雑な化学反応の高精度予測

Microsoftの研究者らがAIを活用し、バッテリーの主要材料であるリチウムの使用量を劇的に削減できる新素材を発見しました。従来は数年かかっていた探索を、AIは3200万以上もの候補からわずか80時間で有望なものを選び出すことに成功。この成果は、AIが材料科学の研究開発を根本から変革する可能性を示しており、電気自動車(EV)やエネルギー貯蔵システムの未来に大きな影響を与えるでしょう。

Microsoftの手法は、まさにAIの真骨頂と言えます。まず、AIモデルが3200万の候補の中から安定して存在しうる分子構造を50万まで絞り込みます。次に、バッテリーとして機能するために必要な化学的特性を持つものをスクリーニングし、候補をわずか800にまで削減。最終的に専門家がこの中から最も有望な物質を特定しました。このAIとの協業により、発見のプロセスが飛躍的に高速化されたのです。

この動きはMicrosoftだけではありません。IBMもAIを駆使し、既存の化学物質の最適な組み合わせを見つけ出すことで、高性能な電解質の開発に取り組んでいます。数億の分子データを学習した化学基礎モデルを用いて有望な配合を予測。さらに、開発したバッテリーのデジタルツイン(仮想モデル)を作成し、物理的な試作前に充放電サイクルによる劣化をシミュレーションすることで、開発期間の短縮とコスト削減を実現しています。

学術界でもAIの活用は急速に進んでいます。ニュージャージー工科大学の研究チームは、AIを用いてリチウムイオン電池を凌駕する可能性のある5つの新材料候補を発見しました。研究者は「AIに材料科学者になる方法を教えている」と語ります。このように、AIはもはや単なる計算ツールではなく、科学的発見のパートナーとなりつつあるのです。

次なるフロンティアは、量子コンピューティングとの融合です。現在のコンピュータではシミュレーションが困難な複雑な化学反応も、量子コンピュータなら高精度にモデル化できると期待されています。そこから得られる正確なデータをAIの学習に用いることで、さらに革新的な材料の発見が加速するでしょう。AIと量子技術の連携が、持続可能な未来を支える次世代バッテリー開発の鍵を握っています。

AIの電力危機、MITが示す技術的解決策

急増するAIの環境負荷

日本の総消費電力を上回る規模
需要増の60%を化石燃料に依存

ハード・ソフト両面の対策

GPU出力を抑える省エネ運用
アルゴリズム改善で計算量を削減
再生可能エネルギー利用の最適化

AIで気候変動を解決

AIによる再エネ導入の加速
プロジェクトの気候影響スコア化

マサチューセッツ工科大学(MIT)の研究者らが、急速に拡大する生成AIの環境負荷に対する具体的な解決策を提示しています。国際エネルギー機関(IEA)によると、データセンター電力需要は2030年までに倍増し、日本の総消費電力を上回る見込みです。この課題に対し、研究者らはハードウェアの効率運用、アルゴリズムの改善、AI自身を活用した気候変動対策など、多角的なアプローチを提唱しています。

AIの電力消費は、もはや看過できないレベルに達しつつあります。ゴールドマン・サックスの分析によれば、データセンター電力需要増の約60%が化石燃料で賄われ、世界の炭素排出量を約2.2億トン増加させると予測されています。これは、運用時の電力だけでなく、データセンター建設時に排出される「体現炭素」も考慮に入れる必要がある、と専門家は警鐘を鳴らします。

対策の第一歩は、ハードウェアの運用効率化です。MITの研究では、データセンターGPU画像処理半導体)の出力を通常の3割程度に抑えても、AIモデルの性能への影響は最小限であることが示されました。これにより消費電力を大幅に削減できます。また、モデルの学習精度が一定水準に達した時点で処理を停止するなど、運用の工夫が排出量削減に直結します。

ハードウェア以上に大きな効果が期待されるのが、アルゴリズムの改善です。MITのニール・トンプソン氏は、アルゴリズムの効率改善により、同じタスクをより少ない計算量で実行できる「Negaflop(ネガフロップ)」という概念を提唱。モデル構造の最適化により、計算効率は8~9ヶ月で倍増しており、これが最も重要な環境負荷削減策だと指摘しています。

エネルギー利用の最適化も鍵となります。太陽光や風力など、再生可能エネルギーの供給量が多い時間帯に計算処理を分散させることで、データセンターのカーボンフットプリントを削減できます。また、AIワークロードを柔軟に調整する「スマートデータセンター」構想や、余剰電力を蓄える長時間エネルギー貯蔵ユニットの活用も有効な戦略です。

興味深いことに、AI自身がこの問題の解決策となり得ます。例えば、AIを用いて再生可能エネルギー発電所の送電網への接続プロセスを高速化したり、太陽光・風力発電量を高精度に予測したりすることが可能です。AIは複雑なシステムの最適化を得意としており、クリーンエネルギー技術の開発・導入を加速させる強力なツールとなるでしょう。

生成AIの持続可能な発展のためには、こうした技術的対策に加え、企業、規制当局、研究機関が連携し、包括的に取り組むことが不可欠です。MITの研究者らは、AIプロジェクトの気候への影響を総合的に評価するフレームワークも開発しており、産官学の協力を通じて、技術革新と環境保全の両立を目指す必要があると結論付けています。

Hance、KB級AI音声処理でエッジ市場に革新

驚異の超小型・高速AI

モデルサイズは僅か242KB
遅延10ミリ秒のリアルタイム性
電力で多様なデバイスに対応

F1からインテルまで

F1公式無線サプライヤーが採用
Intelの最新チップNPUへ最適化
防衛・法執行分野への応用
大手スマホメーカーとも協議中

ノルウェーのスタートアップHanceが、キロバイト級の超小型AI音声処理ソフトウェアを開発しました。クラウドを介さずデバイス上で動作し、わずか10ミリ秒の低遅延でノイズ除去や音声の明瞭化を実現。すでにF1の公式無線サプライヤーやIntelといった大企業を顧客に持ち、10月27日から開催されるTechCrunch Disrupt 2025でデモを披露します。

この技術の核心は、わずか242KBという驚異的なモデルサイズにあります。これにより、スマートフォンや無線機など、リソースが限られたエッジデバイス上でのリアルタイム処理が可能になりました。従来のクラウドベースのAIと異なり、通信遅延や消費電力を大幅に削減できる点が大きな強みです。

HanceのAIモデルは、共同創業者が運営する高品質なサウンドライブラリ「Soundly」の音源を用いてトレーニングされました。F1マシンの轟音から火山の噴火音まで、多種多様なデータを学習させることで、過酷な環境下でも特定の音声を分離し、ノイズやエコー、反響を除去する高い性能を達成しています。

その実用性はすでに証明されています。F1チームが使用する無線システムを手がけるRiedel Communicationsは、高速走行中のドライバーとエンジニア間の極めて重要な通信をクリアにするため、Hanceの技術を採用。他にも、防衛や法執行機関といった、リアルタイム性と信頼性が求められる分野からの関心も高まっています。

Hanceは事業拡大を加速させています。半導体大手Intelとは、同社の最新チップ「NPU(ニューラル・プロセッシング・ユニット)」向けにモデルを最適化するパートナーシップを締結。他のチップメーカーや、非公開のスマートフォンメーカーとも協議を進めており、競争優位を保つため、研究開発に注力し続ける方針です。

AIで科学を自動化、元OpenAIらが450億円調達

超エリート集団と巨額資金

OpenAIDeepMindの研究者が設立
シードで3億ドル(約450億円)を調達
Nvidiaやベゾス氏など著名投資家が出資

AI科学者の創造

ロボットが自律的に実験を繰り返す
物理世界から独自のデータを生成
最初の目標は新超伝導体の発明

次世代AIのフロンティア

ネット上の学習データは枯渇しつつある
物理世界のデータでAIモデルを進化させる

OpenAIGoogle DeepMindの研究者らが設立した新興企業「Periodic Labs」が、2025年9月30日、科学的発見を自動化する「AI科学者」の開発を目指し、シードラウンドで3億ドル(約450億円)という異例の大型資金調達を発表しました。ロボットが自律的に実験を行うラボを構築し、物理世界から新たなデータを生成することで、新素材開発などに挑みます。

同社が目指すのは、単なる研究開発の支援ツールではありません。ロボットが物理的な実験を行い、データを収集し、自ら学習・改善を繰り返す「自律型実験室」の構築です。これにより、人間の介入なしに24時間365日、科学的探求を加速させる「AI科学者」を生み出すことを構想しています。

最初の具体的な目標は、既存の材料よりも高性能で、より少ないエネルギーで機能する可能性のある新しい超伝導体の発見です。しかし、その視野は超伝導体にとどまりません。未知の新素材を体系的に探索し、次世代技術の基盤を築くことを目指しています。

この取り組みの背景には、大規模言語モデル(LLM)が「インターネット上のデータを使い果たした」という課題認識があります。Periodic Labsは、AI科学者が生成する物理世界の膨大で新鮮なデータこそが、AIモデルを次の段階へ進化させる鍵だと考えています。これは、デジタル空間から物理空間へのAIのフロンティア拡大を意味します。

創業者チームには、Googleで200万以上の新結晶を発見したAI「GNoME」を主導したEkin Dogus Cubuk氏や、ChatGPT開発に貢献した元OpenAI研究担当VPのLiam Fedus氏など、AIと物質科学のトップランナーが集結。その卓越した実績が、壮大なビジョンへの信頼性を高めています。

この野心的な計画には、Andreessen HorowitzNvidiaAmazon創業者のジェフ・ベゾス氏といったテクノロジー業界の著名な投資家が名を連ねています。シードラウンドとしては破格の資金調達額は、この分野への市場の極めて高い期待を物語っていると言えるでしょう。

Microsoft、AIチップ冷却新技術で性能向上と省エネ両立へ

Microsoftは2025年9月25日、AIチップの性能向上とデータセンターの省エネ化を両立する新冷却技術「マイクロフルイディクス」の研究成果を発表しました。この技術は、チップの裏面に直接微細な溝を彫り、冷却液を流すことで発熱を効率的に抑えます。実験では従来の冷却方式より最大3倍高い熱除去性能を示しており、次世代AIチップの開発や持続可能性向上に繋がると期待されています。 新技術の核心は、チップの裏面に髪の毛ほどの幅の溝を直接形成し、そこに冷却液を循環させる点にあります。同社はAIを活用して最も効率的な冷却経路を設計しました。熱源である半導体に冷却液が直接触れるため、熱を素早く奪うことが可能です。これにより、GPUの最大温度上昇を65%削減できたと報告しています。なぜこれほど効率的なのでしょうか。 従来の主流であるコールドプレート方式では、チップと冷却液の間に熱伝導を妨げる層が存在しました。マイクロフルイディクスではこの中間層をなくすことで、熱伝達の効率を飛躍的に高めました。その結果、冷却液を過度に冷やす必要がなくなり、冷却システム全体の消費電力削減に貢献します。これはデータセンターの運用コストに直結する利点です。 この高い冷却性能は、チップの処理能力を意図的に高める「オーバークロック」をより安全に行うことを可能にします。これにより、サーバーはピーク時の需要にも柔軟に対応でき、結果的にデータセンター全体のサーバー台数を削減できる可能性があります。設備投資の抑制や省スペース化にも繋がるでしょう。 さらに、この技術はこれまで発熱が大きな障壁となっていた3Dチップアーキテクチャの実現にも道を開きます。半導体を立体的に積層できれば、処理能力は飛躍的に向上します。マイクロフルイディクスは、ムーアの法則の先を行く次世代AIチップ開発を加速させる鍵となるかもしれません。 ただし、この技術はまだ研究開発段階であり、製造プロセスへの統合やサプライチェーンの構築といった実用化への課題は残っています。Microsoftは具体的な導入時期を示していませんが、業界全体の持続可能な発展に貢献する技術として、今後の動向が注目されます。

Google、行政サービス革新へAIスタートアップ25社選出

Googleは、AIを活用して行政サービス(GovTech)の変革を目指すスタートアップ支援プログラムを発表しました。医療エネルギー、危機対応といった公共サービスは需要増に直面しており、AIによる効率化や近代化が急務です。このプログラムは、企業のソリューション導入を加速させることを目的としています。 今回の第一期生として、欧州、中東、アフリカ、トルコから25社が選出されました。700社を超える応募の中から厳選された企業群は、既に行政運営の進化を様々な分野で推進しています。AI技術とGoogle専門家による指導を通じて、さらなる成長が期待されます。 ヘルスケア分野では、エジプトの「Chefaa」が慢性疾患患者向けの処方箋アプリを、ナイジェリアの「E-GovConnect」がデータに基づき健康リスクを早期発見する仕組みを提供します。また、サウジアラビアの「Sahl AI」は、医師と患者の会話から自動でカルテを作成する技術を開発しています。 気候変動対策も重要なテーマです。トルコの「ForestGuard」はAIとセンサーで山火事を初期段階で検知し、UAEの「FortyGuard」は都市のヒートアイランド現象を管理するための精密な温度データを提供。スペインの「Plexigrid」は再生可能エネルギーによる送電網の需要増に対応します。 市民サービスや行政手続きの効率化も進んでいます。ポーランドの「PhotoAiD」はスマートフォンでパスポート写真を撮影できるサービスを展開。サウジアラビアの「Wittify AI」は、現地方言を理解するアラビア語AIアシスタントを政府機関向けに開発しています。 参加企業の創業者からは「AIが市民中心のサービスを実現する」など期待の声が上がっています。プログラムはオンラインで開始し、10月にはドバイで集中合宿を実施。Googleは選出企業が政府と連携し、社会に貢献するAIアプリケーションを構築することに期待を寄せています。

OpenAI、Oracle・SoftBankと米でDC5拠点新設

AI開発のOpenAIは2025年9月23日、OracleおよびSoftBank提携し、米国内に5つのAIデータセンターを新設すると発表しました。「スターゲイト」計画の一環で、高性能AIモデルの開発・運用基盤を強化します。これにより米国のAI分野における主導権確保を目指します。 新設されるデータセンターは合計で7ギガワットの電力を消費する計画で、これは500万世帯以上の電力に相当します。Oracleとはテキサス州など3拠点で、SoftBankとはオハイオ州とテキサス州の2拠点で開発を進めます。これにより、OpenAIのAI開発に必要な膨大な計算資源を確保します。 この大規模投資の背景には、AIモデルの性能向上が計算能力に大きく依存するという現実があります。CEOのサム・アルトマン氏は「AIはインフラを必要とする」と述べ、米国がこの分野で後れを取ることは許されないと強調しました。特に、急速にAIインフラを増強する中国への対抗意識が鮮明です。 今回の発表は同社のインフラ投資加速の一端です。先日には半導体大手Nvidiaから最大1000億ドルの投資を受け、AIプロセッサ購入やデータセンター建設を進める計画も公表しました。AI開発競争は、巨額の資本を投じるインフラ整備競争の様相を呈しています。 「スターゲイト」は現在、Microsoftとの提携を除くOpenAIの全データセンタープロジェクトの総称として使われています。国家的なAIインフラ整備計画として位置づけられ、トランプ政権も規制緩和などでこれを後押ししています。米国のAIリーダーシップを確保するための国家戦略の一環と言えるでしょう。 一方で専門家からは懸念も上がっています。計算規模の拡大だけがAI性能向上の唯一解ではないとの指摘や、膨大な電力消費による環境負荷を問題視する声があります。インフラの規模だけでなく、市場が求めるアプリケーションを創出できるかが、真の成功の鍵となりそうです。

NVIDIA、AIでエネルギー効率化を加速 脱炭素社会へ貢献

NVIDIAは2025年9月23日からニューヨーク市で開催された「クライメート・ウィークNYC」で、AIがエネルギー効率化の鍵を握ることを発表しました。「アクセラレーテッド・コンピューティングは持続可能なコンピューティングである」と強調し、LLMの推論効率が過去10年で10万倍に向上した実績をその根拠として挙げています。 AIはエネルギー消費を増やすだけでなく、それを上回る削減効果をもたらすのでしょうか。調査によれば、AIの全面的な導入により2035年には産業・運輸・建設の3分野で約4.5%のエネルギー需要が削減されると予測されています。AIは電力網の異常を迅速に検知し、安定供給に貢献するなどインフラ最適化を可能にします。 同社はスタートアップとの連携も加速させています。投資先のEmerald AI社と協力し、電力網に優しくエネルギー効率の高い「AIファクトリー」の新たな参照設計(リファレンスデザイン)を発表しました。あらゆるエネルギーが知能生成に直接貢献するよう最適化された、次世代データセンターの実現を目指します。 NVIDIAは自社製品の環境負荷低減にも注力しています。最新GPUプラットフォーム「HGX B200」は、前世代の「HGX H100」に比べ、実装炭素排出強度を24%削減しました。今後も新製品のカーボンフットプリント概要を公表し、透明性を高めていく方針です。自社オフィスも100%再生可能エネルギーで運営しています。 さらに、AIは気候変動予測の精度向上にも貢献します。高解像度のAI気象モデルは、エネルギーシステムの強靭性を高めます。同社の「Earth-2」プラットフォームは、開発者が地球規模の気象・気候予測アプリケーションを構築するのを支援し、再生可能エネルギーの導入拡大にも繋がる重要な技術となっています。

NVIDIA、OpenAIに最大14兆円投資 巨大AI基盤構築

半導体大手のNVIDIAと「ChatGPT」を開発するOpenAIは2025年9月22日、AI開発のインフラを共同で構築する戦略的パートナーシップを発表しました。NVIDIAは、OpenAIが建設するAIデータセンターの規模に応じて、最大1000億ドル(約14兆円)を段階的に投資します。OpenAINVIDIA製のGPUを数百万個規模で導入し、少なくとも10ギガワットの計算能力を確保する計画です。次世代AIモデルの開発・運用に不可欠な膨大な計算資源を確保する狙いがあります。 今回の提携は、NVIDIAジェンスン・フアンCEOが「史上最大のAIインフラプロジェクト」と評する大規模なものです。OpenAIは、NVIDIAの次世代プラットフォーム「Vera Rubin」を含むシステムを導入。OpenAIサム・アルトマンCEOは「計算インフラは未来経済の基盤になる」と述べ、AIのブレークスルー創出への期待を示しました。今後のAI開発の行方を大きく左右する動きとなりそうです。 OpenAIはこれまで、最大の投資家であるMicrosoftクラウドに大きく依存してきました。しかし、今年1月に提携内容を変更して以降、Oracleとの大規模契約など、計算資源の調達先を積極的に多様化しています。今回の提携もその戦略を加速させるものです。特定の企業への依存リスクを低減し、AI開発の主導権を維持する狙いがうかがえます。 NVIDIAによる投資は、OpenAINVIDIAGPUを購入するための資金となり、最終的にNVIDIAの売上に還流する構造です。市場関係者はこれを「好循環」と見ており、AIインフラ市場における同社の支配的地位をさらに強固にする動きとして評価しています。AIの需要拡大が自社の成長に直結するビジネスモデルを確立したと言えるでしょう。 計画されている10ギガワットという電力は、原子力発電所約10基分に相当します。AIデータセンター電力消費は世界的に急増しており、国際エネルギー機関(IEA)も警鐘を鳴らしています。電力網への負担や環境への影響は、AIの普及における大きな課題となり、解決策として原子力などの活用も模索されています。 AIの能力向上を支えるインフラ投資競争は、業界全体で激化しています。Metaは2028年末までに6000億ドルを投じる計画で、MicrosoftAmazonも原子力発電所と提携するなど、大規模なデータセンター建設と電力確保に奔走しています。AI競争は、もはやモデル開発だけでなくインフラ確保の競争でもあるのです。 今回の計画では、最初のシステムが2026年後半に稼働を開始する予定です。AIが社会に浸透するにつれ、その頭脳を支える「AI工場」の重要性は増すばかりです。この巨大プロジェクトの成否は、AI業界全体の未来を左右する可能性があります。企業は自社のAI戦略において、計算資源の確保をどう進めるか問われています。

メタ社、ルイジアナ州に巨大データセンター建設へ 税優遇と電力確保

ルイジアナ州公共サービス委員会は8月20日、メタ社が計画する巨大データセンター電力を供給するため、天然ガス発電所3基の建設を承認しました。この計画には巨額の税制優遇措置も含まれています。データセンターは完成すると2ギガワット以上の電力を消費する見込みです。 この決定は、審議プロセスが性急だったとして批判を浴びています。反対派は、投票が前倒しされ、電気料金の高騰や水不足といった住民の懸念を十分に議論する時間がなかったと主張。本来は10月まで審議される可能性があったにもかかわらず、手続きが急がれたと指摘しています。 メタ社は巨額の税制優遇も受けます。投資額と雇用数に応じて固定資産税が最大80%減免される計画です。しかし契約では地元雇用の保証がなく、「フルタイム雇用」の定義も複数のパートタイム職の組み合わせを認めるなど、その実効性が問われています。 州当局は、計画が貧困率の高い地域に100億ドルの投資と最大500人の雇用をもたらすと強調しています。経済開発団体も、住民を貧困から救う絶好の機会だと証言しました。しかし、約束通りの経済効果が生まれるかは不透明な状況です。 住民の負担増も懸念材料です。発電所の建設費はメタ社が融資の一部を負担しますが、5億5000万ドルにのぼる送電線の建設費は公共料金利用者が支払います。IT大手を誘致するための優遇措置が過剰ではないかとの指摘も出ています。 データセンターへの過度な優遇は他州でも問題視されています。市場の変化で計画が遅延・放棄されるリスクも存在し、その場合、州は活用困難な巨大施設を抱えかねません。AIインフラへの投資と地域社会への貢献のバランスが改めて問われています。

AI電力需要予測は過大か、不要な化石燃料投資リスクを指摘

米国のNPOなどが今月発表した報告書で、AIの急成長に伴う電力需要の予測が過大である可能性が指摘されました。この予測に基づき電力会社が不要なガス発電所を建設すれば、消費者の負担増や環境汚染につながるリスクがあると警告。テック企業や電力会社に対し、透明性の高い需要予測と再生可能エネルギーへの移行を求めています。 生成AIの登場以降、エネルギー効率の向上で十数年横ばいだった米国電力需要は増加に転じました。AI向けのデータセンターは、従来のサーバーラックが家庭3軒分程度の電力を使うのに対し、80〜100軒分に相当する電力を消費します。これはまさに「小さな町」ほどの電力規模に相当します。 なぜ予測が実態以上に膨らむのでしょうか。報告書は、データセンター開発業者の投機的な動きを指摘します。彼らは資金や顧客が未確保のまま、複数の電力会社に重複して電力供給を申請するケースがあり、これが需要予測を水増ししている一因と見られています。 実際、全米の電力会社はハイテク業界の予測より50%も高い需要増を計画しています。ある大手電力会社のCEOは、電力網への接続申請は、実際に具体化するプロジェクトの「3〜5倍」に達する可能性があると認め、予測の不確実性を指摘しています。 不確実な需要予測にもかかわらず、電力会社はガス火力発電所の新設を進めています。これは電力会社の収益構造上、インフラ投資が利益に直結しやすいためです。結果として、不要な設備投資のコストが消費者の電気料金に転嫁されたり、化石燃料への依存が高まったりする恐れがあります。 こうしたリスクを避けるため、報告書は解決策も提示しています。電力会社には、開発業者への審査強化や契約条件の厳格化を提言。テック企業には、技術の省エネ化をさらに進め、再生可能エネルギーへの投資を加速させるよう強く求めています。AIの持続的な発展には、エネルギー問題への慎重な対応が不可欠です。

AIの電力問題、データセンター宇宙移設で打開策を模索

OpenAIサム・アルトマンCEOらが、AIの普及で急増するデータセンター電力消費問題に対応するため、施設を宇宙空間に移設する構想を提唱しています。この構想は、宇宙で太陽光を24時間利用してエネルギーを賄い、地上の電力網や水資源への負荷を軽減することが狙いです。スタートアップによる実験も始まっていますが、コストや技術、規制面での課題も多く、実現には時間がかかるとみられています。 AIデータセンター電力需要は、2030年までに最大165%増加すると予測されています。現在、こうした施設のエネルギーの半分以上は化石燃料に依存しており、気候変動対策の進展を脅かす存在となっています。この深刻な状況が、新たな解決策を模索する大きな動機となっているのです。 この宇宙移設構想を支持しているのは、アルトマン氏だけではありません。Amazon創業者のジェフ・ベゾス氏や元Google CEOのエリック・シュミット氏もこのアイデアに投資しています。アルトマン氏は、太陽の周りにデータセンター群を構築し、そのエネルギーを最大限に活用するという壮大なビジョンも語っています。 データセンターを宇宙へ移設する最大の利点は、エネルギー問題の解決です。24時間365日、遮られることなく太陽光エネルギーを利用できます。さらに、地上での課題である水資源の大量消費や、騒音・大気汚染といった地域社会への負担を根本から解消できる可能性を秘めているのです。 技術的な実現可能性も見え始めています。カリフォルニア工科大学の研究チームは、低コストで発電可能な軽量の宇宙太陽光発電システムを提案しました。しかし、宇宙空間ではデータ処理速度が地上より遅くなる可能性や、宇宙放射線による機器への影響、故障時の修理やアップグレードが極めて困難であるといった技術的課題が山積しています。 すでに複数のスタートアップが、この構想の実現に向けて動き出しています。小型のデータセンターを搭載した衛星の打ち上げ計画や、月面にデータを保管する試みも行われました。しかし、これらはまだ実験段階であり、ハーバード大学の経済学者は、産業規模で地上の施設と競争できるようになるかは予測が難しいと指摘しています。 現時点では、データセンターを宇宙に設置するコストは、地上に建設するよりもはるかに高額です。そのため、利益を追求する企業は地上での拡張を優先するでしょう。しかし、地上でのデータセンター建設に対する規制が世界的に強化される中、規制がほとんど存在しない宇宙空間が、将来的に企業にとって魅力的な選択肢となる可能性は否定できません。

英電力大手オクトパス、AI事業「クラーケン」をスピンオフ

英国の再生可能エネルギー大手オクトパス・エナジーは、公益事業向けのAIプラットフォーム「クラーケン」をスピンオフ(分社化)すると発表しました。他の電力会社からの年間収益が5億ドルに達したことが背景にあります。このスピンオフは、競合となりうる他の電力会社との契約を拡大し、利益相反を最小限に抑えることを目的としています。企業価値は150億ドルに達する可能性があると報じられています。 ウォール・ストリート・ジャーナル紙によると、クラーケンはスピンオフ後、1年以内に新規株式公開(IPO)を行う可能性があります。その際の企業価値は150億ドル(約2兆円)に達すると見込まれています。この動きは、エネルギー業界におけるAI技術の価値が市場から高く評価されていることを示唆していると言えるでしょう。 クラーケンは元々、オクトパス・エナジーの社内向け製品でした。CEOのグレッグ・ジャクソン氏は「オクトパス自体がデモクライアントだった」と語ります。その「デモ」は現在、英国内外で1000万以上の世帯に電力を供給する巨大企業となっています。 スピンオフの主な目的は、利益相反を避けることにあります。親会社と競合する電力会社も、クラーケンのプラットフォームを導入しやすくなるためです。中立的な技術プロバイダーとしての地位を確立し、さらなる市場拡大を目指す戦略と言えるでしょう。 クラーケンは、AIを用いて電力網のデータを分析します。再生可能エネルギーや電気自動車(EV)の充電器、家庭用蓄電池などを最適に管理・活用する機能を提供。また、料金請求から顧客対応までを網羅する包括的な顧客管理システムも備えています。 親会社であるオクトパス・エナジーは2015年の創業からわずか10年で、英国最大の電力供給会社となりました。200年以上の歴史を持つブリティッシュ・ガスを上回る快挙です。独創的な料金プランなどが急成長を支え、そのデータ分析にクラーケンが貢献してきました。

MS、鴻海旧工場跡に世界最強AIデータセンター建設

マイクロソフトは2025年9月18日、米ウィスコンシン州にある鴻海(Foxconn)の旧工場跡地に、33億ドルを投じて「世界で最も強力」と謳うAIデータセンターを建設すると発表しました。2026年初頭の稼働を予定しており、AIのトレーニング能力を飛躍的に向上させる狙いです。この計画は、かつて頓挫したプロジェクト跡地を最先端のAIインフラ拠点として再生させるものです。 この巨大なデータセンターは、一体どれほどの性能を持つのでしょうか。施設にはNVIDIAの最新GPU「GB200」を数十万基搭載し、その性能は現行の最速スーパーコンピュータの10倍に達すると同社は説明しています。この圧倒的な計算能力により、AIモデルのトレーニングが劇的に加速されることが期待されます。 施設の規模も桁外れです。データセンターは315エーカー(約127ヘクタール)の敷地に3棟の建物が建設され、総面積は120万平方フィート(約11万平方メートル)に及びます。内部には地球4.5周分に相当する長さの光ファイバーが張り巡らされ、膨大なGPU群を接続します。 近年、AIの膨大なエネルギー消費が問題視される中、マイクロソフトは環境への配慮を強調しています。水を一度充填すれば蒸発しないクローズドループ冷却システムを採用し、水資源への影響を最小限に抑えるとしています。持続可能性への取り組みをアピールする狙いもあるようです。 建設地は、かつて鴻海が液晶パネル工場を建設すると発表しながらも計画が大幅に縮小された因縁の場所です。今回の投資は、この未利用地を米国のAI産業を支える重要拠点へと生まれ変わらせる試みといえるでしょう。地域経済への貢献も期待されています。 マイクロソフトはウィスコンシン州の拠点に加え、米国内で複数の同様のAIデータセンター「Fairwater」を建設中であることを明らかにしました。これは、生成AIの普及に伴う爆発的な計算需要に対応する全社的な戦略の一環であり、今後のAI開発競争における同社の優位性を強固にするものです。

Google、アイオワ州に70億ドル追加投資。AIとクラウド基盤を強化

大規模投資の概要

追加投資額は70億ドル規模
投資地域は米国アイオワ州
クラウドとAIインフラの大幅増強
技術人材育成プログラムを推進

戦略的効果と目標

米国におけるAIリーダーシップ維持
AI主導経済のエネルギー基盤強化
数百万のキャリア機会と雇用創出
米国サイバーセキュリティ強化

Googleは2025年9月、米国アイオワ州に対し、クラウドおよびAIインフラ強化を目的として、追加で70億ドルの大規模投資を行うと発表しました。この投資は、技術基盤の拡充だけでなく、人材育成プログラムにも充当されます。AIが牽引する新たな経済時代において、米国でのイノベーションと経済機会の創出を加速させる、戦略的な一歩です。

今回の70億ドルの資金は、主にデータセンターなどの技術インフラと研究開発に投入されます。特にAI主導の経済を支えるため、エネルギー容量の拡大に注力しているのが特徴です。Googleは、AIを安全かつ効率的に運用するための強固な基盤整備を進め、今後の大規模なAI需要に対応する構えです。

この大規模投資の背景には、米国のAI分野における世界的なリーダーシップを維持する狙いがあります。技術インフラの強化を通じて、先端的な科学的ブレイクスルーを推進するとともに、米国サイバーセキュリティ体制の強化にも寄与します。これは、国家的な技術優位性を確保するための重要な手段となります。

投資は地域経済に大きな波及効果をもたらし、特に数百万人のアメリカ人に新たなキャリア機会を創出すると期待されています。インフラ投資と並行して、Googleワークフォース・デベロップメント(人材育成)プログラムにも資金を投じます。これにより、AI時代に求められるスキルを持った労働力を育成し、市場価値向上を支援します。

米巨大テック、英国AIインフラに巨額投資合戦

投資競争の主役たち

MSは300億ドル(4.5兆円)を4年間で投資
Google68億ドル(1兆円)を今後2年間で
NVIDIAは最大150億ドル規模のR&D;投資
MSが23,000基超GPU英国最大スパコン構築

英国の「主権AI」戦略

OpenAI/NVIDIA/NscaleによるStargate UK
専門用途向けに国内処理能力を確保
公共サービスや国家安全保障での利用を想定
ノースイーストにAI成長ゾーンを指定

米国巨大テック企業群が、英国のAIインフラ構築に向け、同時期に巨額の投資計画を発表しました。特にマイクロソフトは300億ドル(約4.5兆円)という過去最大規模の投資を公表し、AI競争の主導権を握る構えです。これは英国のAI競争力強化、経済成長を目的としており、グーグルやOpenAI/NVIDIAもこれに追随する形で大規模なデータセンタースーパーコンピューター構築を進めます。

マイクロソフトは2025年から2028年にかけ、総額300億ドルを投じます。このうち約半分を投じて、パートナー企業Nscaleと共同で23,000基超のGPUを搭載した英国最大のスーパーコンピューターを建設する計画です。同日にグーグル(アルファベット)も2年間で68億ドル(約1兆円)の投資と新データセンター開設を発表しましたが、マイクロソフトはこれを大きく上回る規模を強調しています。

一方、OpenAINVIDIA、Nscaleと提携し、「Stargate UK」と呼ばれるAIインフラパートナーシップを発表しました。これは英国の「主権コンピューティング能力」の強化を目的としています。OpenAIの最先端AIモデルを、公共サービスや金融、国家安全保障といった機密性の高い専門的なユースケースに利用するため、国内のローカルなコンピューティング能力で実行可能にします。

これらの投資は、ドナルド・トランプ大統領の訪英に合わせて発表され、米英両国間の強力な技術提携を象徴しています。英国政府は、AI分野で世界的なリーダーシップを確立することを目指しており、今回の巨額投資英国経済への強力な信任投票」と評価しています。計画には、北東部地域にAI成長ゾーンを指定する施策も含まれています。

AIインフラ構築に加え、各社は英国の労働力強化にも貢献します。OpenAIは、AI教育プログラムである「OpenAI Academy」を導入し、2030年までに750万人の労働者のスキルアップを目指す政府の目標を支援します。また、これらの投資は、データセンター関連事業を中心に、数千人規模の新規雇用創出につながる見込みです。

しかし、データセンターの乱立に対する懸念も高まっています。大規模なハイパースケールデータセンター膨大な電力と水を消費するため、環境団体や市民団体は、気候目標達成の妨げや電力価格の高騰につながると強く批判しています。英国政府に対し、電力・水利用に関する戦略の見直しを求める声が上がっています。