ハードウェア(ハードウェア)に関するニュース一覧

AI副操縦士で義手操作を自動化、放棄率改善へ

高機能義手が抱える課題

購入者の最大50%が使用を放棄
全動作の意識的制御が過重負担
反射機能なく微調整が困難

AIによる制御革命

人間の無意識反射をAIが代行
ユーザーの認知負荷を軽減
直感的な自律操作を実現

米ユタ州立大学の研究チームは、バイオニック義手の操作を補助する「AI副操縦士」を開発しました。従来の義手は操作が難しく、購入者の最大50%が使用を放棄している現状があります。AIが細かい制御を代行することで、ユーザーの負担を減らし、直感的な使用を可能にします。

現代の義手はハードウェアとして高性能ですが、全ての動作をユーザーが意識的に制御する必要がありました。27の関節と多数の筋肉の調整を常に行うことは、精神的な負荷が極めて高く、これが高い使用放棄率の主因となっていました。

開発されたシステムは、人間の神経系が持つ反射機能をAIで模倣します。物が滑り落ちそうな瞬間に無意識に強く握るといった微調整をAIが自律的に処理するため、ユーザーは「掴む」という意思を持つだけで、複雑な制御から解放されます。

これまでの筋電位制御では、動作維持のために筋肉の緊張を保つ必要がありました。このAI技術は、身体拡張技術におけるインターフェースの革新であり、医療機器のみならず、遠隔操作ロボットなど幅広い分野での生産性向上に寄与する可能性があります。

Google最新量子チップを英研究者に提供、実用化加速へ

英NQCCと戦略的提携

最新チップ「Willow」を提供
英国の研究者が利用可能に
実用アプリの発見を加速

研究提案の公募を開始

2026年1月末まで提案受付
研究助成金の付与も
高インパクトな課題が対象

Google英国立量子コンピューティングセンター(NQCC)と提携し、最新の量子プロセッサ「Willow」へのアクセス権英国の研究者に提供すると発表しました。量子技術の実用化に向けた重要なステップとなります。

今回の提携は、Googleによる英国への長期的な投資戦略の一環です。同社は今年初めにも英国のAI経済に対して50億ポンドの投資を発表しており、同国の技術エコシステムの強化に注力しています。

科学者は2026年1月31日までに研究案を提出することで、Willowへのアクセス権に加え、NQCCからの研究助成金を得る機会が得られます。社会的影響の大きい科学的課題の解決が期待されています。

Googleはこの取り組みを通じ、英国の卓越した研究能力と業界最先端のハードウェアを融合させ、量子コンピュータの用途発見を加速させる狙いです。リーダー層は今後の成果に注目すべきでしょう。

NVIDIA、モンハン2作をクラウド配信 RTX5080級で強化

人気作追加とデバイスフリー

カプコンのモンハンストーリーズ1・2が追加
ダウンロード不要でクラウドゲーミングが可能
スマホやPCなど多様なデバイスに対応

最新サーバー技術と特典

Game Awards候補作など注目作も多数配信
Ultimate会員はRTX 5080級環境を利用可
ARC Raidersの限定アイテム特典を用意

NVIDIAは12月11日、クラウドゲーミングサービス「GeForce NOW」にカプコンの人気RPG『モンスターハンターストーリーズ』シリーズを追加しました。これにより、高性能なハードウェアを持たない層へも、ダウンロード不要で高品質なゲーム体験を提供します。

今回追加されたのは、シリーズ第1作および続編の『モンスターハンターストーリーズ2』です。ユーザーはスマートフォンやノートPCなど、あらゆるデバイスでカプコンのリッチなコンテンツを楽しめます。特に第1作はフルボイス化などの機能強化も施されています。

プラットフォームの技術的優位性も強化されています。最上位のUltimateプランではRTX 5080クラスのサーバーが稼働しており、従来の最大2.8倍のフレームレートを実現しました。シネマティック品質のストリーミングにより、遅延のない没入感あるプレイが可能です。

年末の「The Game Awards」シーズンに合わせ、ノミネート作品を含む多数のタイトルも拡充されました。さらに『ARC Raiders』の限定特典を用意するなど、コンテンツインフラの両面からクラウドゲーミング市場での競争力を高めています。

llama.cppが動的モデル切替に対応、再起動不要を実現

再起動なしで柔軟な運用が可能

サーバー再起動なしで動的にモデル切替が可能
リクエストに応じオンデマンドで自動ロード
Ollamaのような柔軟な管理機能を実装
各モデルは独立プロセスで動作し安定性確保

リソース効率と開発速度の向上

使用頻度の低いモデルを自動でアンロード
モデルごとのA/Bテストや比較が容易に
マルチテナント環境での展開に最適

ローカルLLM実行環境として人気の「llama.cpp」サーバーに、待望の動的モデル管理機能が追加されました。2025年12月11日に公開された新機能「ルーターモード」により、サーバーを再起動することなく、複数のAIモデルを動的に読み込み、切り替えることが可能になります。これにより、開発現場や実運用における生産性が大幅に向上します。

最大の特徴は、ユーザーからのリクエストに応じて必要なモデルを自動ロードする仕組みです。事前にモデルを指定して起動する必要がなく、キャッシュや指定ディレクトリ内のモデルを自動検出します。また、メモリ上限に達した際は、使用頻度の低いモデルから順に自動でアンロードされるため、限られたハードウェアリソースを効率的に活用できます。

システムの安定性も考慮されています。各モデルは独立したプロセスとして実行されるマルチプロセスアーキテクチャを採用しており、仮に一つのモデルがクラッシュしても、サーバー全体や他のモデルには影響を与えません。これにより、複数のモデルを同時に扱うマルチテナント環境でも安心して利用可能です。

この機能強化により、異なるバージョンのモデルを比較するA/Bテストや、用途に応じたモデルの使い分けが極めてスムーズになります。Ollamaのような手軽な操作感を、軽量かつ高速なllama.cpp環境で実現できるため、AIエンジニアやリーダーにとって強力なツールとなるでしょう。

基板設計AIが3ヶ月の工程を1週間に短縮、一発起動に成功

劇的な生産性向上と精度

3ヶ月かかる設計を1週間に短縮
843部品の複雑な基板で一発起動
人手作業時間を約90%削減

物理法則に基づく独自学習

LLMではなく強化学習を採用
物理法則との対話で最適解を導出
人間の設計データに依存しない

iPod開発者も注目の革新

トニー・ファデル氏が出資・支援
ハードウェア開発のボトルネック解消

米ロサンゼルスのスタートアップQuilter AIが、AIを用いてLinuxコンピュータの基板設計をわずか1週間で完了させました。通常は熟練者が3ヶ月を要する工程を劇的に短縮し、製造初回の「一発起動」に成功しています。この画期的な成果を受け、iPodやiPhoneの開発を主導したトニー・ファデル氏も同社への出資と支援を公表しました。

同社のプロジェクトでは、843個の部品と5,000以上の接続を持つ複雑な基板を設計しました。プロのエンジニアが見積もった428時間という作業時間に対し、AI活用時の人手作業はわずか38.5時間で済みました。結果として修正なしでOSが起動し、Web閲覧も可能な高品質な設計を実現しています。

特筆すべきは、言語モデル(LLM)ではなく物理ベースの強化学習を採用している点です。人間の過去データを模倣するのではなく、AlphaZeroのように物理法則という「ルール」の中で何十億回もの試行錯誤を繰り返し、電磁気や熱の制約を満たす最適な配置と配線を自ら学習します。

プリント基板(PCB)設計は、長年ハードウェア開発の大きなボトルネックでした。半導体や製造技術が進化する中、基板上の配線作業は依然として手作業が主流であり、製品リリースの遅延原因となっていました。Quilterはこの工程を自動化することで、開発サイクルを一変させる可能性を秘めています。

このAIツールはエンジニアの仕事を奪うものではなく、人間が制御可能です。ユーザーは設計の各段階で介入でき、AIに任せる範囲を調整できます。ファデル氏はこれを、かつてのアセンブリ言語からコンパイラへの移行と同様に、設計の抽象度が上がる進化だと位置づけています。

現在の対応範囲は1万ピン・10GHz以下の設計に限られますが、多くの産業用・民生用機器をカバーします。価格は従来の人手による設計と同等に設定されていますが、速度は10倍です。これにより、ハードウェア開発の敷居が下がり、新たなイノベーションが加速することが期待されます。

Nvidia、位置確認可能な管理ソフト導入 密輸対策の観測も

任意導入の管理ツール

GPU稼働状況や位置情報を可視化
Blackwellチップから順次対応
利用は顧客の任意選択(オプトイン)
エージェントオープンソース化予定

密輸防止と効率化の両立

通信遅延で物理的な位置を推定か
公式はハードウェア追跡を否定
中国への不正輸出抑止に期待

Nvidiaは12月10日、データセンター向けの新たなGPUフリート管理ソフトウェアを発表しました。これはインフラの稼働効率を高めるための任意導入(オプトイン)ツールですが、通信遅延を用いてチップの物理的な位置を特定する機能が含まれると報じられています。背景には、米国の対中輸出規制を回避した半導体密輸への懸念があります。

このソフトウェアは、主にGPU電力消費や温度、エラー率などを監視し、インフラの最適化を支援するものです。一方でロイター通信等の報道によれば、サーバー間の通信応答時間を分析することで、申告された設置場所と実際の物理的な位置の整合性を検証できる技術が組み込まれていると見られます。

Nvidiaは公式ブログで「ハードウェアレベルでの追跡機能やバックドアは存在しない」と明言し、あくまで顧客自身による管理ツールであると説明しています。しかし、中国企業による密輸チップ使用の疑惑が浮上する中、この技術はメーカーと顧客双方にとってコンプライアンス遵守を証明する重要な手段となりそうです。

本ツールは最新のBlackwellチップ向けに先行して提供される見通しです。クライアントエージェントの一部はオープンソース化され、透明性が担保される予定です。AIインフラを運用する企業にとっては、生産性を高めつつ、地政学的な規制リスクにも自律的に対応する姿勢が求められる局面と言えるでしょう。

TPU外販でNvidiaの牙城崩す、GoogleのAIコスト革命

独占打破へ動くGoogleの新戦略

最新チップTPUv7Anthropic等へ直接販売
業界標準PyTorchへの完全対応で移行を促進
クラウド限定を解除し資産計上の選択肢を提供

経営を変える圧倒的な経済合理性

Nvidia製サーバー比でTCOを約44%削減可能
OpenAI価格交渉の切り札としてTPUを利用
汎用性はGPU優位も大規模学習ではTPUが圧倒

2025年12月、Googleは自社製AIチップTPUv7」の外部販売を本格化させ、Nvidiaによる市場独占に挑戦状を叩きつけました。Anthropic等の主要プレイヤーが採用を決め、AI開発のコスト構造と勢力図が劇的に変わり始めています。

最大の強みは圧倒的なコストパフォーマンスです。Googleの試算によると、TPUベースのサーバーはNvidiaの最新機種と比較して、総所有コスト(TCO)を約44%も削減可能です。この経済合理性が、収益性を重視する経営者の注目を集めています。

Googleは戦略を大きく転換しました。従来は自社クラウド経由での利用に限っていましたが、チップの直接販売や柔軟なリース契約を解禁しました。特にAnthropicとは100万個規模の供給契約を結び、OpenAIへの対抗軸を強固にしています。

普及の壁だった「CUDAの堀」を崩すため、業界標準フレームワークであるPyTorchへの対応も強化しました。これにより、エンジニアは既存のコード資産を活かしつつ、高価なGPUから高効率なTPUへとインフラを移行しやすくなります。

市場への影響は甚大です。実際にOpenAIは、競合であるTPUの存在を交渉材料とし、Nvidiaからの調達コストを約30%引き下げることに成功しました。TPUの台頭は、AIハードウェア市場に健全な価格競争をもたらしています。

一方で課題も残ります。GPUは汎用性が高く人材も豊富ですが、TPUは特定タスクに特化しており、扱えるエンジニアが希少です。今後は両者の特性を理解し、適材適所で組み合わせるハイブリッド構成がAIインフラの勝機となるでしょう。

Google、AIインフラ責任者をCEO直属に昇格 投資加速へ

CEO直属の新ポスト新設

Amin Vahdat氏がチーフテクノロジストに就任
ピチャイCEO直属としてAIインフラを統括
25年末までに最大930億ドルの設備投資を実施

競争力の源泉を担う実績

独自チップTPUや高速回線を主導
Googleインフラ技術を15年間牽引
重要人材の流出防止も狙いの一つ

Googleは、AIインフラストラクチャ担当のチーフテクノロジストという役職を新設し、長年データセンター技術を主導してきたアミン・ヴァーダット(Amin Vahdat)氏を昇格させました。この新ポストはサンダー・ピチャイCEOに直属し、激化するAI開発競争において、インフラ戦略が経営の最優先事項であることを示唆しています。

今回の人事は、Googleが2025年末までに最大930億ドル(約14兆円)という巨額の設備投資を見込む中で行われました。AIモデルのトレーニングや推論に必要な計算能力への需要は、過去8年間で1億倍に増加したとも言われており、Googleハードウェアとソフトウェアの両面でインフラの効率化と拡大を急いでいます。

ヴァーダット氏は、過去15年にわたりGoogleの技術的なバックボーンを構築してきた重要人物です。独自のAIチップであるTPU(Tensor Processing Unit)や、サーバー間を接続する超高速ネットワーク「Jupiter」、データセンター管理システム「Borg」など、Googleの競争優位性を支えるコア技術の開発を主導してきました。

AI分野におけるトップ人材の獲得競争が過熱する中、今回の昇格にはリテンション(引き留め)の側面も強いと考えられます。AIインフラの構築には高度な専門知識と経験が不可欠であり、長年Googleの技術基盤を支えてきたキーマンを経営幹部として処遇することで、組織の安定と技術革新の継続を図る狙いです。

AI接続の標準「MCP」、Linux財団へ移管

業界標準化への転換点

AnthropicMCPをLinux財団へ寄贈
米大手と新財団を設立し標準化を推進
AIが外部ツールと連携する標準プロトコル

AIの「USB-C」を目指す

OpenAIGoogle、MSも支持を表明
開発工数を削減しセキュリティを向上
ユーザーは設定不要で高度な連携が可能

Anthropicは今週、AIエージェント接続プロトコル「MCP」をLinux Foundationへ寄贈しました。同時にOpenAIGoogleMicrosoftなどと共同で「Agentic AI Foundation」を設立し、AIの相互運用性を高めるための業界標準化を加速させます。

MCP(Model Context Protocol)は、AIモデルが外部のデータやツールにアクセスするための共通規格です。ハードウェアにおけるUSB-Cのように、異なるシステム間を簡単かつ安全に接続する役割を果たし、AIエージェントの実用性を飛躍的に高める鍵となります。

これまでAnthropic主導だったMCPですが、中立的な団体への移管により普及が決定付けられました。競合であるOpenAIGoogleも早期から支持を表明しており、AI業界全体が「エージェント機能の標準化」に向けて、競争から協力へと足並みを揃えた形です。

開発者にとっては、個別のAPIごとに接続機能を開発する手間が省け、一度の対応で多くのAIモデルに対応可能になります。また、オープンソース化によりセキュリティの透明性が確保され、企業が安心して業務システムにAIエージェントを導入できる環境が整います。

ユーザーにとっては、SlackClaudeなどのツールがシームレスに連携することを意味します。AIが人間に代わって複雑なタスクを実行する際、裏側でMCP認証やデータ通信を担うことで、ユーザーは技術的な障壁を感じることなく高度なAI体験を享受できるようになります。

米新興Unconventional AI、シードで評価額45億ドル

異例の巨額シード調達

調達額4.75億ドル、評価額45億ドル
a16zとLightspeedが主導

「生物並み」の効率目指す

AI向け高効率コンピュータを開発
生物学のようなエネルギー効率追求

創業者は連続起業家

過去にDatabricksへ事業売却
Intelへも売却経験ある実力者

元DatabricksのAI責任者Naveen Rao氏が率いる新興企業Unconventional AIは2025年12月9日、シードラウンドにおいて4億7500万ドル(約710億円相当)の資金調達を完了したと発表しました。評価額はシード段階としては異例の45億ドル(約6750億円相当)に達しており、AIハードウェア分野への市場の期待値の高さが浮き彫りとなっています。

本ラウンドはAndreessen Horowitz (a16z) とLightspeed Venturesが主導し、Lux CapitalやDCVCも参画しました。今回の調達は、最大10億ドルを目指す資金調達計画の第一弾と位置付けられています。テック業界では以前からRao氏の新会社が50億ドル規模評価額を目指していると報じられており、今回の発表でその巨額構想が現実のものとなりました。

同社が目指すのは、AIに特化した新しいエネルギー効率の高いコンピュータの開発です。Rao氏は以前、「生物学と同じくらい効率的な」コンピュータを創るというビジョンを掲げていました。現在のAIモデル開発における膨大な電力消費課題を解決するため、根本的なハードウェアアーキテクチャの刷新を狙っていると見られます。

Rao氏は、これまでにAI関連スタートアップ2社を巨額で売却した実績を持つ「シリアルアントレプレナー」です。2016年にNervana SystemsをIntelへ4億ドル超で、2023年にはMosaicMLをDatabricksへ13億ドルで売却しました。この卓越した実績が、シードラウンドでの記録的な評価額投資家からの厚い信頼につながっています。

Pebble創業者、充電不要の音声メモ特化リング「Index 01」発表

「脳の外部メモリ」を指先に

ボタン長押しで音声メモを即座に記録
充電不要で約2年間稼働する使い切り設計
ヘルスケア機能を削ぎ落とした単機能
常時録音せずプライバシーを確保

AI連携とハッカビリティ

スマホ上のローカルAIで文字起こし
オープンソースで機能を拡張可能
プレオーダー価格は75ドル

スマートウォッチのパイオニア、Pebble創業者のエリック・ミジコフスキー氏が、新たなウェアラブル「Index 01」を発表しました。この指輪型デバイスは、フィットネス追跡や通知機能を一切持たず、「音声メモの記録」という一点のみに特化しています。価格は75ドル(約1万1000円)で、充電不要という大胆な仕様が特徴です。

最大の売りは、日々のふとしたアイデアやタスクを逃さず記録できる即時性です。人差し指に装着し、親指でボタンを押している間だけ録音が作動します。データはBluetooth経由でスマートフォンに転送され、アプリ内のローカルAIモデルによってテキスト化されるため、クラウドへの送信によるプライバシーリスクも回避できます。

既存のスマートリングとは異なり、Index 01は充電ポートを持ちません。内蔵バッテリーにより、1日10〜20回の短いメモであれば約2年間稼働します。「充電のために外す」という行為をなくすことで、常に身につける「脳の外部メモリ」としての役割を徹底させました。電池切れ後はメーカーへ返送し、リサイクルされます。

エンジニアやハッカー向けの拡張性も魅力です。ソフトウェアはオープンソース化されており、ボタン操作をカスタマイズして音楽再生やカメラのシャッター制御、さらには自作アプリとの連携も可能です。Notionやカレンダーアプリへの統合も視野に入れており、生産性を追求するユーザーに適しています。

ミジコフスキー氏は今回、VC資金に依存しない「収益性重視」の経営スタイルをとっています。新会社Core Devicesは少人数のチームで運営され、単一の課題を極めてうまく解決する製品作りに集中しています。Pebble時代とは異なる、持続可能なハードウェアビジネスの模索としても注目に値します。

iFixitが修理特化AI搭載アプリ公開、故障診断を自動化

AIによる高度な故障診断

画像認識で機種・問題を特定
熟練工のように対話で原因診断
12万件超の独自データを学習
解決策と部品購入へシームレス誘導

収益モデルと戦略的背景

バッテリー寿命の予測と管理
高度機能は月額サブスクへ移行
欧州法準拠で修理する権利を促進
過去のストア削除を経て再リリース

米修理情報サイトiFixitは12月9日、生成AIチャットボット「FixBot」を搭載した新モバイルアプリをiOSおよびAndroid向けにリリースしました。ユーザーはスマートフォンのカメラや音声入力を使って対象機器の故障箇所を診断させ、即座に修理手順や必要な部品の提案を受けることが可能になります。

核となる「FixBot」は、同社が長年蓄積してきた12万件以上の修理ガイドやマニュアルを学習しています。例えば故障した家電の写真を撮るだけで、AIがモデルを特定し、熟練技術者のように対話形式で問題の切り分けを行います。単なる検索ではなく、的確な解決策と部品購入への動線が設計されており、DIY修理のハードルを大幅に下げています。

アプリには高度なバッテリー診断機能も実装されました。現在の劣化状態を示すだけでなく、充放電サイクルデータに基づき将来の寿命を予測し、計画的な交換を促します。CEOのカイル・ウィーンズ氏は、これを車のオイル交換のように定期的なメンテナンスとして定着させたい意向を示しており、ハードウェア管理の新しい形を提案しています。

将来的には音声操作や独自ドキュメントの読み込み機能などを月額4.99ドルのサブスクリプションとして提供する計画です。かつてAppleによりアプリを削除された経緯を持つ同社ですが、欧州の消費者法などを背景に「修理する権利」を支援する不可欠なプラットフォームとして、再びモバイルエコシステムへの浸透を図ります。

Google2025年総括、Pixel10や量子技術でAI加速

ハードとAIの融合

Pixel 10のカメラ機能刷新
量子コンピューティングの解説
マップへのGemini統合

生産性向上の鍵

AI搭載Chrome拡張機能
ブラウザ体験の飛躍的向上
2025年の主要ローンチ総括

Googleは2025年12月9日、技術的進歩を振り返る年次総括を公開しました。AIモデルGeminiの実装拡大や、最新端末Pixel 10の登場など、AIとハードウェアの融合が進んだ一年を象徴する内容となっています。

注目分野として、GoogleマップにおけるGeminiの活用法や、量子コンピューティングの基礎概念が挙げられています。特にPixel 10ではカメラ機能にAIが深く組み込まれ、ユーザー体験を刷新する重要なマイルストーンとなりました。

また、生産性を高めるためのChrome拡張機能もAIで強化されています。ブラウザ上での作業効率を劇的に改善するツール群が2025年のハイライトとして紹介されており、ビジネス活用の視点でも実りのある一年でした。

AI特需でメモリ価格高騰、コンシューマー市場を直撃

AIシフトで再編される供給網

大手3社がAI向け供給を最優先
Micronが消費者向けCrucialを終了
Samsungのメモリ利益は家電の2倍

深刻化する調達難と価格高騰

Raspberry Pi等が製品値上げを発表
PC用RAM価格が500%高騰との報告
小売店ではメモリ価格が時価扱いに

世界的なAI開発競争の激化により、DRAMを中心とするメモリ市場で深刻な供給不足と価格高騰が発生しています。2025年12月現在、SamsungやMicronといった主要メーカーが、巨額の利益を生むAIデータセンター向け出荷を最優先し、消費者向け市場への供給を絞り始めたことが主因です。

メモリメーカー各社は、AI特需を取り込むために事業構造の大胆な転換を図っています。Micronは長年親しまれた消費者向けブランド「Crucial」の終了を決定し、リソースをAI向けに集中させると発表しました。実際、Samsungの直近の決算では、メモリ部門の利益がテレビ・家電部門の約2倍に達しており、企業戦略としてのAIシフトは不可避な状況です。

この供給網の変化は、PCやIoT機器の価格上昇として顕在化しています。Raspberry Piはメモリコスト増を理由に、主力モデルを最大25ドル値上げしました。また、BTOパソコンメーカーのCyberPowerPCは、メモリ調達コストが一時500%も上昇したとし、システム全体の値上げを余儀なくされています。

市場の混乱は小売現場にも波及しており、サンフランシスコの一部のPCパーツショップでは、価格変動が激しすぎるためにRAMを「時価」で販売する異常事態となっています。AIインフラへの投資熱が沈静化するまで、ハードウェア調達コストの高止まりと調達難は続くと予測されます。

OpenAI、商標訴訟でSora機能名を変更へ

商標訴訟で機能名を変更

Soraの新機能が商標権侵害で提訴される
既存アプリ「Cameo」との混同が懸念点
地裁の命令に従い名称を「characters」へ変更

繰り返されるネーミング問題

ハードウェア「io」も類似社名で使用禁止
OpenAIは「一般的単語の独占は不当」と反論
CEOはブランド毀損と検索順位への影響を懸念
生成AI特有の模倣体質が命名にも波及か

OpenAIは12月、動画生成AI「Sora」の機能名「cameo」を、商標権侵害訴訟を受けて変更しました。米連邦地裁の差し止め命令に応じ、既存アプリとの混同を避けるため、当該機能を「characters」という名称に差し替えています。

提訴した「Cameo」は、著名人の動画メッセージを購入できる人気サービスです。同社CEOは、OpenAIが商標を知りつつ名称を使用したと批判し、自社ブランドが「AI生成の模造品」と混同されるリスクや、検索順位への悪影響を強く懸念しています。

OpenAIの命名トラブルは今回に限られません。開発中の機器名称「io」についても、類似名の企業から訴えられ使用禁止命令を受けました。AI技術と同様に製品名でも独自性の欠如が指摘されており、急成長企業の知財リスク管理として注目されています。

Google、Android XR拡大 Galaxy新機能とXreal製グラス公開

Galaxy XRの機能拡張

Galaxy XRがWindows PCと連携、作業空間を拡張
移動中も画面が安定するトラベルモードを搭載
表情をリアルに再現するLikenessで自然な対話

軽量グラス「Project Aura」

Xrealと協業、軽量な有線XRグラスProject Aura
70度の視野角を持ち、現実とデジタル情報を融合
サングラスのような形状でAndroidアプリが動作

エコシステムの開放戦略

既存アプリが修正なしで動作、開発コストを抑制
AIグラスはiPhoneにも対応、囲い込みを打破

Googleは8日、Android XRの大型アップデートと新デバイス計画を発表しました。Samsung製ヘッドセット「Galaxy XR」の機能強化に加え、Xrealと共同開発した軽量グラス「Project Aura」を初公開。AppleMetaが先行するXR市場に対し、オープンなエコシステムで攻勢を強めます。

Galaxy XR向けには、生産性を高める新機能が追加されました。Windows PCと接続して仮想空間に画面を表示する「PC Connect」や、飛行機内でも安定した映像を楽しめる「トラベルモード」が登場。自身のリアルな表情をアバター化する「Likeness」により、ビデオ会議の質も向上します。

注目は、Xrealと提携した有線XRグラス「Project Aura」です。従来のヘッドセットとは異なり、サングラスのような軽量な形状を実現。スマホ等と有線接続し、70度の視野角で現実世界にデジタル情報を重ねて表示できます。2026年の発売を目指し、日常使いできるXRデバイスとして期待されます。

Android XRの最大の強みは、既存のAndroidアプリ資産を活用できる点です。UberやYouTube Musicなどのアプリが、開発者の追加作業なしでXRデバイス上で動作します。これにより、競合他社が苦戦するアプリ不足の問題を解消し、ユーザーにとっての実用性を即座に提供します。

さらにGoogleは、AIグラスにおけるiOS対応も明言しました。iPhoneユーザーでもGemini機能をフルに利用可能にする方針で、OSの壁を超えた普及を狙います。特定のハードウェアに縛られない柔軟な戦略は、ウェアラブル市場におけるGoogleの優位性を高める一手となるでしょう。

倉庫の重労働をAIロボで解放、MIT発「Pickle」の挑戦

生成AI搭載の自律ロボ

MIT発、生成AI機械学習を実装
最大50ポンドの荷物を自律的に荷下ろし
導入初日から稼働、学習し性能が向上

現場課題からピボット

倉庫の高離職率に着目し事業転換
既存アーム活用で開発コストを抑制
UPSやリョービなど大手企業が導入

2025年12月、MIT発のスタートアップ「Pickle Robot Company」が物流業界の注目を集めています。同社は生成AIと機械学習を駆使した自律型ロボットにより、物流倉庫における過酷な荷下ろし作業を自動化しました。UPSやRyobi Toolsなどの大手企業で導入が進み、深刻な人手不足と高い離職率という業界の構造的課題の解決に貢献しています。

同社の技術的な強みは、高度なソフトウェアと既存ハードウェアの賢明な融合にあります。独KUKA社製の産業用アームに独自のセンサーやAIを搭載し、最大50ポンド(約23kg)の荷物を処理します。生成AIモデルのファインチューニングにより、多様な環境に即応しつつ、稼働しながら性能を高める仕組みを構築しました。

創業者のAJ Meyer氏らは当初、仕分けロボットを開発していましたが、資金難に直面し方針転換を余儀なくされました。現場観察で「90日以内に全員が辞める」という過酷な荷下ろし現場の実態を知り、事業をピボットします。YouTubeに投稿した概念実証動画が大きな反響を呼び、投資家と顧客を呼び戻して再起を果たしました。

今後は荷下ろしに加え、積み込み作業や他社製ロボットとの連携プラットフォーム開発も視野に入れています。鉱山から玄関先まで、サプライチェーン全体の自動化を指揮する「ネットワークの構築」を目指し、同社は事業拡大を加速させています。

Meta、AIデバイスのLimitlessを買収しウェアラブル加速

製品・サービスの変更点

MetaがAI企業Limitless買収
AIペンダントのハードウェア販売を終了
既存顧客のサポートは1年間のみ継続
サブスク料金を廃止し無制限プラン
記録ソフト「Rewind」等は機能縮小

買収の狙いと市場背景

チームはReality Labsへ合流
AIウェアラブル開発の加速が狙い
大手参入による市場競争激化が背景

Metaは12月5日、AIデバイス開発のLimitlessを買収しました。会話記録用AIペンダントの販売は即時終了となります。既存顧客に対しては、サブスクリプション料金を撤廃した上で、1年間のサポート継続のみが約束されました。

LimitlessのチームはMetaReality Labsに合流します。Metaスマートグラスなどの開発に注力しており、今回の買収技術人材の獲得が主眼です。Limitless独自のペンダント製品が、Metaブランドで存続する可能性は低いでしょう。

決断の背景にはハードウェア市場の競争激化があります。創業者は、OpenAIなどの巨大企業がデバイス開発へ参入する現状を指摘しました。単独での成長が困難になる中、Metaのビジョンに協力することでAIウェアラブルの普及を目指します。

同社はかつてPC操作記録ソフト「Rewind」で注目され、3300万ドル以上を調達していました。今後はこれらのソフト機能も縮小されます。ユーザーデータはエクスポート可能となっており、サービス終了に向けた移行措置が案内されています。

Claudeが自律的にLLM学習実行、HF新機能公開

指示だけで学習工程を完結

自然言語でファインチューニングを指示
最適なGPU選定とコスト試算を自動化
データセット検証からデプロイまで代行

実用的な学習手法を網羅

SFT・DPO・GRPOなど主要手法に対応
ローカル利用向けのGGUF形式への変換
学習進捗をリアルタイム監視可能

Hugging Faceは2025年12月4日、AIエージェントClaude」などがLLMのファインチューニングを自律的に実行できる新機能「Skills」を発表しました。エンジニアはチャットで指示するだけで、複雑な学習プロセスを完結できます。

本機能はスクリプト作成に留まらず、クラウド上のGPU確保からジョブ送信、進捗監視、モデルのアップロードまでを自動化します。データセットの形式チェックや、モデル規模に応じた最適なハードウェア選定もAIが代行し、失敗リスクを低減します。

対応手法は、一般的な「SFT(教師あり微調整)」に加え、人間の好みを反映する「DPO」、数学やコード生成に有効な「GRPO」など多岐にわたります。実運用レベルの高度なモデル開発が、対話インターフェースを通じて手軽に実行可能になります。

利用にはHugging FaceのPro以上のプランが必要です。開発者インフラ管理の時間を節約でき、AIモデルのカスタマイズやローカル環境向けの軽量化(GGUF変換)を、低コストかつ迅速に試行錯誤できるようになり、生産性が大幅に向上します。

スマホNPU進化も恩恵不明確、主要AIはクラウド依存

性能向上と用途の乖離

NPU性能は数ヶ月で4割向上
具体的な実用メリットの説明不足
メーカーによるスペック競争が先行

オンデバイスAIの現在地

理想はセキュリティな個人AI
現実はクラウド処理が主流
ハード進化に見合うアプリ不在

スマートフォンに搭載されるNPUの性能が飛躍的に向上しているにもかかわらず、ユーザーが享受するAI体験の質は変わっていないと米Ars Technicaが報じました。チップメーカーが誇るハードウェアの進化と、実際のアプリ利用におけるクラウド依存の現状に大きな乖離が生じています。

NPUは数ヶ月ごとに30〜40%の高速化を実現していますが、その処理能力を活かす具体的な用途は提示されていません。消費者は「なぜAI用のハードウェアが必要なのか」という疑問に対する明確な答えを得られず、メーカーによるスペック競争の恩恵を実感できていないのが実情です。

専門家は、プライバシー保護に優れたオンデバイスAIの普及を期待していますが、主要な生成AIツールは依然としてデータセンター上の巨大サーバーで稼働しています。スマホ単体で完結する高度なAI処理が実現しない限り、手元の高性能チップは有効活用されません。

NVIDIA新基盤、最先端AIの推論速度と収益性を10倍へ

最先端AIの標準「MoE」

脳のように専門領域を分担し効率化
トップモデルの60%以上が採用

拡張を阻む「壁」を突破

従来のGPU連携では通信遅延が課題
72基のGPUを単一巨大化し解決

10倍の性能が拓く未来

電力対性能とトークン収益が10倍に
エージェント型AIの基盤としても最適

NVIDIAは3日、同社の最新システム「Blackwell NVL72」が、現在主流のAIアーキテクチャ「MoE(Mixture of Experts)」の推論性能を前世代比で10倍に高めると発表しました。DeepSeekやMistralなどの最先端モデルにおいて、劇的な処理速度と電力効率の向上を実現し、AI運用の経済性を根本から変革します。

なぜ今、MoEが重要なのでしょうか。人間の脳の仕組みを模したこの技術は、タスクに応じて特定の「専門家(エキスパート)」パラメータのみを稼働させます。計算リソースを抑えつつ高度な知能を実現できるため、オープンソースのトップモデルの多くが採用していますが、その複雑さゆえに、従来のハードウェアでは大規模な展開が困難でした。

この課題に対し、NVIDIAは「Extreme Codesign」で応えました。NVL72システムは、最大72基のGPUを高速なNVLinkで結合し、あたかも「一つの巨大なGPU」として動作させます。これにより、メモリ帯域と通信遅延のボトルネックを解消し、大規模なMoEモデルを効率的に分散処理することが可能になりました。

その効果は絶大です。Kimi K2 ThinkingやMistral Large 3といったモデルでは、前世代のH200と比較して10倍のパフォーマンスを記録しました。これは単なる速度向上にとどまらず、電力あたりの生成能力、ひいてはトークン収益の10倍増を意味し、データセンターの収益構造を劇的に改善します。

さらに、このアーキテクチャは次世代の「エージェント型AI」にも最適です。複数の特化型AIが協調して動く未来のシステムは、本質的にMoEと同じ構造を持つからです。経営者エンジニアにとって、この新基盤への移行は、AIの生産性と市場競争力を高めるための必須条件となるでしょう。

Meta、AppleのUIトップ引き抜き AIデバイス強化へ

Apple重鎮がMetaへ電撃移籍

UI統括のアラン・ダイ氏が退社
MetaのCTO直属でAI機能を担当
スマートグラス等のUX改善が使命

加熱するAI人材争奪戦

Meta競合他社からの採用を加速
OpenAIからも研究者を引き抜き
Apple後任はベテランルメイ氏

MetaAppleで長年ユーザーインターフェース(UI)チームを率いてきたアラン・ダイ氏を引き抜きました。ダイ氏はMetaのCTOであるアンドリュー・ボスワース氏の直属となり、スマートグラスやVRヘッドセットにおけるAI機能の改善に注力します。

この移籍は、消費者向けデバイスへの投資を加速させるMetaにとって大きな意味を持ちます。特にAIとハードウェアの融合領域において、Appleで培われたダイ氏のデザイン哲学を取り込み、製品の競争力を高める狙いがあるのです。

AI覇権争いにおける人材獲得競争は激化の一途をたどっています。Metaは今夏にもOpenAIから研究者を引き抜くなど、競合他社からの人材確保を積極化。ザッカーバーグCEO自らが勧誘に動くほど、優秀な人材への執着を見せています。

一方のAppleでは、1999年から主要なインターフェース設計に関わってきたスティーブ・ルメイ氏が後任に就きます。ティム・クックCEOもその実績を認めるベテランを配置し、UIデザイン部門の揺るぎない継続性をアピールしています。

Google教育AIが示す生産性革命 週10時間削減の実践知

教育現場でのAI実装加速

米大学1000校導入、1000万人へ展開
北アイルランド教員週10時間を節約
週末の作業時間を20分に短縮

理解と創造を加速するツール

NotebookLM音声概要を即座に生成
Gemini試験対策や面接練習を支援
インドマップで情報の接続を可視化

全員参加型のスキル向上

100万人以上がAIトレーニングを受講
10万人がGemini認定を取得
ゲーム形式で学ぶAI開発プロセス

2025年、Googleの教育部門はAIの実用化を決定づけました。世界中の機関でGeminiが導入され、現場の生産性が劇的に向上しています。教育分野で実証された「AIによる業務効率化」の波は、あらゆるビジネスリーダーにとって注視すべき変革のモデルケースです。

特筆すべきは、その圧倒的な時間短縮効果です。北アイルランドの教育現場では、AIツールの活用により週10時間もの業務時間削減を実現しました。メキシコでは、従来週末を潰していたタスクがわずか20分で完了するなど、生産性革命が現実のものとなっています。

中核を担うのがGeminiNotebookLMです。単なる回答生成に留まらず、複雑な資料からの音声概要作成や、概念を整理するマインドマップ生成など、情報のインプットと整理を高度に支援します。これはビジネスにおけるリサーチや資料作成にも直結する機能です。

ハードウェア面でも進化が止まりません。AI機能を内蔵したChromebook Plusは、画面上の情報を即座にテキスト化する機能などを搭載し、デバイスレベルでの作業効率を底上げします。既存機器をChromeOS化するChromebox OPSなど、資産の有効活用も進んでいます。

組織的なAI活用にはリテラシー教育が不可欠です。Googleは100万人以上にトレーニングを提供し、既に10万人が認定資格を取得しました。ツールを導入するだけでなく、使いこなすための人材育成こそが、競争力を分ける鍵となります。

教育現場での成功事例は、AIがもはや実験段階ではなく、実務に不可欠なインフラとなったことを証明しています。リーダーはこれらのツールを自組織にどう適用し、人的資本の価値を最大化するかを問われています。今こそ、実践的なAI導入に踏み切るときです。

脱クラウドの覇者:Home Assistantが示すOSSの未来

ローカルファーストの衝撃

AIインフラ並みの成長を記録
200万世帯で稼働する家のOS
クラウド依存を排した完全ローカル処理

持続可能なエコシステム

開発者が即ユーザーとなる高品質な開発
買収を防ぎ永続性を守る財団による運営
実用性を重視したハイブリッドAI活用

AIインフラと並び、GitHubで最も急成長しているOSSの一つが「Home Assistant」です。これは200万世帯以上で稼働するホームオートメーション基盤であり、クラウドに依存せず全ての処理を端末内で行う「ローカルファースト」を貫いています。開発者自身が自宅でテストを行う独自のコミュニティモデルにより、品質と開発速度を両立。巨大テック企業のクラウド戦略に対する、技術的な対案として注目を集めています。

最大の特徴は、インターネット接続を必須としない完全なローカル処理です。クラウド依存モデルでは、サービス終了や仕様変更により自宅の機器が「電子ゴミ」化するリスクがあります。Home Assistantは、プライバシー保護と永続性を担保するため、すべてのデータをユーザーの手元にあるハードウェアに置く設計を採用しました。

AIブームの中で、同プロジェクトは冷静なアプローチをとっています。音声操作機能「Assist」では、まずルールベースの処理で確実かつ高速な応答を実現。生成AIはあくまで「オプション」として位置づけ、自然言語の解釈が必要な場合のみ利用するハイブリッドな構成で、実用性とレスポンス速度を最大化しています。

2万1000人を超えるコントリビューターの熱量は、「自分事」としての開発に由来します。開発者が自分の生活を改善するためにコードを書き、自宅という本番環境でテストを行うため、バグ修正や機能改善の動機が極めて強力です。これが商用製品をも凌駕する開発スピードと、エッジケースへの対応力を生む源泉となっています。

プロジェクトは「Open Home Foundation」により管理され、企業の買収から保護されています。ハードウェアも含めたオープンなエコシステムを構築することで、特定のベンダーに縛られない「プログラム可能な家」を実現。ユーザーに主導権を取り戻すこの動きは、次世代の分散型システムのモデルケースといえます。

NVIDIAとAWSがインフラ統合、AIチップ連携を強化

次世代チップとインフラの融合

AWS次世代チップTrainium4にNVLinkを統合
Blackwell搭載GPUAWSで提供拡大
両社技術の融合で計算性能と開発速度を最大化
AI産業革命に向けた計算ファブリックを共同構築

ソフトウェア高速化とデータ主権

Amazon BedrockでNemotronモデル利用可能
OpenSearch検索GPUで最大10倍高速化
データ主権を守るAWS AI Factories発表
ロボティクス向けCosmosモデルをAWSで提供

NVIDIAAmazon Web Services(AWS)は2025年12月2日、ラスベガスで開催中の「AWS re:Invent」において、戦略的パートナーシップの大幅な拡大を発表しました。この提携により、AWSの次世代AIチップ「Trainium4」とNVIDIAのインターコネクト技術「NVLink Fusion」が統合され、クラウドインフラの性能が飛躍的に向上します。両社はハードウェアだけでなく、ソフトウェアやロボティクス分野でも連携を深め、企業のAI導入を強力に支援します。

最大の目玉は、NVIDIAのスケールアップ技術とAWSのカスタムシリコンの融合です。AWSは「NVLink Fusion」を採用し、自社の推論・学習用チップ「Trainium4」やCPUと組み合わせます。これにより、大規模AIモデルの学習や推論のボトルネックを解消し、市場投入を加速します。NVIDIAのジェンスン・フアンCEOは、この動きを「AI産業革命のための計算ファブリックの創造」と位置づけています。

データセキュリティと規制順守を重視する企業向けに、「AWS AI Factories」も発表されました。これは、NVIDIAの最新GPU「Blackwell」アーキテクチャを搭載したインフラを、顧客自身のデータセンター内に配備し、AWSが運用管理を行うサービスです。これにより、企業は機密データの主権(ソブリンAI)を維持しながら、世界最高峰のAI計算能力を活用することが可能になります。

開発者生産性を高めるソフトウェア統合も進みます。NVIDIAのオープンモデル「Nemotron」が「Amazon Bedrock」に統合され、即座に利用可能になりました。「Amazon OpenSearch Service」ではGPU活用のベクトル検索が導入され、最大10倍の高速化を実現しています。さらに、ロボティクス開発を支援する物理AIモデル「NVIDIA Cosmos」もAWS上で利用可能となりました。

NVIDIA、思考する自動運転AIと物理AI開発基盤を公開

自動運転を変える「思考するAI」

世界初の自動運転向け推論VLAモデル
思考の連鎖人間並みの判断を実現
研究用にGitHub等でオープン提供

物理AI開発を加速するツール群

開発全工程を網羅したCosmos Cookbook
ロボット動作生成やデータ修復に対応
音声AIや安全性モデルも拡充

2025年12月、米NVIDIAはAIカンファレンス「NeurIPS」において、自動運転および物理AI(Physical AI)向けのオープンソースモデル群を発表しました。特に注目されるのは、推論能力を持つ自動運転用VLAモデル「Alpamayo-R1」と、物理AI開発ガイド「Cosmos Cookbook」です。同社はこれらの技術を開放することで、ロボティクスや自動運転分野におけるイノベーションの加速を狙います。

NVIDIA DRIVE Alpamayo-R1」は、視覚情報の処理と言語による推論を統合し、行動決定を行う世界初のモデルです。最大の特徴は「思考の連鎖(Chain-of-thought)」を組み込んだ点にあり、歩行者の多い交差点や不規則な交通状況でも、人間のような常識に基づいた判断を下せます。これにより、完全自動運転(レベル4)の実現に向けた安全性が飛躍的に向上します。

物理AIの実装を支援するため、データ生成からモデル評価までの手順を示した「Cosmos Cookbook」も提供されます。開発者はLiDARデータの生成やロボットの動作ポリシー策定など、複雑なタスクに対応した「Cosmos」モデル群を容易に活用できるようになります。ジェンスン・フアンCEOが提唱する「AIの次の波は物理AI」というビジョンを具現化する動きです。

デジタルAI領域でも、複数話者の聞き分けが可能な音声モデルや、AIの安全性を担保するデータセット、推論速度と精度を両立する軽量モデルなどが公開されました。NVIDIAは70本以上の論文を発表しており、ハードウェアだけでなく、次世代AI開発に不可欠なソフトウェア基盤においても、圧倒的な存在感を示しています。

Nvidia、Synopsysへ20億ドル投資で半導体設計基盤を強化

投資の全容と技術的狙い

Synopsysへ20億ドルの戦略投資
設計基盤をCPUからGPUへ移行
AIハードウェアとの統合を加速

市場環境と戦略的意義

設計ツールへの支配力を強化
輸出規制に苦しむSynopsysを支援
大口売却続く中での強気の投資

Nvidia半導体設計ソフトウェア大手Synopsysに対し、20億ドルの巨額投資を実行しました。目的はSynopsysの設計ツールにNvidiaのAI技術を深く統合し、従来のCPUベースからGPUベースへの移行を加速させることです。

これにより、複雑化するチップ設計のワークフローが劇的に高速化される見込みです。Synopsysにとっては、米国の輸出規制や主要顧客のトラブルで低迷していた業績への懸念を払拭し、長期的な成長を印象づける好材料となりました。

Nvidiaにとっても、激化する半導体開発競争において、不可欠な設計ツールへの影響力を強める重要な一手です。ソフトバンクなどがNvidia株を売却し、AIバブルへの警戒感が一部で囁かれる中、エコシステム支配に向けた攻めの姿勢を崩していません。

Liquid AI、エッジAI開発の「設計図」を全公開

企業向け小規模モデルの革新

51ページの技術レポートを公開
独自のLFM2アーキテクチャ詳解
CPU環境での推論効率を最大化
競合を凌ぐ処理速度と品質

実践的なハイブリッド戦略

自社データでのオンプレミス運用
画像音声対応のマルチモーダル
クラウド不要のローカル処理実現
エッジとクラウド協調動作

MIT発のスタートアップLiquid AIは2025年12月1日、最新AIモデル「LFM2」の技術レポートを公開しました。これは単なるモデル提供にとどまらず、企業が独自のハードウェア制約に合わせて高性能な小規模モデルを構築するための「設計図」を提供するものです。巨大なGPUクラスターを前提としないこのアプローチは、コストやプライバシーを重視する企業のAI戦略に、オンデバイスでの実用化という新たな選択肢をもたらします。

LFM2の最大の特徴は、一般的なCPUやモバイルSoC上での動作に最適化されている点です。独自開発されたハイブリッドアーキテクチャにより、同規模の競合モデルであるLlama 3.2やGemma 3と比較して、推論速度と品質の両面で高いパフォーマンスを発揮します。これにより、スマートフォンやノートPC、産業機器など、通信環境や電力に制約のあるエッジ環境でも、遅延の少ない高度なAI処理が可能になります。

今回公開された51ページのレポートでは、アーキテクチャ探索プロセスやトレーニングデータの混合比率、知識蒸留の手法など、モデル開発の詳細なレシピが明かされました。企業はこの情報を参照することで、ブラックボックス化した外部APIに依存することなく、自社のデータセンターデバイス上で完結するAIシステムを構築・運用できるようになります。これは、セキュリティ要件の厳しい産業分野において大きなアドバンテージです。

さらにLFM2は、テキストだけでなく画像音声にも対応するマルチモーダル機能を、トークン効率を極限まで高めた形で実装しています。現場でのドキュメント理解や音声操作といったタスクを、データを外部に送信することなくローカルで完結させることが現実的になります。Liquid AIの提示するこのモデルは、エッジとクラウドが適材適所で連携する「ハイブリッドAI」時代の標準的な構成要素となるでしょう。

NVIDIA、クラウド基盤をBlackwellへ全面刷新

全サーバーでBlackwell稼働

RTX 5080級の性能を提供
最新のDLSS 4技術に対応
5K解像度と120fpsを実現

ブラックフライデーセール開催

Ultimateプラン3ヶ月半額
日本米国・メキシコで実施
11月30日までの期間限定

コンテンツ拡充と特典

Battlefield 6等の最新作
7タイトルを新規追加

NVIDIAは27日、クラウドゲーミングサービス「GeForce NOW」において、全サーバーのBlackwellアーキテクチャへの移行が完了したと発表しました。これにより、クラウド上でRTX 5080クラスの性能が利用可能となります。あわせて日本を含む対象地域で、上位プランの期間限定セールを開始しました。

今回の刷新により、ストックホルムを含む全リージョンで最新基盤が稼働します。ユーザーはDLSS 4技術の恩恵を受け、最大5K・120fpsの超高精細かつ滑らかな映像体験を享受できます。ハードウェアへの巨額投資なしに、物理的なハイエンドPCに匹敵する低遅延環境を手に入れられる点は、コスト効率を重視するビジネス層にも示唆的です。

記念キャンペーンとして、11月30日までの期間、最上位の「Ultimateメンバーシップ」の最初の3ヶ月分が50%オフで提供されます。対象国は米国、メキシコ、そして日本です。最新のクラウド技術が生み出す生産性とエンターテインメントの融合を、低コストで検証できる絶好の機会と言えます。

コンテンツ面では『Battlefield 6』や『Borderlands 4』などのAAAタイトルがRTX 50シリーズの性能で動作します。今週は『Project Motor Racing』など7作品がライブラリに追加されたほか、Ultimate会員向けに限定のゲーム内特典も用意されており、プラットフォームのエコシステム強化が続いています。

Vision Pro M5:Mac連携は最高も<span class='highlight'>決定打</span>には至らず

ハードウェアの小幅な進化

M5チップ処理能力と効率が向上
新バンドにより装着時の快適性が改善
バッテリー寿命と視野角がわずかに拡大

Mac仮想画面が最大の価値

ウルトラワイド対応の仮想ディスプレイ
物理モニターを代替する作業環境を実現
主要アプリのネイティブ対応は停滞

岐路に立つプラットフォーム

高コストな「EyeSight」は不要論
汎用機から特化型への転換が必要
スマートグラス開発へ軸足を移す観測

2025年11月、AppleはVision Proのハードウェア刷新を行い、M5チップを搭載した新モデルを投入しました。処理速度や装着感の改善は見られるものの、発売から約2年が経過してもなお、コンテンツとアプリのエコシステム不足という根本的な課題は解消されていません。本稿では、最新モデルのレビューを通じ、空間コンピューティングの現在地とAppleが直面する戦略的岐路について解説します。

ハードウェア面では、M5チップの搭載によりグラフィックス処理や機械学習タスクが高速化し、バッテリー寿命も映画1本を余裕で見られる水準まで向上しました。また、新しい「デュアルニットバンド」は重量バランスを最適化し、長時間の使用における快適性を大幅に改善しています。しかし、これらは既存のM2モデル所有者に買い替えを促すほどの劇的な変化ではなく、あくまでマイナーチェンジの域を出ていません。

現状における最大のキラーアプリは、皮肉にもMacとの連携機能です。visionOSのアップデートにより、Macの画面をウルトラワイドの巨大な仮想ディスプレイとして表示可能になり、リフレッシュレートも最大120Hzに対応しました。物理モニターを凌駕する作業環境をどこへでも持ち運べる点は、エンジニアクリエイターにとって代替不可能な価値を提供していますが、それ以外のネイティブアプリ開発は停滞しており、NetflixやYouTubeの公式アプリも依然として不在です。

Appleは今、Vision Proの在り方を再定義すべき局面にあります。ユーザーの目はデジタルアバター「Persona」の改善を評価する一方で、外側のディスプレイ「EyeSight」には冷ややかであり、コストと重量を増やすだけの不要な機能と見なされています。噂されるスマートグラスへのリソースシフトが進む中、Vision Proが生き残るためには、汎用デバイスとしての野望を捨て、Mac連携や没入型ビデオといった強みに特化した、より軽量で安価なデバイスへと進化する必要があるでしょう。

Google、第7世代TPU「Ironwood」提供開始 推論性能4倍へ

AI推論に特化した第7世代

前世代比で性能が4倍以上向上
業界最高水準のエネルギー効率

大規模な相互接続とメモリ

最大9,216チップを接続可能
1.77PBの共有メモリ

AIが設計するハードウェア

AlphaChipによる設計最適化
研究部門と連携し開発加速

Googleは25日、第7世代TPU「Ironwood」をクラウド顧客向けに提供開始しました。AIの推論処理に特化し、前世代と比較してチップあたりの性能を4倍以上に高め、最もエネルギー効率に優れたチップとなっています。

AI開発の主戦場が学習から活用へと移る中、Ironwoodは大量のデータを低遅延で処理するよう設計されました。これにより、複雑なモデルも高速かつスムーズに動作し、企業の生産性向上に大きく寄与します。

特筆すべきは圧倒的な拡張性です。最大9,216個のチップを高速ネットワークで相互接続し、1.77ペタバイトもの共有メモリを利用可能にすることで、大規模モデルにおけるデータ転送のボトルネックを解消しました。

設計にはGoogle DeepMindが協力し、AIを用いてチップ配置を最適化する「AlphaChip」を活用しています。AI自身が次世代のハードウェアを進化させる好循環を生み出し、競合他社との差別化を図っています。

米でメモリが「時価」販売へ。AI需要で価格高騰

価格3倍超の異常事態

米店舗でメモリが時価販売へ移行
3ヶ月で価格が3倍超に急騰する例も
64GBキットは900ドルに達する勢い

AI特需が招く供給難

生産能力がデータセンター優先にシフト
GPUゲーム機も値上げの可能性
市場正常化には数年かかるとの予測

AIブームの影で、PCメモリ(RAM)の価格が記録的な高騰を見せています。米国のPCパーツショップでは日々の価格変動があまりに激しく、まるで高級海鮮料理のように「時価」で販売される異常事態が発生。背景にはデータセンターにおける爆発的なAI需要があります。

実際の価格上昇は劇的かつ急速です。ある32GBメモリキットは、わずか3ヶ月で130ドルから440ドルへと3倍以上に跳ね上がりました。米主要小売店の一部は、仕入れ値の乱高下に対応するため、店頭での固定価格表示を取りやめ、購入時の確認を求めています。

根本的な原因は、限られた生産リソースの奪い合いにあります。Epic GamesのCEOは、半導体工場が最先端DRAMの生産能力を、高値で取引されるデータセンター向けに優先して振り向けていると指摘。消費者向け製品よりも、収益性の高いAIインフラが優遇される構造です。

この供給不足はPCパーツ全体に波及し始めています。大量のVRAMを要するGPUや、次世代ゲーム機、スマートフォンの価格設定にも上昇圧力がかかっています。AI普及の代償としてハードウェア調達コストの高止まりは数年続く可能性があり、戦略的な対応が必要です。

音声AIが描く子供の想像力、安全設計のステッカー玩具

AI×玩具の新たな顧客体験

音声指示でAI画像を即座に生成
インク不要の感熱式ステッカー印刷
デジタルとアナログな塗り絵の融合

安全性とビジネスモデル

有害情報を防ぐ独自フィルタ搭載
本体約100ドル、紙代で継続収益
著名VCから700万ドル調達済み

アメリカのスタートアップHapikoは、子供向けAIステッカープリンター「Stickerbox」を発売しました。このデバイスは、子供が音声でアイデアを伝えるとAIが画像を生成し、即座にステッカーとして印刷する革新的な玩具です。価格は99.99ドルで、安全なAI体験を提供します。

最大の特徴は、画面の中だけでなく物理的な成果物が手に入る点です。音声コマンドという抽象的な操作を行い、出力された白黒ステッカーに色を塗るプロセスは、中毒性のあるデジタル技術と、心を落ち着けるアナログな創造性を巧みに融合させています。

親にとって最大の懸念である安全性も、徹底的に考慮されています。複数のモデルを組み合わせた独自のAI技術により、暴力や性的なコンテンツ、不適切な言葉を自動でフィルタリングします。Wi-Fi経由の更新で、ガードレール機能は常に最新の状態に保たれます。

創業者のロバート・ホイットニー氏は、元ニューヨーク・タイムズやAnthropicでの経験を持ちます。自身の息子が生成AIで作った画像に目を輝かせた体験が開発のきっかけとなり、「子供のためのAI」という未開拓市場に勝機を見出しました。

同社はMaveronやSerena Venturesなどから既に700万ドルを調達済みです。ハードウェア販売に加え、消耗品の感熱紙ロールによる収益モデルを構築しており、将来的にはアプリを通じたプレミアム機能の提供も視野に入れています。

OpenAI新端末、2年以内発売へ アイブ氏と試作完了

2年以内の市場投入へ

アルトマン氏らがプロトタイプ完成を明言
発売時期は2年以内の見通し
画面なしでスマホサイズとの噂も

iPhoneとは対極のコンセプト

現代のスマホはタイムズスクエアの騒音
新端末は湖畔の小屋のような静寂
通知を遮断し集中と平穏を提供

AIが文脈を理解し自律動作

ユーザーの全生活文脈を学習
適切な機に自律的に介入

OpenAIサム・アルトマンCEOと元Appleのジョニー・アイブ氏は、共同開発中のAIハードウェアについて、プロトタイプが完成したことを明らかにしました。サンフランシスコで開催されたイベントで登壇し、製品化に向けた進捗を語ったものです。

アイブ氏によると、この新デバイスは2年以内に市場へ投入される見通しです。具体的な仕様は伏せられていますが、噂ではスクリーンのない、スマートフォン程度のサイズになるとされています。デザインは極めてシンプルで、遊び心を感じさせるものだといいます。

アルトマン氏は現在のスマートフォン体験を「タイムズスクエアの喧騒」に例え、通知やSNSに常に注意を奪われる状況を批判しました。対照的に、新デバイスは「湖畔の小屋」のような静けさを提供し、ユーザーに平穏と集中をもたらすことを目指しています。

このデバイスの核心は、ユーザーの生活における文脈(コンテキストを深く理解する点にあります。AIが長期間にわたりユーザーの行動を学習し、信頼できるエージェントとして振る舞うことで、人間が指示を出す前に必要なタスクを処理してくれるのです。

アイブ氏は「無邪気なほどシンプルでありながら、高度に知的な製品」を理想に掲げます。難解な技術を意識させず、無造作に使える道具としてのAI。これは、テクノロジーとの付き合い方を根本から変え、私たちの生産性を劇的に高める可能性を秘めています。

Google新手法、AIの記憶と継続学習の課題を解決へ

静的なAIから進化するAIへ

学習後の知識更新が困難な現状
コンテキスト外の長期記憶が欠如
多層最適化するNested Learning

新モデル「Hope」の実力

異なる速度で更新する多層メモリ
継続学習と長文脈で高精度を実現
リアルタイムな自己適応が可能に
実社会での柔軟な活用に期待

Googleの研究チームは2025年11月、現在のAIモデルが抱える「記憶」と「継続学習」の限界を突破する新パラダイムNested Learningを発表しました。モデルの学習を単一ではなく多層的な最適化プロセスとして再定義し、環境に適応し続けるAIへの道を開くものです。

従来のTransformerモデルは、事前学習後は知識が固定される「静的」な存在でした。コンテキストウィンドウ(短期記憶)の容量を超えた情報は失われ、人間のように日々の経験から長期記憶を形成し、知識を更新することができない点が大きな課題でした。

この課題に対し、新手法は脳のメカニズムを模倣します。新開発されたアーキテクチャHopeは、即時的な情報から抽象的な知識まで、異なる速度で更新される複数のメモリバンクを搭載。これにより、自己参照的なループで記憶を最適化し続けます。

実証実験では、言語モデリングや複雑な推論タスクにおいて、既存のモデルを上回る精度と効率を記録しました。特に、膨大なデータの中から特定の情報を正確に見つけ出す長文脈処理において、優れたパフォーマンスを示しています。

既存のハードウェアインフラへの適応という課題は残りますが、データや環境が絶えず変化するビジネス現場において、継続的に学習するAIの価値は計り知れません。真に自律的なAIシステム実現への重要な一歩となるでしょう。

OpenAIとFoxconn提携 米国でのAIインフラ製造強化

提携の目的と枠組み

次世代AIインフラの設計と製造で協力
米国内のサプライチェーン強靭化が狙い
購入義務のない技術協力から開始

具体的な取り組み内容

データセンター用ラックの共同設計
冷却や電源など重要部品米国内製造
国内調達を増やしエコシステムを拡大

経営層のビジョン

アルトマン氏は米国の再工業化と強調

OpenAIとFoxconnは2025年11月20日、次世代AIインフラの設計と米国での製造準備に向けた提携を発表しました。この協力は、米国内のサプライチェーンを強化し、高度なAIモデルに必要なハードウェアの展開を加速させることを目的としています。

両社は、複数世代にわたるデータセンター用ラックの共同設計やエンジニアリングに取り組みます。OpenAIが将来の需要に関する知見を提供し、Foxconnが製造技術を活かすことで、急速に進化するモデルのニーズに迅速に対応する計画です。

今回の合意に現時点での購入義務は含まれませんが、OpenAIはシステムの早期評価権と購入オプションを確保しました。これにより、技術的なフィードバックを製品開発へ即座に反映させ、実用性の高いインフラ構築を目指します。

Foxconnは、ケーブルや冷却システム、電源といった重要な構成要素を米国内で製造します。国内サプライヤーや多様なチップセットの活用を広げ、現地でのテスト能力を拡大することで、地政学リスクに強い供給網を構築します。

OpenAIサム・アルトマンCEOは、本提携を「米国の再工業化に向けた好機」と位置づけています。AI時代のコア技術を国内で構築することで、米国の技術的リーダーシップを維持し、経済的恩恵を国内に還元する戦略的な動きです。

NVIDIAがクラウド基盤を次世代へ刷新 Googleと提携

Blackwell世代への進化

全拠点でBlackwell RTX稼働
RTX 5080クラスの性能
最大5K 120fpsに対応
360fpsの超低遅延を実現

Googleとの戦略的提携

Chromebook向け優先パス
広告なしで待機列スキップ
月10時間の優先アクセス権

NVIDIAは20日、クラウドゲーミングサービス「GeForce NOW」のサーバーをBlackwell世代へ全面刷新したと発表しました。同時にGoogle提携し、Chromebookユーザー向けの優先アクセス権「Fast Pass」の提供を開始します。これにより、クラウド経由での高品質な体験がより身近になります。

今回の刷新により、世界中のデータセンターGeForce RTX 5080クラスの性能が利用可能になりました。最大5K解像度や360fpsの高フレームレートに対応し、手元のハードウェアの制約を受けずに、映画並みの映像美と競技レベルのレスポンスを提供します。

新設された「Chromebook Fast Pass」は、Chromebook購入者に対し1年間の優先接続権を付与するものです。広告なしで月10時間まで、待機列をスキップして2,000以上のPCゲームに即座にアクセス可能となり、安価なデバイスの価値を大きく高めます。

これにより、高性能PCを持たない層でもハイエンドなゲーミング体験が可能となり、市場の裾野が広がります。NVIDIAは圧倒的なインフラ性能を武器に、場所や端末を問わないクラウドネイティブなエンターテインメント環境の構築を加速させています。

Google、台北に米国外最大のAIハードウェア拠点を新設

米国外最大の開発拠点

台北に新たなオフィスを開設
米国外で最大のAIハードウェア拠点
数百名の従業員による多分野連携

台湾の戦略的優位性

設計から製造まで繋がるエコシステム
アジア初のデータセンター所在地
世界と繋ぐ海底ケーブルの要所

グローバルサービスへの貢献

開発技術を世界のAIインフラへ展開
Geminiなど主要サービスの基盤強化

Googleは20日、台北に新たなハードウェアエンジニアリングハブを開設したと発表しました。この新拠点は、同社にとって米国以外で最大のAIインフラ開発拠点となり、数百名の従業員がAIイノベーションの加速に取り組みます。

台湾は設計から製造、展開まで、AIインフラ構築に必要な要素が揃う希少な環境です。Googleは早くからアジア太平洋初のデータセンターを設置し、海底ケーブルへの投資も進めるなど、台湾を戦略的な重要拠点と位置づけてきました。

台北ハブで開発・検証された技術は、世界中のデータセンターやAIインフラに展開されます。検索やYouTubeに加え、最新の生成AI「Geminiなどを支えるバックボーンとして、数十億人のユーザー体験を向上させるでしょう。

フィンランドNestAI、防衛特化「物理AI」で1億ユーロ調達

Nokiaと提携し防衛AI強化

1億ユーロの資金を調達
通信大手Nokiaと戦略提携
無人車両等の防衛用途に特化

欧州の技術的主権確立へ

実世界で動く物理AIを開発
欧州発の独自技術を確保
Silo AI創業者らが主導

フィンランドのNestAIが11月20日、防衛用途向けのAI開発を加速させるため、1億ユーロの資金調達とNokiaとの戦略的提携を発表しました。この動きは、欧州における技術的主権の確立を目指す重要な一歩です。

今回の調達は、フィンランド政府系ファンドTesiと通信大手Nokiaが主導しました。資金は、無人車両や自律運用システムなど、実世界で機能する物理AI(Physical AI)の研究開発拠点「欧州主要ラボ」の構築に充てられます。

背景には、ウクライナ情勢の長期化により、欧州独自の防衛技術への需要が急増している事情があります。同社は既にフィンランド国防軍のAI導入支援を表明しており、地政学的リスクに対応した国産ソリューションの提供を急ぎます。

同社会長には、昨年AI企業Silo AIをAMDに売却したピーター・サリン氏が就任しました。インテルやパランティア出身のエンジニアを集結させ、ハードウェアとAIを融合させた防衛産業特化の強力なチーム体制を築いています。

「AIカンニングペン」実機検証、回答デタラメで実用性皆無

期待外れのAIガジェット

YouTubeで試験突破と拡散
実機検証では誤回答を連発
メニューが中国語で操作困難

現場での運用は不可能

スキャン時に発光し即発覚リスク
学生スマホ撮影を推奨
AIブームに便乗した粗悪品

The Vergeの記者が、YouTube広告で話題となっている「AIスマートペン」の実機検証を行いました。紙の試験問題をスキャンして回答を表示すると謳われていますが、結論としてその性能は宣伝内容とは程遠く、カンニング目的での利用は不可能な代物でした。

検証に使用された約70ドルのデバイスは、テキストのスキャン機能こそ動作するものの、肝心の回答精度が致命的に低いことが判明しています。例えば、地学の質問に対して全く無関係な火山の情報を表示するなど、生成される内容は意味不明なデタラメばかりでした。

物理的な設計にも重大な欠陥があります。テキストを読み取る際にスキャナー部分が発光するため、静まり返った試験会場では一目瞭然で発覚してしまいます。隠れて使うには本体サイズも大きく、試験監督の目を盗むことは現実的ではありません。

結局のところ、現役の大学生たちにとっては、スマートフォンで問題を撮影してChatGPTに入力する手法の方が、はるかに安上がりで確実だといいます。AIの名を冠したハードウェアが増加していますが、実用性のない粗悪品を見極める冷静な視点が必要です。

米新興が家事ロボット発表、独自学習で複雑作業を実現

高度な家事能力と動作

エスプレッソ抽出や食器セットが可能
車輪移動と昇降機能で柔軟に動作
片手でグラスを持つ高い器用さ

独自のAI学習手法

特殊グローブ着用者がデータを生成
遠隔操作より正確な信号を取得
ハードとAIの垂直統合で最適化

今後の展開と市場

来年にベータテストを開始予定
テスラやDeepMind出身の精鋭が集結
初期は愛好家層への普及を想定

米国の新興企業Sunday Roboticsは2025年11月19日、家庭用ロボット「Memo」を発表しました。従来の単純作業とは一線を画し、エスプレッソの抽出や食器の片付けといった複雑な家事を自律的に遂行します。AIとハードウェアを高度に統合し、家庭環境での実用化を目指しています。

Memoは親しみやすい外見で、車輪移動と昇降機能を備えています。特筆すべきは、片手で複数のグラスを掴むといった人間並みの器用さです。デモでは粉のセットから抽出までエスプレッソマシンを操作し、散らかったキッチンでも柔軟に対応する能力を実証しました。

この器用さを支えるのが、独自のAI学習手法です。同社は400ドル程度の特殊グローブを開発し、人間が着用して家事を行うデータを収集しています。従来の遠隔操作よりも、人間の微細な動きを正確にAIモデルへ学習させることが可能となりました。

創業者スタンフォード大学などでロボット学習を研究し、チームにはTeslaやGoogle DeepMindの出身者も在籍します。ネット上にロボット用データが不足している現状に対し、自社で高品質なデータを生成し、ハードとAIを一体で開発する戦略をとっています。

同社は来年、ベータテストを開始する予定です。初期は機能の不完全さを許容し、自らロボットにタスクを教える意欲のあるアーリーアダプター層をターゲットとします。家庭内で確実に役立つロボットの実現に向け、実環境での検証が進められます。

Google、元ボストン・ダイナミクスCTO採用でロボットAI加速

ロボット版「Android」構想

元ボストン・ダイナミクスCTOを採用
VPとしてハードウェア部門を統括
スマホのAndroid戦略を踏襲

AI脳への注力と市場展望

ハードは問わず汎用AIで制御
今後数年で技術的飛躍を予測
テスラ中国勢と競争激化
焦点はハードよりソフトウェア

Google DeepMindは2025年11月、ボストン・ダイナミクスの元CTOであるアーロン・サンダース氏をハードウェア担当VPとして採用しました。AIモデル「Gemini」をロボットのOSとして普及させるための戦略的な人事といえます。

デミス・ハサビスCEOは、スマートフォン市場におけるAndroidのように、多様なロボット「箱から出してすぐに」動かせるAI基盤の構築を目指しています。サンダース氏の知見を得て、ヒューマノイドを含むあらゆる機体への対応を加速させます。

テスラや中国企業が安価なハードウェア開発で先行する中、Google「AI脳」の開発に注力して差別化を図る方針です。ハサビス氏は、AIとロボット工学の融合が数年以内にブレイクスルーを迎えると予測し、競争力の強化を急いでいます。

AIは未熟でも「買い」なスマートグリルの本質的価値

期待外れな生成AI機能

レシピ生成の精度が著しく低い
画像認識機能も実用レベル外

評価を覆す基本性能

300ドル以下の圧倒的コスパ
洗練されたデザイン組立性

UXを高めるアプリ連携

スマホによる自動着火と制御
直感的で安定した動作環境

米WIRED誌は2025年11月、生成AI搭載グリル「Brisk It Zelos-450」をレビューしました。AIの完成度は低いものの、製品は「買い」と高評価です。AIブームの中、製品の本質的価値を問う興味深い事例といえます。

目玉の生成AI機能「Vera」は実用性に乏しいのが現状です。レシピ提案は精度が低く、画像認識も失敗が目立ちます。しかしレビュアーはこの点を単なるギミックと割り切り、製品自体の魅力は損なわれていないと判断しました。

真価はAI以外の基本性能にあります。300ドル以下の低価格ながら、洗練されたデザイン容易な組み立てを実現。AIという付加価値を抜きにしても、ハードウェアとして十分に競争力のある品質を確保しているのです。

特筆すべきは専用アプリの完成度です。多くのIoT製品と異なり動作が安定しており、スマホからの自動着火や温度管理が可能です。これは数倍の価格帯の競合製品にも見られない、ユーザーの利便性を劇的に高める機能です。

庫内の狭さなどの欠点はありますが、AIを売りにしつつもUXの核心を外さなかった点が勝因です。技術者や経営者は、AIをどう製品に組み込み、顧客に価値を届けるか、この事例から多くを学べるはずです。

AzureでClaude利用可能に MSとNVIDIAが巨額投資

150億ドル規模の戦略投資

NVIDIA最大100億ドルを出資
Microsoft最大50億ドル投資
Azure計算資源へ300億ドル分の利用を確約

Azureでの利用と技術連携

最新モデルSonnet 4.5等が即時利用可能
Excel等のMicrosoft 365とも連携
次世代GPURubin等でモデルを最適化

2025年11月18日、MicrosoftNVIDIAAnthropicとの戦略的提携を発表しました。両社は合計で最大150億ドルをAnthropic投資し、対するAnthropicMicrosoft Azureの計算資源に300億ドルを支出する相互依存的な大型契約です。

提携により、Azure AI Foundryの顧客は、Anthropicの最新モデルであるClaude Sonnet 4.5Opus 4.1などを即座に利用可能となります。これによりClaudeは、主要3大クラウドすべてで提供される唯一の最先端AIモデルという地位を確立しました。

開発者や企業は、Azureの堅牢なセキュリティ環境下で、Claudeの高度な推論能力を既存システムに統合できます。さらに、Excelのエージェントモードなど、Microsoft 365 Copilot内でもClaudeの機能がプレビュー版として提供され始めました。

技術面では、NVIDIAAnthropicハードウェア最適化で深く連携します。次世代GPUアーキテクチャであるVera RubinやGrace Blackwellシステムを活用し、計算効率とパフォーマンスを最大化することで、将来的な大規模AIクラスター構築を目指します。

今回の動きは、MicrosoftOpenAIとの独占的な関係を緩和し、モデルの多様化へ舵を切ったことを象徴しています。経営者は特定のベンダーに依存しない柔軟なAI戦略が可能となり、用途に応じた最適なモデル選択が加速するでしょう。

NVIDIA、スパコン革新で科学技術の新時代へ

AI物理モデルと新ハード

AI物理モデルApollo発表
次世代DPU BlueField-4
量子連携技術NVQLink

世界80以上のスパコン採用

米学術最大級Horizon構築
エネルギー省に7基導入
日本の理研も新システム採用
欧州初のExascale機も

NVIDIAは、先日開催されたスーパーコンピューティング会議「SC25」で、AI時代の科学技術計算をリードする一連の革新技術を発表しました。シミュレーションを加速するAI物理モデルApolloや、データセンターの頭脳となる次世代DPU BlueField-4、量子コンピュータと連携するNVQLinkなどが含まれます。これらの技術は世界80以上の新システムに採用され、研究開発のフロンティアを大きく押し広げます。

特に注目されるのが、AI物理モデル群「Apollo」です。これは、電子デバイス設計から流体力学、気候変動予測まで、幅広い分野のシミュレーションをAIで高速化するものです。従来手法より桁違いに速く設計空間を探索できるため、SiemensやApplied Materialsなどの業界リーダーが既に採用を表明。製品開発サイクルの劇的な短縮が期待されます。

AIファクトリーのOSを担うのが、次世代データ処理装置(DPU)「BlueField-4」です。ネットワーク、ストレージ、セキュリティといった重要機能をCPUやGPUからオフロードすることで、計算リソースをAIワークロードに集中させます。これにより、データセンター全体の性能と効率、そしてセキュリティを飛躍的に向上させることが可能になります。

これらの最先端技術は、世界中のスーパーコンピュータで採用が加速しています。テキサス大学の学術機関向けでは米国最大となる「Horizon」や、米国エネルギー省の7つの新システム、日本の理化学研究所のAI・量子計算システムなどがNVIDIAプラットフォームで構築されます。科学技術計算のインフラが、新たな次元へと進化しているのです。

さらに未来を見据え、NVIDIAは量子コンピューティングとの連携も強化します。新技術「NVQLink」は、GPUスーパーコンピュータと量子プロセッサを直接接続するユニバーサルなインターコネクトです。これにより、古典計算と量子計算を組み合わせたハイブリッドなワークフローが実用的になり、これまで解けなかった複雑な問題への挑戦が始まります。

一連の発表は、NVIDIAが単なるハードウェア供給者ではなく、AI時代の科学技術インフラをソフトウェア、ハードウェアエコシステム全体で定義する存在であることを示しています。経営者エンジニアにとって、このプラットフォーム上でどのような価値を創造できるか、その真価が問われる時代が到来したと言えるでしょう。

「物理AI」新興Bone、防衛ロボで18億円調達

「物理AI」で防衛革新

ソフトウェアとハードの統合
空・陸・海の自律型ロボを開発
韓国の製造業を強みに活用

創業1年目の急成長

シードで18億円を大型調達
既に売上4.5億円を達成
M&A;による事業加速戦略
韓国政府の物流計画に採択

韓国米国に拠点を置くスタートアップBone AIが、シードラウンドで1200万ドル(約18億円)を調達しました。同社はソフトウェア、ハードウェア、製造を統合する「物理AI」プラットフォームを構築し、次世代の防衛用自律型ロボットを開発。アジアの防衛大手に対抗する野心的な計画を掲げ、創業1年目から事業を急拡大させています。

Bone AIが目指すのは、単なる防衛技術企業ではありません。創業者DK・リー氏は同社を「物理AI」企業と位置づけています。これは、AIの知能をデジタル世界だけでなく、ドローンや地上車両といった物理的なロボットに組み込み、現実世界で機能させるという壮大な構想です。シミュレーションから製造までを一気通貫で手掛けます。

同社の急成長は注目に値します。創業わずか1年で、既に政府との大型契約を獲得し、300万ドル(約4.5億円)の売上を達成。この成功の裏には、設立6ヶ月後には韓国ドローン企業を買収するなど、自社開発に固執しないM&A;を駆使した戦略があります。今後も追加の買収を計画しています。

なぜ韓国が拠点なのでしょうか。韓国には現代自動車やサムスン電子など、世界的なハードウェア製造企業が集積しています。リー氏はこの強力な製造基盤を活かし、韓国内で物理AIのサプライチェーンを構築。将来的には米国欧州など同盟国への展開を目指しており、地の利を最大限に活用する戦略です。

投資家も大きな期待を寄せています。米国のAndurilや欧州のHelsingといった巨大防衛テック企業が生まれる一方、アジア市場はまだ黎明期にあります。今回のラウンドを主導したThird Primeは、Bone AIが「主権AI」や「再産業化」といった世界的潮流の中心にいると評価。市場の隙間を埋める存在として注目しています。

GPUの性能を最大限に、Luminalが5.3億円調達

GPU最適化の新星 Luminal

元Intel、Apple出身者が創業
Y Combinatorプログラム採択
GPU真のボトルネックはソフト

5.3億円調達で事業加速

独自のGPUコンパイラを開発
NVIDIAのCUDAに対抗/補完
推論の高速化と低コスト化に貢献

GPUの性能を最大限に引き出すソフトウェア開発を手がけるスタートアップ、Luminalが17日、シードラウンドで530万ドル(約8億円)の資金調達を発表しました。この資金調達はFelicis Venturesが主導。IntelやApple出身のエンジニアが創業した同社は、GPUの利用効率を飛躍的に高めるコンパイラ開発を加速させ、AIモデルの推論コスト削減を目指します。

共同創業者のJoe Fioti氏はIntelでの経験から、「最高のハードウェアがあっても、開発者が使いにくければ普及しない」とソフトウェアの重要性を痛感。この課題意識がLuminalの創業につながりました。同社は、多くの開発者が直面するGPUソフトウェア面のボトルネック解消に真正面から取り組みます。

Luminalの事業の核は、GPUの計算能力を販売することに加え、それを支える高度な最適化技術にあります。特に、プログラミング言語で書かれたコードをGPUが実行できる形式に変換する「コンパイラ」の最適化に注力。これにより、既存のハードウェアインフラから、より多くの計算能力を引き出すことを可能にします。

現在、AI業界のコンパイラはNVIDIAの「CUDA」が標準ですが、Luminalはオープンソース部分を活用し、より優れたスタックを構築することで勝機を見出しています。GPU不足が続く中、推論の高速化・低コスト化を実現する同社のようなスタートアップへの期待は高まっています。

推論最適化市場は、BasetenやTogether AIのような既存企業に加え、Tensormeshなど新たなスタートアップも参入し、競争が激化しています。大手研究所も自社モデルの最適化を進めていますが、Fioti氏は「汎用的なユースケースには非常に大きな経済的価値がある」と述べ、市場の急成長に自信を見せています。

ローカルAI時代へ、PC構造が数十年ぶり大変革

NPU搭載競争が激化

AI処理特化のNPUを標準搭載
電力効率に優れバッテリー消費抑制
チップ各社のTOPS性能競争が加速

統合メモリへの構造変化

CPUとGPU分離メモリがボトルネックに
統合メモリでデータ転送を高速化
大規模モデルのローカル実行が可能に

OSレベルでのAI最適化

MSがCopilot+ PCで業界を先導
OSが最適なプロセッサを自動選択

PC業界が、AI、特に大規模言語モデル(LLM)をクラウドを介さず個人のPC上で直接実行するため、数十年ぶりの構造変革期に突入しています。この動きは、AI処理に特化したNPU(Neural Processing Unit)の搭載と、CPUやGPUがメモリを共有する「統合メモリアーキテクチャ」への移行という二つの大きな技術革新によって牽引されています。これにより、低遅延でプライバシーも保護された、よりパーソナルなAI体験が実現しようとしています。

これまでのPCは、ほとんどのAI処理をクラウド上のデータセンターに依存していました。しかし、個人のPCでAIを動かすには性能が不足していたのです。その解決策の主役がNPUです。AIが得意とする行列演算に特化したこのチップは、CPUやGPUよりも遥かに高い電力効率でAIタスクを処理します。Qualcomm、AMD、Intelといった半導体大手は、性能指標であるTOPS(1秒間の演算回数)を競い合い、PCのAI性能を急速に向上させています。

もう一つの革命はメモリ構造です。従来の高性能PCでは、CPUが使うメインメモリと、GPUが使う専用のグラフィックスメモリは分離していました。しかし、巨大なAIモデルを動かすには、この分離構造が非効率でした。CPUとGPU間でデータをやり取りするたびに、大きな遅延と電力消費が発生していたためです。これはAIの応答速度を著しく損なうボトルネックとなっていました。

このメモリの課題を解決するのが、Appleが先行していた「統合メモリアーキテクチャ」です。CPU、GPU、そしてNPUが一つの大きなメモリプールを共有することで、プロセッサ間のデータ転送が不要になり、劇的に高速化します。AMDの「Ryzen AI Max」などがこの流れを追随しており、これにより、これまでデータセンターでしか扱えなかった大規模なAIモデルも、手元のノートPCで動かせる可能性が現実味を帯びてきました。

ハードウェアの進化と歩調を合わせ、ソフトウェアも大きく変わろうとしています。マイクロソフトは「Copilot+ PC」構想を掲げ、Windows OS自体にAI実行基盤を統合しています。これにより、アプリケーションはAIの処理内容に応じて、CPU、GPU、NPUの中から最適なプロセッサを自動で使い分けることが可能になります。開発者はより簡単に、ローカルPCの性能を最大限に引き出すAIアプリを開発できるようになるでしょう。

NPUの搭載と統合メモリへの移行は、単なる性能向上ではありません。それはPCアーキテクチャそのものを根本から再発明する動きです。この変化は、アップグレードや修理を困難にするという課題もはらんでいますが、いずれは「手元で動く汎用人工知能(AGI)」という壮大な目標さえ視野に入れています。PC業界は今、AIを中心に据えた新たなエコシステムの構築に向けて大きく舵を切ったのです。

量子計算の実用化へ、Googleが5段階の道筋を示す

実用化への5段階

Stage I: 新アルゴリズムの発見
Stage II: 量子優位性を持つ問題の特定
Stage III: 実世界での価値を検証
Stage IV: 実用化に向けたコスト評価
Stage V: 実用ワークフローへの展開

乗り越えるべき課題

価値ある問題例の特定が困難
専門家間の知識のギャップ
解決策はアルゴリズム優先の開発

Google Researchは、量子コンピュータの具体的な応用を創出するための5段階フレームワークを発表しました。ハードウェアの進歩は目覚ましい一方、「高性能な量子コンピュータで一体何をするのか?」という根本的な問いが残っています。今回発表されたフレームワークは、アイデアから実社会での価値創出までの道のりを明確にし、研究開発の指針となるものです。

このフレームワークは、抽象的なアルゴリズムの発見から始まり、実用的なアプリケーションとして展開されるまでの全工程を5つのステージに分類します。これにより、研究者や開発者は現在どの段階にいて、次に何をすべきかを正確に把握できます。特に、実用化に向けた最大のボトルネックがどこにあるかを浮き彫りにしています。

最初の3段階が重要です。Stage Iは新しい量子アルゴリズムの「発見」、Stage IIは古典計算機に対する優位性を示せる具体的な問題を見つける段階です。そしてStage IIIでは、その問題解決が創薬や材料科学など、実社会で本当に価値を持つかを「検証」します。多くの有望なアイデアが、このIIとIIIの段階で壁に直面しているのが現状です。

続くStage IVは、実用化に向けた計算コスト(必要な量子ビット数や計算時間)を詳細に見積もる「エンジニアリング」段階です。最後のStage Vで、初めて実用的なワークフローへの「展開」が実現します。現時点で、Stage Vに到達した量子アプリケーションはまだ存在しませんが、研究開発は着実に進んでいます。

では、現在の有望な応用分野はどの段階にあるのでしょうか。例えば、化学シミュレーションや物理シミュレーションはStage IIIからIVに、公開鍵暗号を破る素因数分解はStage IVに、そして最適化問題や機械学習はまだStage IIからIIIの初期段階にあると評価されています。分野ごとに成熟度が異なるのです。

Googleは、最大の課題はStage IIとIIIにあると指摘します。つまり、量子コンピュータが真価を発揮する「適切な問題例の発見」と、量子アルゴリズムの専門家と各応用分野の専門家との間にある「知識のギャップ」を埋めることが急務です。この壁を越えなければ、実用化は進みません。

この課題に対し、同社は2つの解決策を提唱しています。一つは、まず量子優位性が証明されたアルゴリズムを確立し、それから応用先を探す「アルゴリズム優先」のアプローチ。もう一つは、分野横断的なチームを育成し、知識のギャップを埋めることです。AIが膨大な科学文献を解析し、両者の橋渡し役を担う可能性も示唆されています。

騒音下の音声認識を革新、米新興が6百万ドル調達

革新的な音声分離モデル

騒音環境でも人の声を正確に捕捉
デバイスの音響特性に合わせて最適化
汎用モデルを凌駕する高い性能
ユーザーの声に適応しパーソナル化

事業拡大と有力企業との連携

シードで600万ドル資金調達を完了
クアルコムの公式プログラムに選定
大手自動車・家電メーカーと提携
来年には自社製品の発表も計画

カリフォルニア州のスタートアップSubtle Computingは11月6日、騒がしい環境下でも正確に音声を認識する独自の「音声分離モデル」を開発し、シードラウンドで600万ドル(約9億円)を調達したと発表しました。この技術は、AI議事録サービスや音声アシスタントなど、急成長する音声AI市場の精度向上に大きく貢献する可能性があります。

同社の強みは、デバイスごとに最適化されたモデルを提供できる点にあります。多くの既存ソリューションが汎用的なモデルをクラウドで処理するのに対し、同社はデバイス固有の音響特性を学習させます。これにより、汎用モデルより桁違いに高い性能を実現し、ユーザーの声にも適応するパーソナライズされた体験を提供できるとしています。

AI議事録作成ツールや音声入力アプリの市場は急拡大していますが、カフェや共有オフィスのような騒音環境での音声認識精度の低さが共通の課題でした。Subtle Computingの技術は、こうした実用シーンでの課題を直接解決し、音声AIの利用範囲を大きく広げる可能性を秘めています。

今回の資金調達はEntrada Venturesが主導し、Twitterの共同創業者ビズ・ストーン氏など著名なエンジェル投資家も参加しました。投資家は「音声AIはノイズの多い市場だが、同社の音声分離への特化は信頼性の高いユーザー体験を生み出すゲームチェンジャーだ」と高く評価しています。

同社は既に半導体大手クアルコムのプログラムに選定されており、同社のチップを搭載する多くのデバイスで技術が利用可能になる見込みです。また、社名は非公開ながら大手自動車メーカーや家電ブランドとも提携しており、来年には自社ブランドハードウェアとソフトウェア製品を発表する計画も明らかにしています。

NVIDIAフアンCEOら、AIの功績で英女王工学賞受賞

GPU開発の功績

GPUアーキテクチャ開発を主導
AIと機械学習の基盤を構築
アクセラレーテッド・コンピューティングを開拓
現代のAIのビッグバンを触発

英国での栄誉と未来

チャールズ国王から賞を授与
フアン氏はホーキング・フェローにも選出
英国政府と次世代エンジニア育成を議論

NVIDIA創業者兼CEOであるジェンスン・フアン氏と、チーフサイエンティストのビル・ダリー氏が、今週英国で「2025年エリザベス女王工学賞」を受賞しました。授賞式はセント・ジェームズ宮殿で行われ、チャールズ国王陛下から直接賞が授与されました。両氏のAIと機械学習の基盤となるGPUアーキテクチャ開発における功績が、高く評価された形です。

今回の受賞は、両氏が主導したGPUアーキテクチャが今日のAIシステムと機械学習アルゴリズムを支えている点に焦点を当てています。彼らの功績は、コンピュータ業界全体に根本的な変化をもたらした「アクセラレーテッド・コンピューティング」の開拓にあります。この技術革新こそが、現代のAIの「ビッグバン」を巻き起こした原動力とされています。

フアンCEOは受賞に際し、「私たちが生きているのは、マイクロプロセッサ発明以来の最も深遠なコンピューティングの変革期だ」と述べました。さらにAIは「将来の進歩に不可欠なインフラであり、それは前世代にとっての電気やインターネットと同じだ」と、その重要性を強調しました。AIの未来に対する強い自負がうかがえます。

一方、チーフサイエンティストのダリー氏は、AIの基盤が数十年にわたる並列コンピューティングとストリーム処理の進歩にあると指摘。「AIが人々を力づけ、さらに偉大なことを成し遂げられるよう、ハードウェアとソフトウェアを洗練させ続ける」と、今後の技術開発への意欲を示しました。

両氏は授賞式に先立ち、英国政府の科学技術担当大臣らと円卓会議に出席しました。テーマは「英国がいかにして将来のエンジニアを鼓舞するか」。これはNVIDIA英国の政府や大学と進めるAIインフラ、研究、スキル拡大のための連携を一層強化する動きと言えるでしょう。

さらにフアンCEOは、世界で最も古い討論会であるケンブリッジ・ユニオンで「スティーブン・ホーキング・フェローシップ」も授与されました。科学技術を進歩させ、次世代にインスピレーションを与えた功績が認められたものです。フアン氏の貢献が、工学分野だけでなく、科学界全体から高く評価されていることを示しています。

GeForce NOW、RTX 5080増強と新作23本追加

11月の大型コンテンツ拡充

CoD新作など23本以上のゲーム追加
セガの伝説的格ゲー最新作も登場
人気ストラテジー『Europa Universalis V』
Xbox PC Game Pass対応タイトルも多数

RTX 5080サーバー拡大

最新Blackwell世代GPUを搭載
アムステルダムとモントリオールで稼働開始
次の展開地域はフェニックスを予定
最大5K/120fpsの高品質描画

NVIDIAは2025年11月6日、同社のクラウドゲーミングサービス「GeForce NOW」の大型アップデートを発表しました。11月中に人気シリーズ最新作『Call of Duty: Black Ops 7』を含む23本の新作ゲームを追加します。同時に、最新GPU「GeForce RTX 5080」を搭載したサーバーの提供地域を拡大し、ユーザー体験の向上とプラットフォームの競争力強化を図ります。

今回のアップデートで特に注目されるのは、インフラの増強です。最新のBlackwellアーキテクチャを採用したRTX 5080クラスのサーバーが、新たにオランダのアムステルダムとカナダのモントリオールで稼働を開始しました。対象地域のユーザーは、より低遅延で高品質なストリーミングが可能になります。次の展開拠点として米国のフェニックスも予定されており、NVIDIA積極的な投資姿勢がうかがえます。

コンテンツ面では、11月14日発売の超大作『Call of Duty: Black Ops 7』への対応が目玉です。今週からはセガの格闘ゲーム最新作『Virtua Fighter 5 R.E.V.O. World Stage』もプレイ可能に。話題作を迅速に追加し、ユーザー層の拡大を狙います。

さらに、歴史ストラテジー『Europa Universalis V』など、多様なジャンルのゲームが追加されます。これにより、幅広いユーザー層を獲得し、プラットフォームの総合的な魅力を高める狙いです。場所を選ばない高性能なゲーム体験というクラウドゲーミングの価値を体現しています。

今回の発表は、NVIDIAが最先端のハードウェアと魅力的なコンテンツの両輪で市場での支配力を強める戦略を示しています。この動きは、AI開発など他のクラウドサービスにも応用される可能性があり、経営者エンジニアにとっても注視すべきトレンドと言えるでしょう。

ささやき声で思考記録、元Meta社員のAIリングStream

思考を捉える新体験

ささやき声でアイデアを即記録
タッチ操作でマイクを起動
スマホ不要で思考に集中
専用アプリでノートを自動整理

多機能なスマートデバイス

音楽再生も指先でコントロール
AIがユーザーの声で応答
ハプティクスで静かにフィードバック

製品概要と価格

価格は249ドルから
2026年夏に出荷開始予定

Metaの社員が設立したスタートアップSandbarが、AI搭載スマートリング「Stream Ring」を発表しました。このデバイスは、ささやき声でも思考を瞬時に音声メモとして記録し、AIと対話できるのが特徴です。価格は249ドルからで、2026年夏の出荷を予定。激化するAIウェアラブル市場に、新たな選択肢を投じます。

Stream Ringは「声のためのマウス」というコンセプトを掲げています。開発の背景には、歩行中や移動中に浮かんだアイデアを、スマートフォンを取り出すことなくシームレスに記録したいという創業者自身の課題がありました。ユーザーが思考の流れを中断せずに、アイデアをその場で捉えることを目指しています。

使い方は直感的です。人差し指に装着したリングのタッチパッドを押さえている間だけマイクが起動し、音声を記録。高感度マイクにより、周囲に人がいる場所でもささやき声でメモを取ることが可能です。記録された内容は専用アプリで自動的に整理され、AIが要約や編集を補助します。

本製品のAIは、単なるメモツールにとどまりません。ユーザーの記録内容に基づいて問いを投げかけ、思考の深掘りを助けます。さらに、応答するAIの声をユーザー自身の声に似せてパーソナライズする「Inner Voice」機能を搭載。あたかも自分自身と対話しているかのような体験を提供します。

音声メモ機能に加え、音楽の再生・停止、音量調整といったメディアコントローラーとしても機能します。価格はシルバーモデルが249ドル、ゴールドモデルが299ドル。月額10ドルのProサブスクリプションでは、無制限のチャット機能などが提供されます。

AIハードウェア市場では多くの製品が登場しては消えていきました。Sandbar社は、Stream Ringを「アシスタント」や「友人」ではなく、あくまでユーザーが主導権を握る「思考拡張ツール」と位置づけています。この明確なコンセプトで、先行する競合製品との差別化を図る考えです。

NVIDIA RTX、AIクリエイティブを劇的加速

AI制作の劇的な高速化

RTX 50シリーズのAI特化コア
生成AIモデルが最大17倍高速
主要制作アプリ135種以上を最適化

動画・3Dワークフロー革新

4K/8K動画もプロキシ不要で編集
リアルタイムでの3Dレンダリング
AIによるノイズ除去と高解像度化

配信・ストリーミング支援

専用エンコーダーで高画質配信
AIアシスタントによる配信作業の自動化

NVIDIAは、クリエイティブカンファレンス「Adobe MAX」において、同社のGeForce RTX GPU動画編集、3D制作、生成AIなどのクリエイティブな作業をいかに高速化するかを明らかにしました。AI時代に求められる膨大な計算処理を専用ハードウェアで実行し、アーティストや開発者生産性を飛躍的に向上させるのが狙いです。

RTX GPUの強みは、AI処理に特化した第5世代Tensorコアや、3Dレンダリングを高速化する第4世代RTコアにあります。さらにNVIDIA Studioが135以上のアプリを最適化し、ハードウェア性能を最大限引き出すことで、安定した制作環境を提供します。

特に生成AI分野で性能は際立ちます。画像生成AI「Stable Diffusion」は、Apple M4 Max搭載機比で最大17倍高速に動作。これによりアイデアの試行錯誤を迅速に行え、創造的なプロセスを加速させます。

動画編集では4K/8K等の高解像度コンテンツが課題でした。RTX GPUは専用デコーダーにより、変換作業なしでスムーズな編集を実現します。AIエフェクトの適用や書き出し時間も大幅に短縮され、コンテンツ公開までの速度が向上します。

3D制作の現場も大きく変わります。レイトレーシングを高速化するRTコアと、AIで解像度を高めるDLSS技術により、これまで時間のかかったレンダリングがリアルタイムで可能に。アーティストは結果をすぐに確認でき、創造的な作業に集中できます。

ライブ配信もより身近になります。専用エンコーダーNVENCがCPU負荷を軽減し、ゲーム性能を維持したまま高品質な配信を実現します。AIアプリ「Broadcast」を使えば、特別なスタジオがなくても背景ノイズ除去やカメラ補正が簡単に行えます。

NVIDIAのRTX GPUは、個別のタスク高速化だけでなく、制作ワークフロー全体を革新するプラットフォームです。AIを活用して生産性と収益性を高めたいクリエイターや企業にとって、不可欠なツールとなることは間違いないでしょう。

Google、宇宙AIデータセンターで計算能力を拡張

壮大な宇宙構想

Google新研究計画サンキャッチャー
宇宙空間でのAI計算能力を拡張
TPU搭載衛星をネットワーク

宇宙ならではの利点

常時太陽光で安定した電力供給
地上の最大8倍太陽光発電効率
地上の電力・土地問題を回避

実現への道のり

衛星間の超高速通信が最大の課題
2027年に試作機打ち上げ予定

Googleは2025年11月4日、宇宙空間で機械学習の計算能力を飛躍的に拡張する新研究計画「プロジェクト・サンキャッチャー」を発表しました。AIチップTPU」を搭載した多数の衛星を太陽光発電で稼働させ、ネットワーク化する壮大な構想です。地上のデータセンターが抱える電力消費や土地問題を解決し、AIの可能性を最大限に引き出すことを目指します。

この構想の背景には、AIの急速な発展に伴うデータセンターの爆発的な増加があります。その膨大な電力消費と設置場所の確保は、IT業界全体の大きな課題です。実際、イーロン・マスク氏なども宇宙空間でのデータセンター構想に言及しており、宇宙利用はAIインフラの新たなフロンティアとなりつつあります。

宇宙空間が持つ最大の利点は、ほぼ無限の太陽エネルギーを利用できる点です。「サンキャッチャー」計画では、衛星を常に太陽光が当たる軌道に投入します。宇宙のソーラーパネルは地上の最大8倍も発電効率が高く、安定的かつクリーンな電力でAIを稼働させることが可能になります。

実現には、多くの技術的課題を乗り越える必要があります。最大の難関は、高速で移動する衛星同士を超高速の光通信で接続する技術です。Googleはすでに地上での実験で毎秒1.6テラビットの双方向通信に成功しており、今後さらなるスケールアップを目指す方針です。

Googleはこの計画を、自動運転技術「Waymo」のような長期的な「ムーンショット(壮大な挑戦)」と位置付けています。第一歩として、パートナー企業と共に2027年初頭までに試作衛星2基を打ち上げ、軌道上でのハードウェア性能を検証する予定です。AIの未来を宇宙に託す挑戦が、今まさに始まりました。

著名VC提唱、AIハード投資『殴りたくなるか』テスト

AIハードウェアへの警鐘

社会的受容性を欠く製品への懸念
常に会話を盗聴するような設計

VC業界の変化と未来

AIによる起業コストの劇的な低下
プログラミングは「雰囲気」で可能に
VCに求められる高いEQ(感情指数)

成功する投資の条件

技術力より感情的共感が重要
「不可能を健全に無視する」創業者

True Venturesの著名投資家ケビン・ローズ氏が、AIハードウェアへの投資基準として「それを着けている人を殴りたくなるか?」というユニークなテストを提唱しました。同氏はTechCrunch Disrupt 2025の場で、現在のAIデバイスの多くがプライバシーや社会的受容性を軽視していると警鐘を鳴らし、技術力だけでなく、人間社会に受け入れられるかどうかが成功の鍵を握るとの考えを明らかにしました。

ローズ氏が問題視するのは、会話を常に記録・分析するようなAIハードウェアの設計思想です。「多くの製品は社会的な規範を壊している」と指摘。自身もHumane AIピンを夫婦喧嘩で使おうとして失敗した経験を語り、技術を生活に無理やり組み込むことの危険性を示唆しました。このようなデバイスは、ユーザーとその周囲の人々に不快感を与える可能性があるのです。

成功するウェアラブル製品は何が違うのでしょうか。スマートリング市場の8割を占めるOuraの元役員でもあるローズ氏は、技術的な優位性だけでは不十分だと断言します。重要なのは、ユーザーがどう感じるか、そして周囲の人々にどう受け止められるかという「感情的な共感」と「社会的受容性」です。これらが欠如した製品は、一時的な話題になっても定着しないと分析します。

一方でローズ氏は、AIが起業環境を劇的に変えることには非常に楽観的です。AIコーディングツールを使えば、専門家でなくても短時間でアプリを開発・展開できるようになると予測。「高校生が次の10億ドル企業を立ち上げるだろう」と述べ、起業の参入障壁が日々縮小していると強調しました。

この変化は、ベンチャーキャピタルVC)の役割も変えます。起業家資金調達を遅らせたり、不要にしたりできるため、VCの価値は資金提供から別のものへ移行するとローズ氏は見ています。求められるのは、技術的な問題解決ではなく、創業者が直面する感情的な課題に寄り添う高いEQ(感情指数)を持つパートナーとしての資質です。

では、ローズ氏はどのような創業者投資するのでしょうか。Google共同創業者ラリー・ペイジの「不可能を健全に無視すること」という言葉を引用し、常識を疑う大胆なアイデアに挑戦する起業家を求めていると語ります。「たとえ失敗しても、その考え方や姿勢を評価し、再び支援したい」と、長期的なパートナーシップを重視する姿勢を明らかにしました。

脱・投機実行、決定論的CPUがAI性能を予測可能に

投機的実行の限界

予測失敗によるエネルギー浪費
Spectre等の脆弱性リスク
AI処理での性能の不安定化

決定論的実行の革新

時間ベースでの正確な命令実行
パイプライン破棄なくし高効率化
ハードウェア簡素化と低消費電力

AI/MLへのインパクト

ベクトル演算での高スループット
TPUに匹敵する性能を低コストで実現

30年以上主流だったCPUの「投機的実行」に代わる新技術として、「決定論的実行」モデルが登場しました。これは命令を予測に頼らず時間ベースで正確に実行するもので、特にAIや機械学習(ML)の分野で課題だった性能の不安定さを解消します。エネルギー効率とセキュリティを大幅に向上させ、予測可能なパフォーマンスを実現する次世代アーキテクチャとして注目されています。

従来の投機的実行は、命令の実行順序を予測することで高速化を図ってきました。しかし、予測が外れるとパイプラインを破棄・再実行する必要があり、エネルギーの浪費と遅延が発生します。さらに、SpectreやMeltdownといった深刻なセキュリティ脆弱性の温床にもなりました。特にAIワークロードでは、この予測不可能性が性能の大きな足かせとなっていました。

新しい決定論的実行モデルは、予測という「当て推量」を排除します。代わりに「タイムカウンター」と「レジスタスコアボード」という仕組みを利用し、各命令に正確な実行タイミングを割り当てます。データやリソースが利用可能になる瞬間を事前に計算し、計画通りに命令を実行するため、無駄な処理が一切発生しないのです。

このアーキテクチャの最大の利点は、予測可能なパフォーマンスです。処理するデータによって性能が大きく変動する「パフォーマンスクリフ」がなくなり、安定したスループットを実現できます。また、パイプラインの破棄が不要になるため、エネルギー効率が劇的に向上し、ハードウェア設計も簡素化できるというメリットがあります。

決定論的実行は、ベクトル演算や行列演算が多用されるAI/MLワークロードに特に適しています。GoogleTPUのような専用ハードウェアに匹敵するスループットを、より低コストかつ低消費電力で実現する可能性を秘めています。これにより、データセンターからエッジデバイスまで、幅広いAIアプリケーションの性能向上に貢献するでしょう。

開発者にとって、この移行はスムーズです。アーキテクチャはRISC-V命令セットの拡張をベースにしており、GCCやLLVMといった既存のツールチェーンと互換性があります。プログラミングモデルを大きく変えることなく、ハードウェアの予測可能性と効率性の恩恵を受けられるため、よりシンプルに高性能なアプリケーションを開発できます。

かつて投機的実行がCPU設計に革命をもたらしたように、決定論的実行は次のパラダイムシフトとなるのでしょうか。AI時代の到来により、性能の予測可能性と電力効率への要求はかつてなく高まっています。この新しいアプローチは、次世代コンピューティングの鍵を握る重要な技術革新と言えるでしょう。

NVIDIA、韓国と提携 25万GPUで主権AI構築へ

官民挙げた国家プロジェクト

NVIDIA韓国官民が歴史的提携
最新GPU 25万基超を国家規模で導入
「主権AI」とAIファクトリーの構築
サムスン・現代など財閥企業が参画

主要産業のAI化を加速

製造・モビリティ分野の産業革新
韓国語LLMや次世代通信6Gも開発

半導体大手NVIDIAは2025年10月31日、韓国のAPEC首脳会議で、同国政府や主要企業と国家規模のAIインフラ構築で提携すると発表しました。サムスン電子などと連携し25万基以上の最新GPUを導入、韓国独自の「主権AI」開発を加速させます。国全体の産業基盤をAI時代に対応させる歴史的な投資となります。

プロジェクトの核心は、自国データを国内で管理・活用する「主権AI」の確立です。政府主導でクラウド事業者に約5万基GPUを、民間企業には20万基以上を供給。単なるインフラ整備に留まらず、国家の産業構造そのものをAI中心に再設計する壮大な構想です。

民間ではサムスン、SK、現代がそれぞれ最大5万基、NAVERは6万基以上のGPUを導入し「AIファクトリー」を構築します。これにより、製造、モビリティ、通信、ロボティクスといった基幹産業のデジタルトランスフォーメーションを根本から推進する計画です。

各社の狙いは明確です。サムスン半導体製造のデジタルツイン化、現代は自動運転とスマートファクトリー、SKは製造AIクラウド、NAVERは特定産業向けAIモデルの開発を推進。NVIDIAの技術で各社の競争力を飛躍的に高めます。

提携GPU導入に限りません。LGなども参加し、韓国語LLMの開発や量子コンピューティング研究、次世代通信「6G」に向けたAI-RAN技術の共同開発も推進。AIを核とした包括的な技術エコシステムの構築を目指します。

未来の成長を支えるため、スタートアップ支援と人材育成も強化します。NVIDIA韓国内のスタートアップ連合を設立し、インフラへのアクセスやVCからの支援を提供。同時にAI人材育成プログラムも展開し、エコシステム全体の底上げを図ります。

今回の発表は、韓国が国を挙げて「AI産業革命」に乗り出す号砲です。ハードウェア導入からソフトウェア開発、人材育成まで包括的な国家戦略として展開されるこの取り組みは、世界のAI開発競争における韓国の地位を左右する一手となるでしょう。

Nvidia、AI開発基盤に最大10億ドル投資か

Nvidiaの巨額投資

投資先はAI開発基盤Poolside
投資額は最大10億ドル(約1500億円)
評価額120億ドルでの資金調達
2024年10月に続く追加投資

加速するAI投資戦略

自動運転や競合にも投資実績
AIエコシステムでの覇権強化

半導体大手のNvidiaが、AIソフトウェア開発プラットフォームを手がけるPoolsideに対し、最大10億ドル(約1500億円)の巨額投資を検討していると報じられました。この動きは、AIチップで市場を席巻するNvidiaが、ソフトウェア開発の領域でも影響力を強化し、自社のエコシステムを拡大する戦略の一環とみられます。急成長するAI開発ツール市場の主導権争いが、さらに激化する可能性があります。

米ブルームバーグの報道によると、今回の投資はPoolsideが実施中の総額20億ドル資金調達ラウンドの一部です。同社の評価額120億ドルに達するとされ、Nvidiaは最低でも5億ドルを出資する見込みです。Poolsideが資金調達を成功裏に完了した場合、Nvidiaの出資額は最大で10億ドルに膨らむ可能性があると伝えられています。

NvidiaがPoolsideに出資するのは、今回が初めてではありません。同社は2024年10月に行われたPoolsideのシリーズBラウンド(総額5億ドル)にも参加しており、以前からその技術力を高く評価していました。今回の追加投資は、両社の関係をさらに深め、ソフトウェア開発におけるAIモデルの活用を加速させる狙いがあると考えられます。

Nvidia投資先は多岐にわたります。最近では、英国の自動運転技術企業Wayveへの5億ドルの投資検討や、競合であるIntelへの50億ドル規模の出資も明らかになっています。ハードウェアの強みを活かしつつ、多様なAI関連企業へ投資することで、業界全体にまたがる巨大な経済圏を築こうとする戦略が鮮明になっています。

半導体という「インフラ」で圧倒的な地位を築いたNvidia。その次の一手は、AIが実際に使われる「アプリケーション」層への進出です。今回の投資は、開発者コミュニティを押さえ、ソフトウェアレイヤーでも覇権を握ろうとする野心の表れと言えるでしょう。AI業界のリーダーやエンジニアにとって、Nvidiaの動向はますます見逃せないものとなっています。

NVIDIA、RTX 5080クラウド基盤を欧州・北米へ拡大

RTX 5080サーバー増強

アムステルダムへ導入
モントリオールへ導入
最新Blackwell世代GPU
5K解像度/120fpsに対応

新規コンテンツ追加

注目作『ARC Raiders』
『The Outer Worlds 2』など
合計10タイトルが新たに対応
Ultimate会員向け特典も

NVIDIAは2025年10月30日、クラウドゲーミングサービス「GeForce NOW」のインフラを強化すると発表しました。最新のGeForce RTX 5080搭載サーバーをオランダのアムステルダムとカナダのモントリオールに新設します。併せて、注目作『ARC Raiders』を含む10タイトルのゲームを新たに追加し、プラットフォームの魅力を高めます。

今回のサーバー増強は、ブルガリアのソフィアに続くもので、Blackwellアーキテクチャを採用したRTX 5080の展開を加速させます。これにより、対象地域のユーザーは、最大5K解像度、120fpsの滑らかな映像とリアルタイムレイトレーシングによる高品質なストリーミング体験を、ほぼ全てのデバイスで享受可能になります。

コンテンツ面では、新作SFシューター『ARC Raiders』が目玉です。NVIDIAは同作のリリースを記念し、最上位プラン「Ultimate」の12ヶ月メンバーシップ購入者にゲーム本編を無料で提供するキャンペーンを実施。強力なハードウェアと魅力的なコンテンツを組み合わせ、プレミアムユーザーの獲得を狙います。

このほか、『The Outer Worlds 2』や『Guild Wars 2』の大型拡張コンテンツなど、話題性の高いタイトルも追加されました。NVIDIAは継続的なコンテンツ拡充を通じて、ユーザーエンゲージメントを高め、クラウドプラットフォームとしてのエコシステムを強化しています。

こうした定期的なインフラ投資コンテンツ戦略は、NVIDIAがゲーミング分野に留まらず、高性能クラウドGPU市場におけるリーダーシップを盤石にするものです。技術基盤の優位性を背景に、今後他分野への応用も期待されるのではないでしょうか。

NVIDIA支援のAI、インドで乳がん早期発見に貢献

AIによる医療格差の是正

インド地方部へ移動式検診車を派遣
低コストで高品質な乳がん検診を実現
医療アクセス困難な女性を支援
AIによる迅速なトリアージを実施

移動式クリニックの実績

過去1年で3,500人以上を検診
受診者の90%が初のマンモグラフィ
約300件の異常所見を発見
24人の陽性患者を早期治療へ

NVIDIAが支援する米国スタートアップMedCognetics社が、AI技術を活用した移動式クリニックでインド地方部の医療アクセス改善に貢献しています。NPO法人と連携し、低コストで高品質な乳がん検診を提供。これまで検診機会のなかった多くの女性に、早期発見と治療の道を開いています。

この移動式クリニックは過去1年で、インドのプネー周辺の農村部で3,500人以上の女性を検診しました。驚くべきことに、その90%が初めてマンモグラフィを受ける人々でした。AIによる解析で約300件の異常所見が見つかり、うち24人が陽性と診断され、病状が進行する前に治療へと繋げられました。

この取り組みを支えるのが、MedCognetics社が開発したAIシステムです。同社のAIは米国食品医薬品局(FDA)の認可を受けており、NVIDIAの産業用エッジAIプラットフォーム「IGX Orin」などで動作します。クラウドだけでなく、将来的には検診車に搭載したハードウェアでAI分析を完結させることを目指しています。

検診車に放射線科医は同乗しません。AIがまずマンモグラフィ画像を解析し、腫瘍の疑いがあるリスクなケースを即座に特定します。これにより、都市部の専門医は優先順位の高い患者から遠隔で詳細な読影を行え、診断プロセスが大幅に効率化されます。特に、人の目では見逃しやすい小さな腫瘍の発見に威力を発揮します。

インドの人口の約3分の2が居住する地方部では、高価でアクセスしにくい医療のため、予防検診が敬遠されがちです。その結果、乳がんが進行した段階で発見されるケースが多く、生存率に直結する課題となっています。AIを活用した手頃で身近な検診サービスは、この状況を打破する大きな一歩と言えるでしょう。

AI健康管理アプリBevel、15億円の資金調達

AIで健康データを統合

断片的な健康データをAIで統合
睡眠・運動・栄養を総合分析
既存ウェアラブル端末と連携
専用ハード不要で手軽に開始

急成長と高い継続率

ユーザー数が1年で8倍以上に急増
日間アクティブユーザー10万人超
驚異の継続率80%超(90日後)
投資家も注目する高い利用頻度

AIヘルスケアの新興企業Bevelが10月30日、シリーズAラウンドで1000万ドル(約15億円)の資金調達を完了したと発表しました。このラウンドは著名VCのGeneral Catalystが主導。Bevelは、利用者が持つウェアラブル端末のデータをAIで統合・分析し、睡眠・運動・栄養に関するパーソナライズされた洞察を提供。断片的な健康情報を一つに繋ぎ、予防医療を民主化することを目指します。

Bevelの最大の特徴は、ソフトウェア中心のアプローチです。多くの競合が専用の指輪やバンドといった高価なハードウェアを必要とするのに対し、同社はApple Watchなど既存のデバイスと連携。これにより、ユーザーは追加のデバイス購入なしで、月額6ドルまたは年額50ドルという手頃な価格でサービスを利用できます。この手軽さが幅広い層に受け入れられています。

その成長は目覚ましく、過去1年でユーザー数は8倍以上に増加し、日間アクティブユーザー(DAU)は10万人を突破しました。特に注目すべきは、90日後の継続率が80%を超えるというエンゲージメントの高さです。平均的なユーザーは1日に8回もアプリを起動しており、フィットネスアプリ市場では異例の数値を記録しています。

このサービスの原点は、共同創業者自身の原体験にあります。CEOのグレイ・グエン氏は、自身の慢性的な腰痛の原因が、医療機関やウェアラブル端末の断片的なデータだけでは分からなかった経験から着想を得ました。睡眠、運動、食事のデータを自ら統合・分析することで根本原因を突き止めたことから、同様の課題を解決するサービスの開発に至りました。

今回調達した資金は、チームの拡充とサービス連携の強化に充てられる計画です。投資を主導したGeneral Catalystは「Bevelがユーザーの日常生活の一部になっている」と、その高いエンゲージメントを評価。同社は今後もハードウェア事業には参入せず、ソフトウェアの力で個人の健康管理を革新していく方針です。

AIモデルの巨大化、ハードウェア進化を凌駕

AI性能競争の現状

AIの五輪MLPerfベンチマーク
最新ハードで訓練時間を競う
NVIDIAGPUが業界標準

モデル進化のジレンマ

ベンチマークも年々高度化
LLMの巨大化が加速
ハードウェア進化が追いつかず
訓練時間は一時的に長期化

AI性能を測る業界標準ベンチマーク「MLPerf」の最新データが、AIモデル、特に大規模言語モデル(LLM)の巨大化がハードウェアの進化ペースを上回っている現状を浮き彫りにしました。NVIDIAなどの半導体メーカーがGPU性能を飛躍的に向上させる一方、モデルの複雑化がそれを凌駕。AI開発における計算資源の課題が改めて示された形です。

MLPerfとは、AI分野のコンソーシアム「MLCommons」が2018年から年2回開催する性能競争です。参加企業は最新のハードウェアとソフトウェア構成を用い、特定のAIモデルを目標精度までトレーニングする時間を競います。その結果は、AIインフラの性能を測る「物差し」として業界で広く認知されています。

この数年で、AIトレーニングを支えるハードウェアは劇的に進化しました。特に業界標準となっているNVIDIAは、V100から最新のBlackwell世代に至るまで、GPUの性能を飛躍的に高めてきました。参加企業はより大規模なGPUクラスタを使用し、記録更新を続けています。

しかし、ハードウェアの進化と同時に、MLPerfのベンチマーク自体も厳しさを増しています。MLPerf責任者のデビッド・カンター氏によれば、これは意図的なものであり、ベンチマークが常に業界の最先端を反映するためだといいます。AIモデルの進化に追随している証左と言えるでしょう。

データが示す興味深い現実は、「モデルの成長ハードウェアの進化を上回る」という不等式です。新しい巨大モデルがベンチマークに採用されると、最速トレーニング時間は一度長くなります。その後、ハードウェア改良で短縮されるものの、次の新モデルで再びリセットされる。このサイクルが繰り返されているのです。

この傾向は、AIを事業に活用する企業にとって何を意味するのでしょうか。それは、単に最新ハードウェアを導入するだけでは、AI開発競争で優位に立てない可能性があるということです。計算資源の効率的な利用や、モデルの最適化といったソフトウェア側の工夫が、今後ますます重要になるでしょう。

Extropic、省エネAIチップでデータセンター覆す

新方式「熱力学チップ」

GPUとは根本的に異なる仕組み
熱のゆらぎを利用して計算
確率的ビット(p-bit)で動作
数千倍のエネルギー効率目標

初の試作機と将来性

初の実動ハードウェアを開発
AIラボや気象予測企業で試験
次世代機で拡散モデルを革新へ
データセンター電力問題に挑戦

スタートアップのExtropic社が、データセンターの常識を覆す可能性を秘めた新型コンピュータチップの最初の実動ハードウェアを開発しました。この「熱力学的サンプリングユニット(TSU)」は、従来のチップより数千倍のエネルギー効率を目指しており、AIの爆発的な普及に伴う莫大な電力消費問題への画期的な解決策として注目されています。

TSUは、GPUなどが用いる0か1のビットとは根本的に異なります。熱力学的な電子のゆらぎを利用して確率そのものを扱う「確率的ビット(p-bit)」で動作します。これにより、AIモデルや気象予測など、複雑なシステムの確率計算を極めて効率的に行えるようになります。この革新的なアプローチが、省エネ性能の鍵です。

同社は今回、初の試作機「XTR-0」を開発し、一部のパートナー企業への提供を開始しました。提供先には、最先端のAI研究を行うラボや気象モデリングを手がけるスタートアップ、さらには複数の政府関係者が含まれており、実環境での有用性の検証が始まっています。

パートナーの一社である気象予測AI企業Atmo社のCEOは、この新技術に大きな期待を寄せています。Extropicのチップを使えば、様々な気象条件が発生する確率を従来よりはるかに効率的に計算できる可能性があると述べており、より高解像度な予測モデルの実現につながるかもしれません。

Extropic社は、将来の展望も具体的に示しています。同社が発表した論文では、数千個のp-bitを搭載した次世代チップで、画像生成AIなどに用いられる「拡散モデル」を効率化できると説明。来年には25万p-bitを搭載したチップ「Z-1」の提供を目指しています。

この独自のアプローチは、業界専門家からも高く評価されています。ある専門家は「従来のトランジスタのスケーリングが物理的な限界に達する中、Extropic社の物理情報処理へのアプローチは、今後10年で変革をもたらす可能性がある」と指摘しています。

AIデータセンターへの巨額投資が続く一方で、そのエネルギー需要は深刻な課題です。Extropic社の挑戦は、ハードウェアの根本的な革新によってこの問題を解決しようとするものです。たとえ成功確率がわずかでも、試す価値のある重要な取り組みだと言えるでしょう。

AI音声モデル、数年で汎用品に ElevenLabs CEO予測

AI音声モデルの現状

短期的な最大の競争優位性
未だ解決すべき品質課題の存在
課題解決に自社開発が必須

AI音声の未来予測

数年以内に進むコモディティ化
モデル間の性能差は縮小傾向へ
マルチモーダル化が進展

ElevenLabsの長期戦略

モデル構築と応用の両面に注力
他社連携やオープンソース活用

AI音声合成技術のスタートアップ、ElevenLabsの共同創業者兼CEOであるマティ・スタニシェフスキ氏は2025年10月28日、米国のテックカンファレンスで、AI音声モデルは今後数年でコモディティ化(汎用品化)するとの見通しを明らかにしました。同氏は、短期的にはモデル開発が競争優位性を生むものの、長期的には技術が成熟し、応用面での価値創造が重要になると強調しました。

スタニシェフスキ氏は「長期的にはコモディティ化するでしょう」と明言。現在、各社がしのぎを削るモデル開発ですが、数年もすれば技術的な差は縮小していくと予測します。特定の音声や言語で多少の差は残るものの、全体としてモデル自体の独自性で差別化することは難しくなる、という見方です。

では、なぜ同社はモデルが汎用品化すると分かっていながら、今その開発に注力するのでしょうか。それは、短期的に見ればモデルの性能こそが「最大の優位性であり、最大の変革」だからです。AIが生成する音声の品質が低ければ、ユーザー体験を損ないます。この根本的な課題を解決するには、現時点では自社でモデルを構築する以外にないと説明します。

今後の技術トレンドとして、同氏はマルチモーダル化を挙げました。これは、音声動画、あるいは音声と大規模言語モデル(LLM)を同時に生成・処理するアプローチです。「会話形式で音声とLLMを同時に扱うようになるでしょう」と述べ、モデルの融合が新たな可能性を開くと指摘しました。

ElevenLabsの長期戦略は、モデル構築とアプリケーション開発の両輪を回すことにあります。スタニシェフスキ氏は、かつてAppleハードウェアとソフトウェアの融合で魔法を起こしたように、「製品とAIの組み合わせが、最高のユースケースを生み出す魔法になる」と語りました。他社との提携やオープンソース技術の活用も視野に入れ、応用面での価値創造を目指します。

AIモデル開発の競争が激化する中、技術そのものはやがて誰でも利用できる汎用的なものになる可能性があります。今回の発言は、AIを活用する企業にとって、モデルの性能競争だけでなく、それをいかに独自の製品やサービスに組み込み、顧客価値を創造するかという、応用力こそが長期的な成功の鍵を握ることを示唆しています。

NVIDIA、ロボット開発基盤ROSをGPUで加速

AIロボット開発を加速

ROS 2GPU認識機能を追加
性能ボトルネック特定ツールを公開
Isaac ROS 4.0を新基盤に提供
Physical AIの標準化を支援

エコシステムの拡大

高度なシミュレーション環境を提供
産業用ロボットのAI自動化を推進
自律移動ロボット高度なナビゲーション
多くのパートナーがNVIDIA技術を採用

NVIDIAは2025年10月27日、シンガポールで開催のロボット開発者会議「ROSCon 2025」で、ロボット開発の標準的オープンフレームワーク「ROS」を強化する複数の貢献を発表しました。GPUによる高速化や開発ツールの提供を通じ、次世代のPhysical AIロボット開発を加速させるのが狙いです。

今回の取り組みの核心は、ROS 2を実世界のアプリケーションに対応する高性能な標準フレームワークへと進化させる点にあります。NVIDIAはOpen Source Robotics Alliance (OSRA)の「Physical AI」分科会を支援し、リアルタイム制御やAI処理の高速化、自律動作のためのツール改善を推進します。

具体的には、ROS 2にGPUを直接認識・管理する機能を提供。これにより、開発者はCPUやGPUの能力を最大限に引き出し、高速な性能を実現できます。ハードウェアの急速な進化にROSエコシステム全体が対応可能となり、将来性も確保します。

開発効率化のため、性能ボトルネックを特定する「Greenwave Monitor」をオープンソース化。さらにAIモデル群「Isaac ROS 4.0」を最新プラットフォーム「Jetson Thor」に提供。ロボットの高度なAI機能を容易に実装できます。

これらの貢献は既に多くのパートナー企業に活用されています。AgileX Roboticsは自律移動ロボットに、Intrinsicは産業用ロボットの高度な把持機能に技術を採用。シミュレーションツール「Isaac Sim」も広く利用されています。

NVIDIAハードウェアからソフトウェア、シミュレーションまで一貫したプラットフォームを提供し、オープンソースコミュニティへの貢献を続けます。今回の発表は、同社が「Physical AI」の未来を築く基盤整備を主導する強い意志を示すものです。

Vertex AI強化、独自AIモデル開発をGoogleが支援

新サービス「Vertex AI Training」

企業独自の大規模モデル開発
マネージドSlurm環境を提供
数百〜数千チップの長期ジョブ
ハードウェア障害から自動復旧

競合との差別化と提供価値

AWS、CoreWeaveに対抗
多様なチップへのアクセス
Gemini開発の専門知識を活用
GPU調達の課題を解決

Google Cloudが、企業による独自の大規模AIモデル開発を支援する新サービス「Vertex AI Training」を発表しました。AWSや専門プロバイダーのCoreWeaveなどに対抗するもので、マネージドSlurm環境を提供し、大規模な計算資源へのアクセスを容易にします。

このサービスは、単純なファインチューニングやRAG(検索拡張生成)の利用者を対象としていません。ゼロからモデルを構築したり、大幅なカスタマイズをしたりする、数百から数千のチップを要する大規模なトレーニングジョブに焦点を当てています。

最大の特徴は、マネージドSlurm環境にあります。これにより、ジョブのスケジューリングやハードウェア障害発生時の自動復旧が実現します。ダウンタイムを最小限に抑え、大規模クラスタでの効率的なトレーニングを可能にするのです。

なぜ今、このようなサービスが求められるのでしょうか。背景には、企業がモデル開発に必要なGPUを確保する際の熾烈な競争があります。Vertex AI Trainingは、単なる計算資源のレンタルではなく、包括的な開発環境を提供することで競合との差別化を図ります。

Googleは、多様なチップへのアクセスや、自社のGeminiモデル開発で培った専門知識も提供価値として挙げています。既にシンガポールのAI Singaporeなどが早期顧客として名を連ねており、専門的なモデル開発の需要の高まりを示しています。

AI開発の生産性向上、ソフトウェアの断片化解消が鍵

AI開発を阻む「複雑性の壁」

断片化したソフトウェアスタック
ハードウェア毎のモデル再構築
6割超のプロジェクトが本番前に頓挫
エッジ特有の性能・電力制約

生産性向上への道筋

クロスプラットフォームの抽象化レイヤー
最適化済みライブラリの統合
オープン標準による互換性向上
ハードとソフトの協調設計

ArmをはじめとするAI業界が、クラウドからエッジまで一貫した開発を可能にするため、ソフトウェアスタックの簡素化を急いでいます。現在、断片化したツールやハードウェア毎の再開発がAIプロジェクトの大きな障壁となっており、この課題解決が開発の生産性と市場投入の速度を左右する鍵を握っています。

AI開発の現場では、GPUやNPUなど多様なハードウェアと、TensorFlowやPyTorchといった異なるフレームワークが乱立。この断片化が非効率な再開発を招き、製品化までの時間を浪費させています。調査会社ガートナーによれば、統合の複雑さを理由にAIプロジェクトの6割以上が本番前に頓挫しているのが実情です。

このボトルネックを解消するため、業界は協調した動きを見せています。ハードウェアの違いを吸収する抽象化レイヤーの導入、主要フレームワークへの最適化済みライブラリの統合、ONNXのようなオープン標準の採用などが進んでいます。これにより、開発者はプラットフォーム間の移植コストを大幅に削減できるのです。

簡素化を後押しするのが、クラウドを介さずデバイス上でAIを処理する「エッジ推論」の急速な普及です。スマートフォンや自動車など、電力や処理能力に制約のある環境で高性能なAIを動かすには、無駄のないソフトウェアが不可欠です。この需要が、業界全体のハードウェアとソフトウェアの協調設計を加速させています。

この潮流を主導するのが半導体設計大手のArmです。同社はCPUにAI専用の命令を追加し、PyTorchなどの主要ツールとの連携を強化。これにより開発者は使い慣れた環境でハードウェア性能を最大限に引き出せます。実際に、大手クラウド事業者へのArmアーキテクチャ採用が急増しており、その電力効率の高さが評価されています。

AIの次なる競争軸は、個別のハードウェア性能だけでなく、多様な環境でスムーズに動作する「ソフトウェアの移植性」に移っています。エコシステム全体で標準化を進め、オープンなベンチマークで性能を競う。こうした協調的な簡素化こそが、AIの真の価値を引き出し、市場の勝者を決めることになるでしょう。

Google、スパコン超え量子計算を初実証

新アルゴリズムで量子超越

新開発「Quantum Echoes」
スパコン13,000倍高速な計算
世界初の検証可能な量子計算

高性能チップが成果を支える

105量子ビットチップ『Willow』
極めて低いエラー率と高速動作

創薬・新素材開発への応用

分子構造の精密な解析が可能に
NMR技術を補完・強化する新手法
創薬や材料科学での活用に道

Googleは2025年10月22日、世界で初めて「検証可能な量子超越性」を実証したと発表しました。新開発の量子アルゴリズム「Quantum Echoes」と高性能量子チップ「Willow」を用い、特定の問題でスーパーコンピュータを13,000倍上回る計算速度を達成。この成果は、創薬や新素材開発など実社会の課題解決に向け、量子コンピュータの実用化を大きく前進させるものです。

今回の成果の最大の意義は、計算結果が正しいことを確認できる「検証可能性」を世界で初めて示した点にあります。これまでの量子超越性の実証は、計算は速いものの、その答えが正しいかどうかの確認が困難でした。結果の信頼性が担保されたことで、量子コンピュータは実験的な段階から、実用的な科学ツールへと進化する新たな扉を開いたと言えるでしょう。

中核をなす新アルゴリズム「Quantum Echoes」は、量子系に信号を送り、その「反響(エコー)」を捉えることで、分子や磁石などのシステムの構造を解明します。Googleはこのアルゴリズムを使い、スパコンでは数千年かかる計算をわずかな時間で実行。その圧倒的な速度差が、量子コンピュータのポテンシャルを改めて示しました。

この画期的な計算を支えたのが、105量子ビットを搭載した最新チップ「Willow」です。極めて低いエラー率とナノ秒単位の高速なゲート操作を両立。このハードウェアの精度と速度があったからこそ、複雑かつ精密な計算が求められる「Quantum Echoes」の実行が可能になったのです。まさに、ソフトウェアとハードウェアの両輪が生んだ成果です。

具体的な応用として、医療分野で使われるNMR(核磁気共鳴)技術との連携が期待されています。量子コンピュータでNMRデータを解析することで、従来の方法では見えなかった分子構造の詳細な情報を得ることが可能になります。これは、効果的な新薬の発見や、高性能なバッテリー材料など新素材の開発を加速させる可能性を秘めています。

Googleは、誤り訂正機能を備えた大規模量子コンピュータの実現を目指すロードマップを掲げています。今回の「検証可能な量子超越性」の実証は、その道筋における重要な一歩です。実用的なアプリケーションの登場が視野に入り始めた今、各業界のリーダーは、この革新的技術が自社のビジネスに何をもたらすか、注視していく必要があるでしょう。

AI気球が天気予報を変革、精度で世界一に

革新的なデータ収集

自律航行する気象気球
従来比数十倍のデータ量
観測空白域のデータを網羅
ハリケーンへの直接投入も

世界最高精度のAI

独自AIモデルWeatherMesh
Google、Huaweiを凌駕
従来モデルを最大30%上回る精度
低コストなGPUで高速運用

スタートアップWindBorne Systems社が、自律航行する気象気球と独自のAIモデル「WeatherMesh」を組み合わせ、世界で最も正確な天気予報システムを開発しました。従来手法では観測が困難だった広大な海洋上のデータを気球で収集し、AIで解析。これにより、ハリケーンの進路予測などで既存の主要モデルを上回る精度を達成し、防災や再生可能エネルギー、農業分野などでの活用が期待されています。

従来の天気予報は、観測データが乏しい海洋や砂漠などの「観測空白域」が存在することが大きな課題でした。特に、多くのハリケーンが発達する海洋上では、有人飛行機による観測は危険とコストを伴うためデータが不足しがちです。このデータ不足が、2024年のハリケーン「ミルトン」のような壊滅的な被害をもたらす異常気象の予測を困難にしていました。

この課題を解決するのが、同社が開発した長時間滞空型の気象気球です。従来の気球が数時間で破裂するのに対し、この気球は50日以上も上空に留まることが可能です。風を読んで高度を自律的に調整し、狙ったエリアのデータを収集します。実際にハリケーン「ミルトン」発生時には、安全な場所から放たれた気球がハリケーンの心臓部に到達し、貴重なデータを取得することに成功しました。

気球が収集した膨大なデータは、同社独自のAI予報モデル「WeatherMesh」に入力されます。このモデルはChatGPTなどにも使われるTransformer技術を基盤とし、競合であるGoogleのGraphCastやHuaweiのPangu-Weatherを上回る予測精度を記録しています。物理ベースの従来モデルと比較しても最大30%精度が高く、それでいて安価なGPUで高速に運用できる効率性も両立しています。

気球によるデータ収集とAIによる予測は、互いに連携する「エンドツーエンド」のシステムを形成しています。AIが予測精度向上に必要なデータ領域を特定し、気球群をその場所へ誘導。気球が収集した最新データが、さらにAIの予測精度を高めるという好循環を生み出します。同社はこの仕組みを「惑星の神経系」と呼び、地球全体の気象をリアルタイムで把握することを目指しています。

WindBorne社は将来的に、常時1万個の気球を飛行させ、地球全体をほぼ継続的に観測する体制を2028年までに構築する計画です。気候変動により異常気象が深刻化する中、高精度な気象予測は、社会のレジリエンスを高める上で不可欠なインフラとなるでしょう。AIとハードウェアを融合させたこのアプローチは、気象予測の新たなスタンダードになる可能性を秘めています。

リアルタイム音声偽装、ビッシング詐欺の新次元へ

技術的ハードルの低下

公開ツールと安価な機材で実現
ボタン一つでリアルタイム音声偽装
低品質マイクでも高精度な音声

詐欺への応用と脅威

遅延なく自然な会話で騙す手口
ビッシング」詐欺の成功率向上
本人なりすましの実験で実証済

新たな本人認証の必要性

音声・映像に頼れない時代へ
新たな認証手法の確立が急務

サイバーセキュリティ企業NCC Groupは2025年9月の報告書で、リアルタイム音声ディープフェイク技術の実証に成功したと発表しました。この技術は、公開ツールと一般に入手可能なハードウェアを使い、標的の声をリアルタイムで複製するものです。これにより、声で本人確認を行うシステムを突破し、より巧妙な「ビッシング」(ボイスフィッシング)詐欺が可能となり、企業や個人に新たな脅威をもたらします。

NCC Groupが開発したツールは、ウェブページのボタンをクリックするだけで起動し、遅延をほとんど感じさせることなく偽の音声を生成します。実演では、ノートPCやスマートフォンに内蔵されたような低品質マイクからの入力でも、非常に説得力のある音声が出力されることが確認されており、攻撃者が特別な機材を必要としない点も脅威です。

従来の音声ディープフェイクは、事前に録音した文章を読み上げるか、生成に数秒以上の遅延が生じるため、不自然な会話になりがちでした。しかし、この新技術はリアルタイムでの応答を可能にし、会話の途中で予期せぬ質問をされても自然に対応できるため、詐欺を見破ることが格段に難しくなります。

NCC Groupは顧客の同意を得て、この音声偽装技術と発信者番号の偽装を組み合わせた実証実験を行いました。その結果、「電話をかけたほぼ全てのケースで、相手は我々を本人だと信じた」と報告しており、この技術が実際の攻撃で極めて高い成功率を持つ可能性を示唆しています。

この技術の最も懸念すべき点は、その再現性の高さにあります。高価な専用サービスは不要で、オープンソースのツールと、一般的なノートPCに搭載されているGPUでもわずか0.5秒の遅延で動作します。これにより、悪意のある攻撃者が容易に同様のツールを開発し、攻撃を仕掛けることが可能になります。

音声だけでなく、ビデオディープフェイクの技術も急速に進歩していますが、高品質な映像をリアルタイムで生成するにはまだ課題が残ります。しかし専門家は、音声だけでも脅威は十分だと警告します。今後は「声や顔」に頼らない、合言葉のような新たな本人認証手段を企業や個人が導入する必要があるでしょう。

元Oculus創業者の会話AI、2.5億ドル調達し始動

元Oculus勢が描く未来

会話型AIスタートアップSesame
元Oculus創業者らが設立
シリーズBで2.5億ドルを調達
強力なハードウェア開発陣

自然な対話AIの衝撃

感情やリズムを直接生成する音声
初期デモは「自然」と高評価
iOSアプリのベータ版を公開
将来はスマートグラスに搭載

元Oculusの共同創業者らが設立した会話型AIスタートアップ「Sesame」が10月21日、シリーズBで2億5000万ドル(約375億円)の資金調達と、iOSアプリの早期ベータ版公開を発表しました。同社は、自然な人間の声で対話するパーソナルAIエージェントを開発しており、将来的には日常的に着用できる軽量なスマートグラスへの搭載を目指しています。

Sesameの技術は、単に大規模言語モデル(LLM)のテキスト出力を音声に変換するだけではありません。対話のリズムや感情、表現力を捉えて音声を直接生成する点に大きな特徴があります。今年2月に公開された音声デモは「本物の対話のようだ」と評され、公開後数週間で100万人以上がアクセスするなど、大きな注目を集めました。

この野心的なプロジェクトを率いるのは、元Oculus共同創業者のブレンダン・イリベCEOやネイト・ミッチェルCPO(最高製品責任者)らです。OculusやMetaハードウェア開発を率いた経験豊富な人材が集結しており、AIとハードウェアを高いレベルで融合させる独自の強みを持っています。

今回の資金調達と同時に、同社はiOSアプリの早期ベータ版を一部のテスター向けに公開しました。このアプリを通じて、ユーザーはSesameが開発するAI技術を先行体験できます。テスターは守秘義務契約を結び、公式フォーラム外での機能や結果に関する議論は禁じられています。

同社が目指す最終形は、AIアシスタントを搭載したスマートグラスです。ユーザーと共に世界を観察し、音声で対話できるコンパニオンの実現を目指します。ファッション性も重視し、AI機能がなくても選びたくなるようなデザインを追求しているとのことです。製品化の具体的な時期はまだ明かされていません。

今回の資金調達は、有力ベンチャーキャピタルのSequoiaやSparkなどが主導しました。創業チームの実績と革新的な技術が高く評価されており、音声インターフェースを核とした次世代プラットフォームへの市場の期待がうかがえます。

NVIDIA、オープンソースAIで開発者エコシステムを主導

PyTorchとの連携強化

急成長AIフレームワークPyTorch
CUDAにPythonを第一級言語として追加
開発を容易にするCUDA Pythonを公開
1日200万DL超の人気を支える

オープンソースへの貢献

Hugging Faceへの貢献でトップに
1000超のツールをGitHubで公開
500以上のモデルと100以上のデータセット
AIイノベーションの加速と透明性確保

NVIDIAは、開催中の「Open Source AI Week」において、オープンソースAIのエコシステム強化に向けた新たな取り組みを発表しました。急成長するAIフレームワークPyTorchとの連携を深め、開発者NVIDIAGPUをより容易に活用できるツールを公開。AIイノベーションの加速と、開発者コミュニティへの貢献を鮮明に打ち出しています。

今回の発表の核心は、NVIDIAの並列コンピューティングプラットフォーム「CUDA」に、プログラミング言語Pythonを第一級言語として正式対応させた点です。これにより、世界で数百万人に上るPyTorch開発者コミュニティは、GPUアクセラレーションの恩恵をこれまで以上に簡単に受けられるようになり、生産性の飛躍的な向上が期待されます。

具体的には「CUDA Python」がGitHubとPyPIを通じて公開されました。これはカーネルフュージョンやパッケージングを簡素化し、迅速なデプロイを可能にします。1日200万回以上ダウンロードされるPyTorchの人気を背景に、NVIDIAの基盤技術がAI開発の現場で不可欠な存在であり続けることを示しています。

NVIDIAの貢献はPyTorchに留まりません。同社はAIモデル共有プラットフォーム「Hugging Face」において、過去1年で最大の貢献者となりました。GitHubでは1,000以上のオープンソースツールを公開するなど、モデル、ツール、データセットを広く提供し、透明性の高いAI開発を推進しています。

一連の取り組みは、オープンな協業を通じて技術革新を主導するというNVIDIAの強い意志の表れです。自社の強力なハードウェアと、活発なオープンソースコミュニティを結びつけることで、AIエコシステム全体の発展を促し、業界におけるリーダーシップをさらに盤石なものにする狙いがあるでしょう。

AIアシスタント、期待先行で実用性に課題

AIの理想と現実

スマートホームで単純操作に失敗
LLMは万能解決策との期待
消費者向けキラーアプリは未登場
「面白い」と「役立つ」の大きな隔たり

Apple新製品と市場動向

AppleM5チップ搭載機を発表
チップ性能向上の影響は限定的か
TiVoがDVRハードウェア生産終了
Teslaサイバートラックは販売不振

米テックメディアThe Vergeは2025年10月17日のポッドキャストで、AIアシスタントがスマートホームで単純な指示さえこなせない現状を批判し、Appleの新型M5チップなど最新テック動向を議論しました。大規模言語モデル(LLM)への過剰な期待と、実際の製品の未熟さとのギャップが浮き彫りになっています。本稿では、その議論の核心に迫ります。

大規模言語モデル(LLM)は、あらゆる課題を解決する技術として注目されています。しかし、その実用性はまだ期待に追いついていません。番組では、専門家が「電気をつける」という基本的な操作すらAIアシスタントが満足にこなせなかった体験が語られました。これは、現在のAI技術が抱える根本的な課題を象徴する出来事と言えるでしょう。

AIアシスタントは、LLM技術の消費者向けキラーアプリと目されていますが、どの企業も決定的な製品を開発できていません。ChatGPTのような対話型AIは「使っていて面白い」ものの、それが「常に役立つ」レベルには達していないのが現状です。利用者が本当に求めるのは、いつでもどこでも全てを理解して助けてくれる存在ですが、その実現はまだ遠いようです。

一方でハードウェアの進化は着実に進んでいます。Appleは、独自開発のM5チップを搭載した新型MacBook Pro、iPad Pro、Vision Proを発表しました。チップの性能向上は確実ですが、多くのユーザーにとって、これが日々の利用体験をどれだけ向上させるかは未知数です。スペックの向上だけでは、消費者の心を掴むのが難しくなっているのかもしれません。

番組では他の注目すべき動向も紹介されました。録画機の草分けであるTiVoがDVRハードウェアの生産・販売を終了したことや、Teslaのサイバートラックが販売不振に陥っていることなどです。これらのニュースは、AIだけでなく、テクノロジー業界全体が大きな変革期にあることを示唆しています。

生成AIは過大評価、実態は500億ドル産業

過大評価されるAIの実態

1兆ドル産業のふりをした500億ドル産業
AIが万能薬という誇大広告
実力と宣伝の大きな乖離

揺らぐビジネスモデル

OpenAI巨額な赤字
予測不能なユーザーコスト
AIエージェント存在しないと断言
根拠の乏しい経済性

テック業界の著名な批評家エド・ジトロン氏は、Ars Technicaが主催したライブ対談で、現在の生成AI業界は実態とかけ離れたバブル状態にあると警鐘を鳴らしました。同氏は、生成AIが「1兆ドル産業のふりをした500億ドル産業」に過ぎないと指摘。OpenAIの巨額な赤字などを例に挙げ、その経済的な持続可能性に強い疑問を呈しています。

ジトロン氏の批判の核心は、AIの実力と宣伝の間に存在する大きな乖離です。「誰もがAIを、ソフトウェアやハードウェアの未来を担う万能薬であるかのように扱っている」と述べ、現状の熱狂は実態を反映していないと主張します。市場の期待値は1兆ドル規模にまで膨らんでいますが、実際の収益規模はその20分の1に過ぎないというのが同氏の見立てです。

その主張を裏付ける具体例として、ジトロン氏はOpenAI厳しい財務状況を挙げました。報道によれば、OpenAIは2025年の上半期だけで推定97億ドルもの損失を計上しています。この莫大なコスト構造は、現在の生成AI技術が持続可能なビジネスとして成立するのか、という根本的な問いを突きつけています。

ビジネスモデルにも脆弱性が見られます。AIのサブスクリプションサービスでは、ユーザー1人あたりのコンピューティングコストが月2ドルで済むのか、あるいは1万ドルに膨れ上がるのかを予測することが極めて困難です。このコストの不確実性は、安定した収益モデルの構築を阻む大きな障壁となり得ます。

さらにジトロン氏は、AIの技術的能力そのものにも踏み込みます。特に、自律的にタスクをこなすとされる「AIエージェント」については、「テクノロジー業界が語った最も悪質な嘘の一つ」と断じ、「自律エージェントは存在しない」と断言しました。技術的な限界を無視したマーケティングが、市場の過熱を招いていると批判しています。

AI導入を進める経営者やリーダーにとって、ジトロン氏の指摘は冷静な視点を与えてくれます。熱狂的な市場の雰囲気に流されることなく、自社の課題解決に本当に貢献するのか、費用対効果は見合うのかを厳しく見極める必要がありそうです。AIの真価を見極める目が、今まさに問われています。

GoogleのAI、核融合炉を制御 CFSと提携

AIで核融合開発を加速

AIでプラズマを最適制御
高速シミュレーターを活用
クリーンエネルギー実用化へ

次世代核融合炉「SPARC」

CFSが開発中の実験炉
史上初の純エネルギー生成目標
高温超電導磁石が鍵

AIの具体的な役割

数百万回の仮想実験を実施
エネルギー効率の最大化
複雑なリアルタイム制御の実現

Google傘下のAI企業DeepMindは2025年10月16日、核融合スタートアップのCommonwealth Fusion Systems(CFS)との研究提携を発表しました。DeepMindのAI技術と高速シミュレーター「TORAX」を用いて、CFSが建設中の次世代核融合炉「SPARC」の運転を最適化します。クリーンで無限のエネルギー源とされる核融合の実用化を、AIの力で加速させることが狙いです。

提携の核心は、AIによるプラズマ制御の高度化にあります。核融合炉では1億度を超えるプラズマを強力な磁場で閉じ込める必要がありますが、その挙動は極めて複雑で予測困難です。DeepMindは過去に強化学習を用いてプラズマ形状の安定化に成功しており、その知見をCFSの先進的なハードウェアに応用し、より高度な制御を目指します。

具体的な協力分野の一つが、高速シミュレーター「TORAX」の活用です。これにより、CFSは実験炉「SPARC」が実際に稼働する前に、数百万通りもの仮想実験を実施できます。最適な運転計画を事前に探ることで、貴重な実験時間とリソースを節約し、開発全体のスピードアップを図ることが可能になります。

さらにAIは、エネルギー生成を最大化するための「最適解」を膨大な選択肢から見つけ出します。磁場コイルの電流や燃料噴射など、無数の変数を調整する複雑な作業は人手では限界があります。将来的には、AIが複数の制約を考慮しながらリアルタイムで炉を自律制御する「AIパイロット」の開発も視野に入れています。

提携先のCFSは、マサチューセッツ工科大学発の有力スタートアップです。現在建設中の「SPARC」は、高温超電導磁石を用いて小型化と高効率化を実現し、投入した以上のエネルギーを生み出す「ネット・エネルギーを史上初めて達成することが期待される、世界で最も注目されるプロジェクトの一つです。

GoogleはCFSへの出資に加え、将来の電力購入契約も締結済みです。AIの普及で電力需要が急増する中、クリーンで安定したエネルギー源の確保は巨大テック企業にとって喫緊の経営課題となっています。今回の提携は、その解決策として核融合に賭けるGoogleの強い意志の表れと言えるでしょう。

AI巨大化は限界か、MITが収益逓減を指摘

MITが示す未来予測

大規模モデルの性能向上の鈍化
小規模モデルが効率化で台頭
今後5-10年で性能差は縮小

過熱するインフラ投資

OpenAIなどによる巨額の投資
専門家が指摘するバブルリスク
GPUの急速な価値下落リスク

今後の開発戦略

スケール一辺倒からの転換点
アルゴリズム改良の重要性

マサチューセッツ工科大学(MIT)の研究チームが、AI業界の主流であるモデルの巨大化戦略が近く「収益逓減の壁」に直面する可能性を指摘する研究を発表しました。計算資源の拡大による性能向上と、アルゴリズムの効率化による性能向上を比較分析したもので、現在の巨大なインフラ投資ブームに一石を投じる内容となっています。

研究によると、今後5年から10年の間に、アルゴリズムの効率化が進むことで、より少ない計算資源で動く小規模なモデルが、巨大モデルの性能に追いつき始めると予測されています。特に、推論能力を重視する最新モデルにおいて、この傾向は顕著になると分析。単純な規模拡大だけでは、競争優位性を保つのが難しくなるかもしれません。

この予測は、OpenAIなどが進める数千億ドル規模のAIインフラ投資とは対照的です。業界は計算能力のさらなる増強を目指していますが、専門家からはその持続可能性を疑問視する声も上がっています。特に、投資の大部分を占めるGPUは技術の進歩が速く、資産価値が急速に下落するリスクを抱えています。

もちろん、巨大テック企業の投資には、生成AIツールの需要爆発を見越した先行投資や、特定の半導体メーカーへの依存度を下げたいといった戦略的な狙いもあります。しかし、MITの研究は、業界がスケール一辺倒の戦略を見直す時期に来ていることを示唆しています。

これからのAI開発では、計算資源の拡大と並行して、より効率的なアルゴリズムを開発することの重要性が増すでしょう。ハードウェアへの投資だけでなく、ソフトウェアやアルゴリズムの革新にも目を向けることが、長期的なイノベーションの鍵を握ることになりそうです。

OpenAI、半導体大手BroadcomとカスタムAIハード提携

Broadcomとの戦略的提携

10GW分のカスタムAIアクセラレータ
2026年からデータセンターへ導入
モデル開発の知見をハードに反映
AIの能力と知能を新たなレベルへ

加速するインフラ投資

契約額は非公開、推定最大5000億ドル
AMDから6GW分のチップ購入
Nvidia1000億ドル投資表明
Oracleとも大型契約の報道

AI研究開発企業のOpenAIは10月14日、半導体大手のBroadcomと戦略的提携を結んだと発表しました。この提携に基づき、2026年から2029年にかけて10ギガワット相当のカスタムAIアクセラレータ・ラックを自社およびパートナーのデータセンターに導入します。独自の半導体設計により、AIモデル開発の知見をハードウェアに直接反映させ、性能向上を狙います。

OpenAIは「フロンティアモデルと製品開発から得た学びをハードウェアに直接組み込むことで、新たなレベルの能力と知能を解き放つ」と声明で述べています。ソフトウェアとハードウェア垂直統合を進めることで、AI開発のボトルネックを解消し、競争優位性を確立する狙いです。これはAI業界の大きな潮流となりつつあります。

今回の契約の金銭的条件は明らかにされていません。しかし、英フィナンシャル・タイムズ紙は、この取引がOpenAIにとって3500億ドルから5000億ドル規模にのぼる可能性があると推定しており、AIインフラへの桁外れの投資が浮き彫りになりました。

OpenAIはここ数週間でインフラ関連の大型契約を相次いで発表しています。先週はAMDから数十億ドル規模で6ギガワット分のチップを購入。9月にはNvidiaが最大1000億ドルの投資と10ギガワット分のハードウェア供給意向を表明しました。Oracleとも歴史的なクラウド契約を結んだと報じられています。

一連の動きは、AI性能向上が計算資源の確保に懸かっていることを示しています。サプライヤーを多様化し、自社に最適化されたハードウェアを手に入れることで、OpenAIは次世代AI開発競争で主導権を握り続ける構えです。業界の勢力図を大きく左右する動きと言えるでしょう。

AIと衛星で養殖支援、タイの新興企業が水質監視

Aquawiseの革新技術

AIと衛星画像で水質を監視
ハードウェア不要で低コスト
水温・酸素レベルを継続追跡
将来の水質変化を予測

東南アジア市場の課題

既存の監視機器は高価
年間約300億ドルの経済損失
手作業の検査に依存する現状

今後の展望

TechCrunch Disruptで発表
来年には資金調達を計画

タイのスタートアップ「Aquawise」が、AIと衛星画像を活用した養殖場の水質監視技術を開発しました。同社は10月27日からサンフランシスコで開催される技術カンファレンス「TechCrunch Disrupt 2025」でこの技術を発表します。東南アジアの養殖業者が抱える高コストな水質監視の課題を、ハードウェア不要のソリューションで解決し、水産業の生産性向上を目指します。

Aquawiseの技術は、魚やエビの養殖場を撮影した衛星画像を、物理ベースのAIモデルで解析する仕組みです。これにより、水温、クロロフィル、酸素レベルといった重要な指標を継続的に監視できます。従来の日次や週次の手動検査とは異なり、常時追跡と将来の変化予測が可能になる点が大きな強みです。

なぜ今、この技術が求められているのでしょうか。東南アジアでは、多くの養殖業者が既存のセンサーや水質検査キットを高価で導入できずにいます。水質の悪化は養殖魚の病気を誘発し、業界全体で年間約300億ドルもの経済的損失を引き起こしていると推定されており、安価で効果的な解決策が急務でした。

同社のアイデアは、当初ソナー(音波探知機)を用いるものでしたが、コストの壁に直面。より多くの業者が利用できるよう、衛星データ活用へと舵を切りました。19歳のCEO、Patipond Tiyapunjanit氏が率いるチームは「地域の生活向上に貢献したい」という強いビジョンを掲げています。

Aquawiseは現在、複数の養殖場と協力してデータを収集し、AIモデルの精度向上に注力しています。市場投入に向けた準備を進めるとともに、2026年には投資家からの資金調達も計画しています。養殖業は国連が「100億人の食を支える」と期待する急成長分野であり、同社の技術への関心は高まりそうです。

Acer、50TOPSのAI搭載Chromebookを投入

強力なオンデバイスAI

MediaTek製CPUを搭載
50TOPSのAI処理能力
高速・安全なオフラインAI
AIによる自動整理や画像編集

ビジネス仕様の高性能

360度回転する2-in-1設計
最大17時間の長時間バッテリー
最新規格Wi-Fi 7に対応
Gemini 2.5 Proが1年間無料

Googleは、Acer製の新型ノートPC「Acer Chromebook Plus Spin 514」を発表しました。最大の特徴は、MediaTek Kompanio Ultraプロセッサが実現する強力なオンデバイスAI機能です。オフラインでも高速に動作するAIが、ビジネスパーソンの生産性を飛躍的に高める可能性を秘めています。

新モデルは、50TOPSという驚異的なAI処理能力を備えています。これにより、タブやアプリを自動で整理する「スマートグルーピング」や、AIによる高度な画像編集デバイス上で直接、高速かつ安全に実行できます。機密情報をクラウドに送る必要がないため、セキュリティ面でも安心です。

ハードウェアもビジネス利用を強く意識しています。360度回転するヒンジでノートPCとタブレットの1台2役をこなし、14インチの2.8K高解像度タッチスクリーン、最大17時間持続するバッテリー、最新のWi-Fi 7規格への対応など、外出先でも快適に作業できる仕様です。

購入者特典として、Googleの最先端AIモデル「Gemini 2.5 Pro」や2TBのクラウドストレージを含む「Google AI Proプラン」が12ヶ月間無料で提供されます。これにより、文書作成やデータ分析といった日常業務がさらに効率化されるでしょう。

今回、デスクトップ型の「Acer Chromebox CXI6」と超小型の「Acer Chromebox Mini CXM2」も同時に発表されました。オフィスでの固定利用から省スペース環境まで、多様なビジネスシーンに対応する製品群で、AI活用を推進する姿勢がうかがえます。

OpenAI、Broadcomと共同でAIチップを開発・導入

OpenAIとBroadcomの提携

自社設計のAIアクセラレータ開発
Broadcomと共同でシステム構築
10ギガワットの導入を目指す
2026年後半から導入開始

戦略的背景と目的

Nvidiaへの依存低減が目的
モデル知見をハードウェアに組み込み
AI需要の急増に対応
AMD、Nvidiaとも提携済み

OpenAIは13日、半導体大手のBroadcomと戦略的提携を結び、自社で設計したAI向け半導体「アクセラレータ」の開発・導入を進めると発表しました。この提携は、AI計算に対するNvidiaへの依存を低減し、将来的なAI需要の急増に備えるための重要な一手です。

両社が共同で開発・導入を目指すのは、計10ギガワット規模のAIアクセラレータです。これは原子力発電所約10基分の電力に相当する膨大な計算能力を意味します。Broadcomは半導体の製造と、データセンターを繋ぐネットワーク機器の提供を担当します。

OpenAIサム・アルトマンCEOは「AIの可能性を解き放つための基盤構築に不可欠なステップだ」と述べています。自社でチップを設計することで、最先端のAIモデル開発で得た知見を直接ハードウェアに組み込み、新たな性能と知能を解き放つことを目指します。

この動きはOpenAIだけのものではありません。MetaGoogleといった巨大テック企業も、自社のAIサービスに最適化したカスタムチップの開発を急進させています。OpenAIも既にAMDやNvidiaと大規模な提携を結んでおり、サプライヤーの多元化を戦略的に進めています。

プロジェクトのスケジュールも明らかになりました。Broadcomによる機器の導入は2026年下半期から開始され、2029年末までに完了する予定です。これにより、OpenAIChatGPTSoraといったサービスを支える計算基盤を強化していきます。

Broadcomのホック・タンCEOは「AGI人工汎用知能)の追求における転換点だ」と協業の重要性を強調。同社にとっては、AIインフラ市場でのリーダーシップを確立する絶好の機会となります。両社の協力関係が、次世代のAI開発を加速させることになるでしょう。

AI時代のストレージ、SSDが主役へ

ストレージのボトルネック

AI需要でデータが「温かく」なる
HDDは低遅延処理に不向き
並列計算に性能不足
GPU活用を阻害する要因に

SSD導入のメリット

消費電力を大幅に削減
データセンター占有面積を9分の1に
建設資材のCO2を8割削減
GPUのさらなる規模拡大を可能

AIの普及が加速し、データセンターは深刻なストレージのボトルネックに直面しています。かつて保管されていたコールドデータが、AIモデルの精度向上のために頻繁に利用される「温かいデータ」へと変化。この転換に対応するため、低遅延で高性能なSSD(ソリッドステートドライブ)への移行が、AI時代のインフラ構築における必須戦略となっています。

従来のHDDは、多くの可動部品を持つため、AIが求める低遅延処理や高いIOPS(入出力操作)に対応できません。特にデータへの物理的アクセスが伴う遅延は、リアルタイムな推論や学習の障害となります。大規模化すればするほど、消費電力や冷却コストも増加するのです。

一方、高容量SSDは性能と効率で大きく上回ります。ある研究では、エクサバイト規模のストレージでSSDはHDD比で消費電力を77%削減データセンターの占有面積も9分の1に抑えられ、省電力・省スペース化で浮いたリソースをGPUの規模拡大に再投資できるのです。

この省スペース化は、サステナビリティにも貢献します。データセンター建設に必要なコンクリートや鋼材の使用量を8割以上削減できるほか、運用終了後のドライブ廃棄数も9割減少。環境負荷の低減が、企業価値向上にも繋がるのです。

これは単なるハードウェアの刷新ではなく、インフラ戦略の根本的な再構築です。今後は、GPUサーバーの熱管理に不可欠な液冷技術とSSDを組み合わせるなど、AIの要求に応える効率的な設計が主流となるでしょう。今こそ、ストレージ戦略を見直す時です。

AIアプリ基盤戦争、AppleがSiri刷新で反撃

挑戦者OpenAIの戦略

ChatGPT内で直接アプリ実行
旅行予約やプレイリスト作成
アプリストア陳腐化を狙う野心

王者Appleの対抗策

AIでSiriを大規模刷新
音声でアプリをシームレスに操作
開発者向けの新フレームワーク

Appleが持つ優位性

15億人の巨大な利用者基盤
ハードとOSの垂直統合エコシステム

OpenAIが、対話AI「ChatGPT」内で直接アプリを実行できる新機能を発表し、Appleが築いたアプリ市場の牙城に挑んでいます。これに対しAppleは、AIで大幅に刷新した音声アシスタントSiri」と新しい開発フレームワークで迎え撃つ構えです。AI時代のアプリ利用体験の主導権を巡り、巨大テック企業間の覇権争いが新たな局面を迎えています。

OpenAIが打ち出したのは、ChatGPTの対話画面から離れることなく、旅行の予約や音楽プレイリストの作成などを完結できる「アプリプラットフォーム」です。一部では、これがAppleApp Storeを時代遅れにする未来の標準になるとの声も上がっており、アプリ業界の勢力図を塗り替える可能性を秘めています。

一方、Appleは「アプリアイコンをなくし、アプリ自体は生かす」というビジョンを掲げています。AIで賢くなったSiriに話しかけるだけで、複数のアプリ機能をシームレスに連携させ、操作を完了させることを目指します。これは、従来のタップ中心の操作からの脱却を意味し、より直感的なユーザー体験の実現を狙うものです。

この競争において、Appleは圧倒的な強みを持ちます。世界で約15億人ともいわれるiPhoneユーザー基盤に加え、ハードウェア、OS、App Storeを自社で一貫して管理する強力なエコシステムです。ユーザーは既に使い慣れたアプリを所有しており、この牙城を崩すのは容易ではありません。

OpenAIのプラットフォームにも課題はあります。ユーザーはChatGPTのチャット形式のインターフェースに慣れる必要があり、アプリ利用には初回認証の手間もかかります。また、一度に一つのアプリしか操作できない制約や、アプリ独自のブランド体験が失われる点も指摘されています。

もちろんAppleも安泰ではありません。Siriはこれまで性能の低さで評判を落としており、汚名返上が不可欠です。しかし、開発者向けに提供される新しいフレームワーク「App Intents」により、既存アプリも比較的容易にAI機能に対応できる見込みで、巻き返しの準備は着々と進んでいます。

OpenAIは独自のハードウェア開発も模索していますが、今のところスマートフォンを超える体験は提示できていません。当面は、Appleが築いたプラットフォーム上で競争が続くとみられます。AppleSiriの刷新を成功させれば、AI時代のアプリ覇権を維持する可能性は十分にあるでしょう。

Together AI、LLM推論を4倍高速化する新技術

静的推論の限界

ワークロード変化で性能劣化
静的投機モデルの精度低下
再学習コストと迅速な陳腐化

適応型システムATLAS

リアルタイムで学習・適応
静的・適応型のデュアルモデル
専用チップに匹敵する処理性能
推論コストと遅延を削減

AI開発企業Together AIは2025年10月10日、大規模言語モデル(LLM)の推論速度を最大4倍に高速化する新システム「ATLAS」を発表しました。このシステムは、AIの利用状況の変化に合わせてリアルタイムで自己学習する「適応型投機実行」技術を採用。これまで企業のAI導入拡大を妨げてきた、ワークロードの変化に伴う性能劣化という「見えざる壁」を打ち破ることを目指します。

多くの企業が直面する課題は、AIのワークロードが変化すると推論速度が低下する「ワークロードドリフト」です。従来の推論高速化技術で使われる「静的投機モデル」は、一度固定データで訓練されるため、例えば開発言語がPythonからRustに変わるだけで予測精度が急落し、性能が劣化します。この問題はAI活用の拡大における隠れたコストとなっていました。

ATLASは、この課題を独自のデュアルモデル構造で解決します。広範なデータで訓練された安定的な「静的モデル」が基本性能を保証し、軽量な「適応型モデル」が実際のトラフィックから継続的に学習して特化します。さらに制御システムが両者を動的に切り替えることで、利用者は設定不要で常に最適な高速化の恩恵を受けられます。

この高速化の鍵は、計算資源の非効率性を突くアプローチにあります。通常の推論処理はGPUのメモリ性能に依存し、計算能力が十分に活用されていません。ATLASは一度に複数のトークン候補を生成・検証することで、メモリへのアクセス回数を抑えつつ、待機状態にあった計算能力を最大限に引き出し、スループットを劇的に向上させます。

その性能は目覚ましく、NVIDIAのB200 GPU上で特定モデルでは毎秒500トークンを達成。これはGroqなどの専用推論チップに匹敵、あるいは凌駕する水準です。ソフトウェアとアルゴリズムの改良が、高価な専用ハードウェアとの性能差を埋められることを示しており、AIインフラの常識を覆す可能性を秘めています。

ATLASはTogether AIのプラットフォームで追加費用なしで利用可能です。この技術は、AIの利用用途が多様化する企業にとって、性能のボトルネックを解消し、コストを抑えながらAI活用をスケールさせる強力な武器となるでしょう。静的な最適化から動的な適応へと向かうこの動きは、今後のAI推論エコシステム全体に大きな影響を与えそうです。

NVIDIA新GPU、AI推論で15倍の投資対効果

圧倒的なパフォーマンス

ベンチマーク性能・効率ともに最高
GPUあたり毎秒6万トークンの高速処理
ユーザーあたり毎秒1000トークンの応答性
ソフトウェア最適化で性能は継続的に向上

AI工場の新経済性

15倍の投資収益率(ROI)を達成
トークンあたりのコストを5倍削減
前世代比で電力効率が10倍向上
総所有コスト(TCO)を大幅に低減

NVIDIAは2025年10月9日、同社の最新GPUプラットフォーム「Blackwell」が、新しい独立系AI推論ベンチマーク「InferenceMAX v1」で最高性能と効率性を達成したと発表しました。500万ドルの投資15倍の収益を生むなど、圧倒的な費用対効果を示し、AIを大規模に展開する企業の新たな選択基準となりそうです。

この新ベンチマークは、AIが単純な応答から複雑な推論へと進化する現状を反映しています。単なる処理速度だけでなく、多様なモデルや実世界のシナリオにおける総計算コストを測定する初の独立系指標であり、その結果は企業の投資判断に直結します。

具体的な経済効果は目覚ましいものがあります。NVIDIA GB200 NVL72システムへの500万ドルの投資は、7500万ドル相当のトークン収益を生み出すと試算されており、投資収益率(ROI)は15倍に達します。これは「AI工場」の経済性を根本から覆すインパクトです。

総所有コスト(TCO)の面でも優位性は明らかです。B200 GPUはソフトウェアの最適化により、100万トークンあたりのコストをわずか2セントにまで削減しました。これは過去2ヶ月で5倍のコスト効率改善にあたり、継続的な性能向上を証明しています。

この圧倒的な性能は、ハードウェアとソフトウェアの緊密な協調設計によって実現されています。最新アーキテクチャに加え、推論ライブラリ「TensorRT-LLM」やオープンソースコミュニティとの連携が、プラットフォーム全体の価値を最大化しています。

AI活用が試行段階から本格的な「AI工場」へと移行する中、性能、コスト、電力効率といった多角的な指標が重要になります。NVIDIAのプラットフォームは、企業のAI投資における収益性を最大化するための強力な基盤となるでしょう。

Google、家庭向けGemini発表 AIでスマートホーム進化

AIで家庭がより直感的に

曖昧な指示での楽曲検索
声だけで安全設定を自動化
より人間的な対話を実現
複雑な設定が不要に

4つの主要アップデート

全デバイスにGeminiを搭載
刷新されたGoogle Homeアプリ
新サブスクHome Premium
新型スピーカーなど新ハード

Googleが、同社のスマートホーム製品群に大規模言語モデル「Gemini」を統合する「Gemini for Home」を発表しました。これにより、既存のGoogle HomeデバイスがAIによって大幅に進化し、利用者はより人間的で直感的な対話を通じて、家庭内のデバイスを操作できるようになります。今回の発表は、スマートホームの未来像を提示するものです。

Geminiは、利用者の曖昧な指示や感情的な要望を理解する能力が特徴です。例えば、曲名を知らなくても「あのキラキラした曲をかけて」と頼んだり、「もっと安全に感じたい」と話しかけるだけでセキュリティ設定の自動化を提案したりします。これにより、テクノロジーがより生活に溶け込む体験が実現します。

今回の発表には4つの柱があります。第一に、既存デバイスへのGemini for Homeの提供。第二に、全面的に再設計されたGoogle Homeアプリ。第三に、高度なAI機能を提供する新サブスクリプションGoogle Home Premium」。そして最後に、新しいGoogle Homeスピーカーを含む新ハードウェア群です。

これらのアップデートは、Googleのスマートホーム戦略が新たな段階に入ったことを示唆しています。AIを中核に据えることで、単なる音声アシスタントから、生活を能動的に支援するパートナーへと進化させる狙いです。経営者エンジニアにとって、AIが物理的な空間とどう融合していくかを考える上で重要な事例となるでしょう。

分散型強化学習でAIを民主化:Prime Intellectが挑むオープンLLM開発

AI開発のボトルネック解消

巨大企業に依存しないオープンLLM開発
AI能力拡張のボトルネック解消
強化学習(RL)を分散化しモデルを改善
INTELLECT-3など競争力あるモデル開発

分散型アプローチの仕組み

学習環境の構築をコミュニティに開放
特定のハードウェア非依存のトレーニング
専門知識が不要なAI開発の民主化
特定タスク向けエージェント創出を加速

スタートアップのPrime Intellectは、分散型強化学習(DRL)を活用し、競争力のあるオープンなフロンティア大規模言語モデル(LLM)「INTELLECT-3」を開発中です。これは、巨大テック企業に依存せず、世界中の多様なハードウェアを用いてAIモデルを構築し、AI開発を民主化することを目的としています。現在のAI界の二極化構造を変える可能性を秘めた動きとして注目されています。

今日、AIモデルの改善は、単純なデータや計算資源の増強だけでは難しくなっています。特に、プレトレーニング後の強化学習(RL)のプロセスが、モデルの能力拡張における最大のボトルネックです。このRLは通常、高度な専門知識と大量の計算資源が必要なため、これまで大手AI企業によってクローズドに行われてきました。

Prime Intellectは、この課題を打破するため、誰もが特定のタスクに特化した強化学習環境を作成できるフレームワークを提供しています。コミュニティと自社チームが作成した最良の環境を組み合わせることで、INTELLECT-3のチューニングを進めています。これにより、開発者手軽にRLを実行し、モデルの専門性を高めることが可能になります。

同社は以前にも分散型手法の有効性を示しています。2024年後半のINTELLECT-1、そして推論能力を向上させたINTELLECT-2をリリースし、分散型トレーニングの実現性を証明しました。Teslaの元AIチーム責任者であるアンドレイ・カーパシー氏も、Prime Intellectの強化学習環境の取り組みを「素晴らしいアイデア」として評価しています。

Prime Intellectの試みは、オープンソースAI市場における米国の存在感を高めることを目指しています。現在、オープンなフロンティアモデルは中国勢が優勢ですが、同社の技術が普及すれば、スタートアップ開発者が自ら高度なAIを構築・修正できるようになります。これにより、多種多様なタスクに特化した新たなAIエージェント製品の創出が期待されます。

AIネイティブ6Gが拓く新時代:エッジ推論とインフラ効率化

6G時代の革新的変化

AIトラフィック前提のネットワーク設計
接続性からエッジでのセンシング・推論
自律走行、製造業などAI駆動アプリを支援

AIネイティブ6Gの主要な利点

周波数・エネルギー極度の効率化
通信事業者への新規収益源創出
ソフトウェア定義型でイノベーションを加速
AIによるリアルタイムサイバーセキュリティ
エッジデータセンターでのAIサービス配信

次世代通信規格「6G」は、従来のネットワーク進化と異なり、設計段階からAIトラフィックを前提とし、AIを基盤とする「AI-native」として構築されます。NVIDIAは、米国主導で高性能かつセキュアなAI-native 6Gソリューション開発プロジェクト「AI-WIN」を推進しています。これは単なる通信速度の向上に留まらず、ネットワークのアーキテクチャと機能を根本的に再定義するものです。

6Gの中核は、ネットワークが接続性だけでなく、エッジで情報を「センシング(感知)」し「インファー(推論)」する能力を持つ点です。これにより、ネットワーク自体がAIサービスを供給するインフラとなります。自律走行車や精密農業、先進製造など、AI駆動型のミッションクリティカルな用途を数百億のエンドポイントで支える基盤が確立されます。

AIネイティブな設計は、無線ネットワークの最も重要な資源である周波数帯域の利用を最適化し、極度の効率性を実現します。エネルギー効率も向上し、運用コストを大幅に削減します。さらに、AI無線アクセスネットワーク(AI-RAN)への投資1ドルに対し、通信事業者は約5ドルのAI推論収益を期待できるとの試算もあり、新たな収益機会を生み出します。

従来の通信インフラは単一目的のハードウェア依存型でしたが、6Gはソフトウェア定義型RANアーキテクチャへと移行します。これにより、モバイル無線サービスとAIアプリケーションを共通のインフラスタックで実行可能となり、ハードウェア更新に依存しない迅速なイノベーションサイクルが実現します。この共通化は、通信事業者の設備投資効果を最大化します。

数十億のIoTデバイスが接続される6G時代において、サイバーセキュリティは不可欠です。AIモデルは膨大なデータストリームをリアルタイムで解析し、脅威の検出と自動的な対応を可能にします。国際的な競争が激化する中、米国はAIを組み込んだ強力な6Gネットワークを開発することで、透明性と信頼性に基づいた技術エコシステムの確立を目指しています。

Jony IveとAltman氏、AIハード開発の核心:「技術との関係修復」を最優先

新AIデバイスの目標設定

現行技術との「壊れた関係」を修復
生産性より情緒的な幸福を追求
ユーザーの不安・分断の軽減
人類が「より良いもの」に値するとの使命感

デザインと開発の哲学

AI能力に見合う新しいデバイス群
スクリーン中心からの脱却を志向
直感的で必然的デザイン哲学
邪魔にならないAIコンパニオンの実現

OpenAIのDev Dayで、元Appleの伝説的デザイナーであるJony Ive氏とSam Altman CEOが、極秘のAIハードウェアプロジェクトについて初めて詳細な哲学を明らかにしました。OpenAIがIve氏のハードウェアスタートアップIoを65億ドルで買収して以来、注目を集めてきた同プロジェクトの目標は、単なる生産性向上ではなく、「人間と技術の壊れた関係を修復する」ことです。

Ive氏は、現行のテクノロジーとの関係を「最もひどい過小評価」だと厳しく指摘しました。iPhoneを生み出し、現代のデジタル依存を確立した彼自身が、そのデバイスが生んだ不安や断絶を解消することを、自身のポストApple時代の使命と位置づけています。このプロジェクトの根底には、人類への奉仕という強い使命感があります。

この新しいデバイス群の究極の目標は、効率性よりも情緒的なウェルビーイングにあります。Ive氏は「生産性も重要だが、ツールは我々を幸福に、より平和に、そして不安を軽減させるべきだ」と語りました。シリコンバレー生産性至上主義から明確に一線を画す設計思想です。

Ive氏は、ChatGPTのような画期的なAI能力を、数十年前の設計思想に基づく「時代遅れの製品」で提供するのは不合理だと主張します。彼らが目指すのは、スクリーン中心の現状からの脱却です。カメラやマイクで環境を認識する掌サイズのデバイスなど、「デバイスのファミリー」が示唆されています。

ビジョンは明確な一方で、開発は難航しています。AIの進歩があまりに速すぎるため、現在15〜20もの魅力的な製品アイデアが生まれており、Ive氏自身が焦点の絞り込みに苦慮していることを認めました。これがプロジェクト遅延の背景にあるようです。

このAIは、ユーザーに対して「アクセス可能だが、邪魔にならない」コンパニオンとして機能するよう設計されます。「奇妙なAIガールフレンド」のような、ユーザーに不快な体験を与えるAI像を避けることが目標です。デザインにおいては、ジョブズ氏との時代を彷彿とさせる「必然的」で「明白」な解決策を追求します。

超伝導量子演算の基礎を確立、Google科学者がノーベル物理学賞受賞

量子コンピューティングの基礎

2025年ノーベル物理学賞を受賞。
受賞者はGoogleデヴォレ氏ら3名。
超伝導量子ビットの基礎を構築。
マクロスケールでの量子効果を実証。

超伝導量子技術の進展

ジョセフソン接合を用いた回路開発。
チップ上で量子力学の法則を制御。
量子コンピューター実用化への道筋。
Google量子AI研究の基盤に。

Googleの量子AIチームでチーフサイエンティストを務めるミシェル・デヴォレ氏らが、2025年ノーベル物理学賞を受賞しました。今回の受賞は、現代の超伝導量子コンピューティングの基礎を築いた、マクロスケールでの量子効果に関する画期的な研究が評価されたものです。元Googleのジョン・マーティニス氏らとの共同受賞となります。

彼らの功績は、これまで原子レベルでの現象と考えられてきた量子力学の法則を、チップ上の電気回路で実証・制御可能にした点です。特に電気抵抗のない超伝導回路に「ジョセフソン接合」を組み込むことで、このマクロな量子現象を引き起こしました。

このジョセフソン接合は、現在Google Quantum AIが開発を進める超伝導量子ビット(Qubit)の基盤技術となっています。デヴォレ氏らの研究があったからこそ、Googleは2019年の「量子超越性」達成や、昨年のWillowチップ開発といった大きな進展を遂げることができました。

Googleは彼らの研究に基づき、解決不可能とされる問題に取り組むため、量子ハードウェア開発ロードマップを着実に進めています。今回の受賞は、基礎研究が数十年後に現在の最先端技術を支える力となっていることを示す、深い証しと言えるでしょう。

なお、Googleは今回のデヴォレ氏を含め、現在までに5名のノーベル賞受賞者(在籍者および卒業生)を輩出しています。2024年にはAI分野の功績で、ディープマインドのデミス・ハサビス氏やジェフリー・ヒントン氏らがノーベル賞を受賞しており、同社のイノベーション文化が改めて注目されています。

Google、スマートホーム戦略を抜本改革:AI「Gemini」で家庭内体験を一新

停滞打破とAI戦略

Googleスマートホームの再活性化が急務
Geminiを中核とするAI戦略を推進
現行AI技術で家庭内体験を変革

Geminiの変革力

ユーザーとの自然な対話を重視
次世代スマートホームの実現を目指す
Google製品責任者が戦略を直接説明

事業戦略の焦点

ハードウェアプラットフォームの役割を議論
理想のスマートホーム実現にはまだ課題

Googleは、フラッグシップAIモデルであるGemini」を中核に据え、スマートホームプラットフォームの抜本的な再構築に乗り出しています。これまでGoogle HomeやNest製品は競合に後れを取り停滞気味でしたが、同社はこの現状を打破し、AIによって家庭内体験を根本から変革できると確信しています。製品責任者への取材を通じ、次世代スマートホーム戦略の全容が明らかになりました。

同社は、長年にわたり製品を開発しつつも、途中で戦略を放棄してきた歴史があるとの批判にさらされてきました。スマートホームもその一つと見なされがちでしたが、Googleは依然としてこの分野にコミットしています。特に、現在のAI技術が家庭内でのデバイスとの相互作用を劇的に変化させると強調しており、Geminiはその実現の鍵を握ります。

Geminiの導入は、従来の音声アシスタントの限界を超え、より文脈を理解した自然な操作を可能にすると期待されます。AIがユーザーの行動や意図を学習し、自宅にあるあらゆる機器との連携を最適化する狙いです。これにより、ユーザーはよりシームレスで直感的なスマートホーム体験を得られるようになります。

戦略上の重要な論点として、Googleが単なるハードウェアメーカーに留まるのか、それともオープンなプラットフォーム提供者として業界全体を牽引するのかが議論されています。製品責任者は、Geminiを活用することで、どちらの立場であってもスマートホーム全体を向上させられると見ています。この戦略の明確化は、提携企業やデベロッパーにも大きな影響を与えます。

Googleは、Geminiによる変革を確信する一方で、我々が理想とする真にインテリジェントなスマートホームの実現にはまだ道のりがあることを認めています。AIを活用した新しいGoogle Homeスピーカーなどの具体的な製品投入に加え、プラットフォームとしての進化を継続し、市場価値と生産性を高めるコネクテッドホームの実現を目指しています。

OpenAI DevDay 2025開幕、アルトマンとIve氏がAI戦略を議論

発表予測と戦略シフト

AIブラウザAIデバイスの進捗発表
GPT Storeの機能強化やエージェント機能
API提供からプラットフォーム構築への移行

注目イベントと登壇者

アルトマンCEOとJony Ive氏の特別対談
開発者向け新機能を紹介するState of the Union
動画生成モデルSoraによるSora Cinema」の公開

高まる市場競争

AnthropicGoogleによるコーディング分野での追撃
Meta Superintelligence Labsによる新たな脅威増大

OpenAIは10月6日(月)、サンフランシスコで年次開発者会議「DevDay 2025」を開催しました。今回の最大の焦点は、CEOサム・アルトマン氏と元Appleデザイナージョニー・アイブ氏による対談です。同社は生成AI市場での競争激化を受け、ChatGPTやAPI提供にとどまらない戦略的な製品拡大を強く示唆しています。

アルトマン氏は基調講演で、開発者向けの新機能やデモを発表する予定です。特に注目されるのは、現在開発中のAI搭載ブラウザや、アイブ氏らと共同で進めているAIデバイスの進捗状況です。OpenAIは、競合他社に対抗するため、ハードウェアやプラットフォーム分野への進出を加速しています。

アルトマン氏とアイブ氏の対談は、イベント終盤のハイライトです。「AI時代における創造の技術(craft of building)」について議論される予定であり、これはAIデバイスの設計思想やユーザー体験に深く関わるものと見られています。この対談はライブ配信されず、後にYouTubeで公開されます。

開発者コミュニティへの対応も強化されます。社長のグレッグ・ブロックマン氏らによる「Developer State of the Union」では、プラットフォームの新機能やロードマップが公開されます。GPT Storeのアップデートや、開発者エージェント的なワークフローを構築できる新機能も予測されています。

一方で、OpenAIは厳しい市場競争に直面しています。AnthropicGoogleのAIモデルは、コーディングやWebデザインといった分野で急速に性能を向上させており、OpenAIより高性能なモデルを低価格で提供することを迫られています。

その他の注目コンテンツとして、動画生成モデルSoraを利用した短編映画を上映する「Sora Cinema」が用意されています。これは、OpenAIソーシャルメディアアプリやエンターテイメントを含むコンテンツ生成分野へも積極的に事業を広げていることを示しています。

Ive氏とOpenAIのAIデバイス、「計算資源」と「人格」で開発難航

開発を阻む主要な課題

AIモデル実行のための計算資源不足。
大規模生産に向けたコストと予算の問題。
「常にオン」によるプライバシー懸念。

AIアシスタントの設計

アシスタントの「人格」設定の難しさ。
ユーザーとの会話の開始・終了の判断。
Siriを超える「友人」としての体験追求。

デバイスの基本仕様

画面がない手のひらサイズデザイン
カメラ、マイク、スピーカーでの対話機能。

OpenAIと元Appleデザイナーであるジョニー・アイブ氏が共同開発中の秘密のAIデバイスが、現在、複数の技術的難題に直面しています。特に、必要な計算資源(Compute)の確保と、AIアシスタントの「人格」設定が解決すべき重要な課題です。これらの問題が、2026年後半または2027年を目指す製品のリリースを遅らせる可能性があります。

最も深刻な課題の一つは、大規模な消費者向けデバイスでOpenAIのモデルを稼働させるための計算インフラストラクチャの確保です。関係者によると、OpenAIChatGPTに必要な計算資源さえ確保に苦慮しており、AIデバイスの量産体制に十分な予算とリソースを割くことができていません。

また、デバイスの「人格」設計も難航しています。目標はSiriよりも優れた、ユーザーの「友人」のようなAI体験ですが、「変なAIの彼女」にならないよう、声やマナーを慎重に決める必要があります。AIがいつ会話に参加し、いつ終了すべきかの判断も鍵です。

このデバイスは、特定プロンプトではなく、環境データを継続的に収集する「常にオン」の設計を目指しています。これにより、アシスタントの「記憶」を構築できますが、ユーザーのプライバシー保護に関する懸念も同時に高まっています。この機密データの取り扱いが重要です。

アイブ氏のioチームが設計するこのデバイスは、画面を持たない手のひらサイズで、マイク、スピーカー、カメラを通じて外界と対話します。サム・アルトマンCEOらは、このガジェットをAI時代の新たなキラープロダクトとして市場に投入したい考えです。

現状の課題は、AIハードウェア開発における技術的な成熟度を示しています。OpenAIは、Amazon AlexaやGoogle Homeが持つリソースとは異なる、独自のインフラ戦略を確立する必要に迫られています。製品化には、デザインとAI技術の両面でのブレイクスルーが求められます。

AMDとOpenAI、6GW超大型提携でAI半導体市場の勢力図を変える

提携の規模と内容

6GW(ギガワット)分のInstinct GPUを複数世代にわたり導入
2026年後半からInstinct MI450シリーズを1GW展開開始
AMDは「数百億ドル」規模の収益を想定

戦略的な資本連携

OpenAI最大1億6000万株のAMD株ワラント付与
ワラント行使は導入規模と株価目標達成に連動
OpenAIにAMDの約10%の株式取得オプション

AIインフラ戦略

Nvidia支配に対抗するAMDの市場攻略
OpenAIはAIチップ調達先を多角化
AI需要は天井知らず、コンピューティング能力確保が最優先

半導体大手AMDとAI開発のOpenAIは10月6日、複数世代にわたるInstinct GPUを供給する総量6ギガワット(GW)に及ぶ超大型戦略的パートナーシップを発表しました。この提携は、AIインフラの構築を急ぐOpenAIの需要に応えるとともに、Nvidiaが圧倒的なシェアを持つAIチップ市場において、AMDが強力な地位を確立する大きな一歩となります。

契約の経済規模は極めて大きく、AMDは今後数年間で「数百億ドル」規模の収益を見込んでいます。最初の展開として、2026年後半に次世代GPUであるInstinct MI450シリーズの1GW導入が開始されます。両社はハードウェアとソフトウェア開発で技術的知見を共有し、AIチップの最適化を加速させる方針です。

提携の特筆すべき点は、戦略的利益を一致させるための資本連携です。AMDはOpenAIに対し、特定の導入マイルストーンやAMDの株価目標達成に応じて、最大1億6000万株(発行済み株式の約10%相当)の普通株を取得できるワラントを発行しました。

OpenAIは、サム・アルトマンCEOがAIの可能性を最大限に引き出すためには「はるかに多くのコンピューティング能力が必要」と語る通り、大規模なAIインフラの確保を最優先課題としています。同社は先月、Nvidiaとも10GW超のAIデータセンターに関する提携を結んでおり、特定のサプライヤーに依存しない多角化戦略を明確に示しています。

OpenAIはAMDを「中核となる戦略的コンピューティングパートナー」と位置づけ、MI450シリーズ以降の将来世代の技術開発にも深く関与します。これにより、AMDはOpenAIという最先端のユーザーから直接フィードバックを得て、製品ロードマップを最適化できるという相互利益が生まれます。

AIインフラに対する世界的な需要が天井知らずで拡大する中、この巨額なチップ供給契約は、データセンターの「ゴールドラッシュ」を象徴しています。両社は世界で最も野心的なAIインフラ構築を可能にし、AIエコシステム全体の進歩を牽引していく構えです。

AIが農業用水の3割削減に成功、Instacrops

AI灌漑最適化の成果

水使用量を最大30%削減
作物収穫量を最大20%向上
労働コストと運用人員を削減

技術とデータ活用

毎時1,500万件のデータを処理
土壌水分やNDVIなど80以上の指標を分析
IoTセンサー網に接続しデータ収集

提供形態と市場

灌漑アドバイスをWhatsAppで提供
ラテンアメリカの高付加価値作物に注力

チリ発のアグリテック企業Instacropsは、AIを活用した水管理ソリューションにより、農地の水使用量を最大30%削減し、収穫量を20%増加させることに成功しました。世界的な渇水問題に対応し、農業分野の生産性を劇的に高めています

農業は世界の淡水の70%を消費する「喉の渇いた産業」であり、特にチリやインドなどの地域では90%以上に上ります。Instacropsは、この深刻な水不足という課題に対し、AIによる緻密な灌漑最適化という形でソリューションを提供しています。

同社の中核技術は、既存または新規のIoTセンサーネットワークからデータを収集し、大規模言語モデル(LLM)で分析することです。土壌水分、気温、湿度に加え、衛星画像由来の植物生産性指標(NDVI)など80以上のパラメーターを毎時1500万件処理します。

Instacropsは、収集したデータに基づき、農家に対してモバイル端末で最適な灌漑タイミングを通知します。農家にとって普及率の高いWhatsAppとの連携を強化しており、高度な設備を持つ農場では灌漑システムをAIが直接制御することも可能です。

Instacropsは元々、霜害警告のためのIoTハードウェア開発で創業しましたが、ハードウェアの汎用化に伴い、ソフトウェアとAIを活用した水管理へと事業を転換しました。このピボットにより、少ない人員でより多くのデータを扱い、コスト削減と市場へのインパクト拡大を両立しています。

現在、同社はリンゴ、アボカド、ブルーベリーなどのラテンアメリカの高付加価値作物に焦点を当てています。農家は農地面積に応じた年間利用料を支払うことで、AIによる高度な灌漑インサイトを得ることができます。

AIの雄ナヴィーン・ラオ氏、新会社でNvidiaに挑戦

新会社の野心的な構想

社名はUnconventional社
AI向け新型コンピュータ開発
カスタム半導体とサーバー基盤
目標は生物学レベルの効率性

異例の巨額資金調達

評価額50億ドル目標
調達目標額は10億ドル
a16zがリード投資家
古巣Databricksも出資

米Databricksの元AI責任者ナヴィーン・ラオ氏が、新会社「Unconventional」を設立し、AIハードウェア市場の巨人Nvidiaに挑みます。同社は、50億ドル(約7500億円)の評価額で10億ドル(約1500億円)の資金調達を目指しており、著名VCのAndreessen Horowitz (a16z)が投資を主導すると報じられました。AIの計算基盤そのものを再定義する壮大な挑戦が始まります。

ラオ氏が目指すのは、単なる半導体開発ではありません。彼がX(旧Twitter)で語ったビジョンは「知性のための新しい基盤」。生物学と同等の効率性を持つコンピュータを、カスタム半導体とサーバーインフラを統合して作り上げる計画です。これは、現在のAI開発における計算コストとエネルギー消費の課題に対する根本的な解決策となり得るでしょうか。

この挑戦を支えるため、シリコンバレーのトップ投資家が集結しています。リード投資家a16zに加え、Lightspeed、Lux Capitalといった有力VCが参加。さらに、ラオ氏の古巣であるDatabricksも出資者に名を連ねており、業界からの高い期待が伺えます。すでに数億ドルを確保し、10億ドルの調達完了を待たずに開発に着手するとのことです。

ラオ氏は、これまでにも2社のスタートアップを成功に導いた実績を持つ連続起業家です。AIモデル開発の「MosaicML」は2023年にDatabricksが13億ドルで買収。それ以前に創業した「Nervana Systems」は2016年にIntelが4億ドル超で買収しました。彼の持つ技術力と事業構想力が、今回も大きな成功を生むのか注目が集まります。

生成AIの爆発的な普及により、その頭脳であるAI半導体の需要は急増しています。市場をほぼ独占するNvidia一強体制に対し、Unconventional社の挑戦が風穴を開けることができるのか。AIインフラの未来を占う上で、同社の動向から目が離せません。

Google、量子計算加速へMIT発新興企業を買収

買収の概要

量子ハードウェア開発チームが合流
大規模量子コンピュータ開発の加速

注目の独自技術

独自技術モジュラーチップスタック
量子ビットと制御回路を極低温で統合
ハードウェア拡張性を大幅に向上

目指す将来像

誤り耐性量子コンピュータの実現へ
未解決の社会問題解決への応用

Googleは2025年10月2日、同社の量子AI部門にマサチューセッツ工科大学(MIT)発のスタートアップ、Atlantic Quantumのチームが加わると発表しました。同社の持つ独自のハードウェア技術を取り込むことで、大規模な誤り耐性量子コンピュータの開発を加速させる狙いです。この動きは、実社会の課題解決に向けた量子コンピューティング開発競争が新たな段階に入ったことを示唆しています。

今回のチーム合流の決め手は、Atlantic Quantumが持つ「モジュラーチップスタック」技術です。これは、量子コンピュータの心臓部である量子ビットと、それを制御する電子回路を極低温環境下で高密度に統合する革新的なアプローチであり、これまで技術的課題とされてきたハードウェアの拡張性(スケーラビリティ)を大幅に向上させることが可能になります。

この技術統合により、Googleの量子プロセッサ開発は一層加速することが期待されます。チップの設計・製造が効率化され、より多くの量子ビットを安定して搭載できるようになるためです。実用的な量子コンピュータの実現にはハードウェアの規模拡大が不可欠であり、今回のチーム合流はその重要な一歩と言えるでしょう。

Googleが目指す最終目標は、計算エラーを自動訂正する「誤り耐性」を持つ大規模量子コンピュータの構築です。これが実現すれば、創薬や材料開発、金融モデル最適化など、従来手法では解決不可能だった問題に取り組めるようになります。社会に大きな利益をもたらす技術への投資を、同社は今後も続ける方針です。

量子コンピューティング分野では、巨大IT企業間の開発競争が激化しています。今回の発表は、Googleハードウェアスケーリングという核心的課題に対し、外部の優れた知見を取り込んででも解決を急ぐという強い意志の表れです。今後の技術開発の進展から目が離せません。

グーグル、家庭向けAI「Gemini」で事業刷新

Geminiがもたらす変化

文脈を理解し自然な会話を実現
複雑な指示や例外処理にも対応
カメラ映像をAIが意味的に理解・要約

新製品とビジネスモデル

Geminiに最適化された新Nest製品群
Google Homeスピーカー(2026年春)
高度AI機能は月額10ドル〜の新プラン
既存デバイスもAIアップグレード対象

米グーグルは10月1日、同社のスマートホーム事業を生成AI「Gemini」で全面的に刷新すると発表しました。従来のGoogleアシスタントを「Gemini for Home」に置き換え、より自然で文脈を理解する対話を実現します。合わせて、AIに最適化された新しいNestカメラやドアホン、刷新されたGoogle Homeアプリを公開。高度なAI機能は月額10ドルからの新サブスクリプション「Google Home Premium」で提供し、ビジネスモデルの転換を図ります。

今回の刷新の核となるのが、家庭向けに最適化されたAI「Gemini for Home」です。これにより、スマートスピーカーやディスプレイとの対話が、単純なコマンドの応酬から、文脈を維持した自然な会話へと進化します。「オフィスの照明以外すべて消して」といった複雑な指示や例外を含む命令も理解できるようになり、ユーザー体験が大きく向上します。

Geminiの能力を最大限に引き出すため、ハードウェアも刷新されました。新しい「Nest Cam」と「Nest Doorbell」は2K HDRの高画質映像に対応。AIが映像を意味的に理解し、「配達員が荷物を置いた」といった具体的な状況を通知します。さらに、Geminiに特化した新型「Google Home Speaker」も2026年春の発売が予告されており、より高速でスムーズなAIとの対話が期待されます。

管理アプリである「Google Home」も大幅に刷新されました。パフォーマンスと安定性が向上し、UIはシンプルな3タブ構成に変更。新たに搭載された「Ask Home」機能を使えば、自然言語で「子供が帰宅したのは何時?」と尋ねて関連映像を探したり、「日没後に玄関のライトを点灯する」と話すだけで自動設定を作成したりすることが可能になります。

ビジネスモデルも大きく変わります。従来のNest Awareは「Google Home Premium」へと名称変更。月額10ドルからのプランに加入することで、AIによる映像要約「Home Brief」や、連続会話が可能な「Gemini Live」などの高度な機能を利用できます。これは、ハードウェア販売に加え、サブスクリプションによる継続的な収益確保を狙うグーグルの戦略を明確に示しています。

グーグルは、既存ユーザーを重視する姿勢も示しています。過去10年間に発売されたほぼすべてのGoogle HomeおよびNestデバイスが、早期アクセスプログラムを通じてGeminiへアップグレード可能になります。また、ウォルマートと提携して低価格なAI対応デバイスを投入するなど、自社製品だけでなく他社にも技術を開放するプラットフォーム戦略で、スマートホーム市場での主導権を狙います。

AIの電力危機、MITが示す技術的解決策

急増するAIの環境負荷

日本の総消費電力を上回る規模
需要増の60%を化石燃料に依存

ハード・ソフト両面の対策

GPU出力を抑える省エネ運用
アルゴリズム改善で計算量を削減
再生可能エネルギー利用の最適化

AIで気候変動を解決

AIによる再エネ導入の加速
プロジェクトの気候影響スコア化

マサチューセッツ工科大学(MIT)の研究者らが、急速に拡大する生成AIの環境負荷に対する具体的な解決策を提示しています。国際エネルギー機関(IEA)によると、データセンター電力需要は2030年までに倍増し、日本の総消費電力を上回る見込みです。この課題に対し、研究者らはハードウェアの効率運用、アルゴリズムの改善、AI自身を活用した気候変動対策など、多角的なアプローチを提唱しています。

AIの電力消費は、もはや看過できないレベルに達しつつあります。ゴールドマン・サックスの分析によれば、データセンター電力需要増の約60%が化石燃料で賄われ、世界の炭素排出量を約2.2億トン増加させると予測されています。これは、運用時の電力だけでなく、データセンター建設時に排出される「体現炭素」も考慮に入れる必要がある、と専門家は警鐘を鳴らします。

対策の第一歩は、ハードウェアの運用効率化です。MITの研究では、データセンターGPU画像処理半導体)の出力を通常の3割程度に抑えても、AIモデルの性能への影響は最小限であることが示されました。これにより消費電力を大幅に削減できます。また、モデルの学習精度が一定水準に達した時点で処理を停止するなど、運用の工夫が排出量削減に直結します。

ハードウェア以上に大きな効果が期待されるのが、アルゴリズムの改善です。MITのニール・トンプソン氏は、アルゴリズムの効率改善により、同じタスクをより少ない計算量で実行できる「Negaflop(ネガフロップ)」という概念を提唱。モデル構造の最適化により、計算効率は8~9ヶ月で倍増しており、これが最も重要な環境負荷削減策だと指摘しています。

エネルギー利用の最適化も鍵となります。太陽光や風力など、再生可能エネルギーの供給量が多い時間帯に計算処理を分散させることで、データセンターのカーボンフットプリントを削減できます。また、AIワークロードを柔軟に調整する「スマートデータセンター」構想や、余剰電力を蓄える長時間エネルギー貯蔵ユニットの活用も有効な戦略です。

興味深いことに、AI自身がこの問題の解決策となり得ます。例えば、AIを用いて再生可能エネルギー発電所の送電網への接続プロセスを高速化したり、太陽光・風力発電量を高精度に予測したりすることが可能です。AIは複雑なシステムの最適化を得意としており、クリーンエネルギー技術の開発・導入を加速させる強力なツールとなるでしょう。

生成AIの持続可能な発展のためには、こうした技術的対策に加え、企業、規制当局、研究機関が連携し、包括的に取り組むことが不可欠です。MITの研究者らは、AIプロジェクトの気候への影響を総合的に評価するフレームワークも開発しており、産官学の協力を通じて、技術革新と環境保全の両立を目指す必要があると結論付けています。

Amazon、AI『Alexa+』で全デバイス刷新し収益化へ

Alexa+がもたらす進化

より自然で複雑な会話の実現
文脈を理解した高度な推薦
外部サービスとの連携強化
新カスタムチップで高速処理

刷新された主要製品群

高性能化した新Echoシリーズ
会話AI搭載のFire TV
4K対応・顔認識するRing
カラー表示対応Kindle Scribe

Amazonは9月30日、ニューヨークで開催した秋のハードウェアイベントで、新型の生成AIアシスタント『Alexa+』を搭載したEcho、Fire TV、Ringなどの新製品群を発表しました。長年収益化が課題だったデバイス事業の立て直しに向け、高性能な新デバイスとAIによる付加価値の高い体験を組み合わせ、新たな成長戦略の柱に据える構えです。

Alexa+の最大の特徴は、より自然で複雑な対話能力です。従来の単純なコマンド応答だけでなく、文脈を理解した上での映画推薦や、視聴中のコンテンツに関する詳細な質問への回答、複数の外部サービスを連携させたタスク実行などが可能になります。これにより、ユーザーの日常生活に深く溶け込むアシスタントへと進化を遂げようとしています。

このAIの能力を最大限に引き出すため、デバイスも大幅に刷新されました。新型の『Echo Dot Max』や『Echo Studio』には、AI処理に特化したカスタムチップ『AZ3』『AZ3 Pro』を搭載。これにより、音声認識の精度や応答速度が向上し、よりスムーズな対話体験を実現します。デザインも高級感を増し、従来よりも高価格帯に設定されています。

家庭のエンターテインメントの中核であるFire TVもAlexa+によって大きく変わります。例えば「あの俳優が出ている西部劇を見せて」といった曖昧な指示や、「この映画のあのシーンを探して」といった具体的なシーン検索にも対応。視聴体験を中断することなく、関連情報を音声で取得できるようになります。

スマートホームセキュリティ分野でもAI活用が進みます。新型Ringカメラは、4K解像度に対応するとともに、登録した顔を認識する『Familiar Faces』機能を搭載。家族と不審者を区別して通知することが可能です。さらに、近隣のRingユーザーと連携して迷子ペットを探す『Search Party』など、ユニークなコミュニティ機能も追加されました。

Amazonは、これらの高性能デバイスとAlexa+が提供するプレミアムな体験を新たな収益源とすることを目指しています。Alexa事業の赤字脱却という長年の課題に対し、ハードウェアとソフトウェア、そしてAIを三位一体で進化させる戦略を打ち出しました。ユーザーがこの新しい価値に対価を支払うかどうかが、今後の成功を占う鍵となりそうです。

AIチップCerebras、IPO計画遅延も11億ドル調達

大型資金調達の概要

Nvidiaのライバルが11億ドルを調達
企業評価額81億ドルに到達
Fidelityなどがラウンドを主導
累計調達額は約20億ドル

成長戦略とIPOの行方

AI推論サービスの需要が急拡大
資金使途はデータセンター拡張
米国製造拠点の強化も推進
規制審査でIPOは遅延、時期未定

NVIDIAの競合である米Cerebras Systemsは9月30日、11億ドルの資金調達を発表しました。IPO計画が遅延する中、急拡大するAI推論サービスの需要に対応するため、データセンター拡張などに資金を充当します。

今回のラウンドはFidelityなどが主導し、企業評価額81億ドルと評価されました。2021年の前回ラウンドから倍増です。2015年設立の同社は、累計調達額が約20億ドルに達し、AIハードウェア市場での存在感を一層高めています。

資金調達の背景は「推論」市場の爆発的成長です。2024年に開始したAI推論クラウドは需要が殺到。アンドリュー・フェルドマンCEOは「AIが実用的になる転換点を越え、推論需要が爆発すると確信した」と語り、事業拡大を急ぎます。

調達資金の主な使途はインフラ増強です。2025年だけで米国内に5つの新データセンターを開設。今後はカナダや欧州にも拠点を広げる計画です。米国内の製造ハブ強化と合わせ、急増する需要に対応する供給体制を構築します。

一方で、同社のIPO計画は足踏み状態が続いています。1年前にIPOを申請したものの、アブダビのAI企業G42からの投資米国外国投資委員会(CFIUS)の審査対象となり、手続きが遅延。フェルドマンCEOは「我々の目標は公開企業になることだ」と述べ、IPOへの意欲は変わらないことを強調しています。

今回の大型調達は、公開市場の投資家が主導する「プレIPOラウンド」の性格を帯びており、市場環境を見極めながら最適なタイミングで上場を目指す戦略とみられます。AIインフラ競争が激化する中、Cerebrasの今後の動向が注目されます。

Amazon秋の祭典、AI搭載Alexaと新ハード発表へ

AIで進化するAlexa

AIアシスタント'Alexa Plus'の機能更新
ChatGPTGeminiなど競合AIへの対抗策

KindleとEchoの新モデル

5年ぶりとなる標準Echoの刷新か
ペン対応のカラー版Kindle Scribe
小型カラーKindleのリーク情報も

テレビと新OSへの期待

Android非依存の新OS'Vega OS'搭載TV
新TVハードウェア発表の可能性
その他サプライズ製品への期待

Amazonは2025年9月30日に秋のハードウェア発表イベントを開催します。AIアシスタント「Alexa」の大規模アップデートや、新型「Echo」「Kindle」の発表が期待されています。特に生成AIを搭載した「Alexa Plus」の進化が最大の焦点です。

AIアシスタント市場では、OpenAIChatGPTGoogleGeminiとの競争が激化しています。Amazonにとって「Alexa Plus」は競争を勝ち抜くための鍵となります。今回のイベントでは、現在早期アクセスで展開中の同アシスタントの正式リリースや新機能の発表が期待されます。

主力製品であるEchoシリーズの刷新も期待されます。特に標準モデルの「Echo」は2020年以来アップデートがなく、新型の登場が待たれています。イベント招待状にはEchoを象徴する青いリングが描かれており、新モデルへの期待を高めています。

電子書籍リーダーKindleにも新たな動きがありそうです。中でも、スタイラスペンで手書き入力が可能な「Kindle Scribe」にカラーディスプレイ搭載モデルが登場する可能性が濃厚です。ビジネスや学習用途での利便性が飛躍的に向上するでしょう。

テレビ事業でも大きな転換点が訪れるかもしれません。Amazonは、現在のAndroidベースOSに代わる独自の新OS「Vega OS」を導入すると噂されています。この新OSと対応ハードウェアの発表が注目されます。

今回のイベントは、2023年にMicrosoftから移籍したパノス・パネイ氏がデバイス部門を率いてから初の大規模な製品発表会です。彼のリーダーシップの下で、ハードとAIサービスがどう連携・進化するのか。その戦略を占う重要な機会となるでしょう。

Meta、ロボットOSで覇権狙う AR級の巨額投資

ボトルネックはソフトウェア

ARに次ぐ数十億ドル規模投資
ハードウェアではなくソフトウェアが開発の鍵
器用な操作を実現するAIモデルが不可欠

「ロボット界のAndroid」構想

自社製ロボットMetabot」も開発
他社へソフトウェアをライセンス供与
プラットフォームで業界標準を狙う

専門家集団による開発体制

元Cruise CEOがチームを統括
MITなどからトップ人材を結集

Metaは、ヒューマノイドロボット開発を拡張現実(AR)に次ぐ大規模な投資対象と位置付けていることを明らかにしました。同社のアンドリュー・ボスワースCTOによると、数十億ドル規模を投じ、ハードウェアではなくソフトウェア開発に注力します。開発したプラットフォームを他社にライセンス供与する「ロボットAndroid」とも言える戦略で、急成長する市場の主導権を握る構えです。

なぜソフトウェアが重要なのでしょうか。ボスワース氏は「ハードウェアは難しくない。ボトルネックはソフトウェアだ」と断言します。ロボットがコップを絶妙な力加減で掴むといった器用な操作は極めて困難であり、この課題を解決するため、AIが現実世界をシミュレーションする「ワールドモデル」の構築が不可欠だと説明しています。

Metaの戦略は、自社でハードウェアを製造し販売することではありません。社内で「Metabot」と呼ばれるロボットを開発しつつも、その核心技術であるソフトウェアを他社ロボットメーカーに広くライセンス供与する計画です。これはGoogleAndroid OSでスマートフォン市場のエコシステムを築いた戦略と類似しており、オープンなプラットフォームで業界標準となることを目指します。

この野心的な計画を支えるのが、Metaが新設した「Superintelligence AI lab」です。このAI専門組織がロボティクスチームと緊密に連携し、ロボット知能を司るAIモデルを開発します。ボスワース氏は「このAIラボがなければ、このプロジェクトは実行しなかった」と述べ、AI開発能力が自社の最大の強みであるとの認識を示しました。

このアプローチは、テスラが開発する「Optimus」とは一線を画します。ボスワース氏は、人間の視覚を模倣してデータを集めるテスラの手法について「ロボット用のデータをどうやって十分に集めるのか疑問だ」と指摘。Metaシミュレーションワールドモデルを駆使して、このデータ問題を解決しようとしています。

Metaの本気度は、集結した人材からも伺えます。自動運転企業Cruiseの元CEOであるマーク・ウィッテン氏がチームを率い、MITから「現代最高の戦術ロボット工学者」と評されるキム・サンベ氏を招聘。社内のトップエンジニアも結集させ、盤石な体制でこの巨大プロジェクトに挑みます。

NVIDIAクラウドゲーム強化、人気メカアクションなど10作追加

NVIDIAは今週、クラウドゲーミングサービス「GeForce NOW」に新作メカアクション『Mecha BREAK』など10タイトルを追加しました。最新描画技術「DLSS 4」に対応し、高品質なストリーミング体験を提供します。また、『Alan Wake 2』などがGeForce RTX 5080対応となり、LG電子との連携も発表されるなど、サービス全体の強化が進んでいます。 新たに追加された『Mecha BREAK』は、多様なメカを操りチーム対戦を繰り広げるマルチプレイヤーゲームです。DLSS 4技術により、クラウド経由でも鮮明なビジュアルと滑らかなフレームレートを実現。デバイスを問わず、いつでもどこでも迫力あるアクションを楽しめる点が大きな魅力です。 カプコンの人気法廷ゲーム『逆転裁判123 成歩堂セレクション』も対応しました。シリーズ初期3作品を収録し、デバイスを問わず手軽に法廷バトルを楽しめます。このほかPC Game Pass対応の新作など計10タイトルが今週追加され、ゲームの選択肢がさらに広がりました。 高性能ストリーミングも強化しており、新たに『Alan Wake 2』などがGeForce RTX 5080サーバー対応タイトルに追加されました。最高峰のグラフィックス性能を要求するゲームも、クラウドを通じて快適にプレイできます。ユーザーは手元のデバイス性能に依存せず最新ゲームを楽しめるのが利点です。 ハードウェアとの連携も進んでいます。LG電子は、世界で初めてGeForce NOWの4K 120fpsストリーミングにネイティブ対応したOLEDテレビを発表しました。これを記念したキャンペーンも実施しており、クラウドゲーミングがリビングの大画面でより手軽に楽しめる環境が整いつつあります。

MS、Windows MLを正式公開。AIアプリ開発を加速へ

マイクロソフトは9月25日、開発者がAI機能をWindowsアプリに容易に組み込めるプラットフォーム「Windows ML」を正式公開しました。これにより、応答性が高く、プライバシーに配慮し、コスト効率の良いAI体験の構築を支援します。Windows 11 24H2以降で利用可能で、PCのCPUやGPU、NPUを最適に活用します。AdobeやMcAfeeなどのソフトウェア企業が既に対応を進めています。 Windows MLは、PC搭載のCPU、GPU、NPU(Neural Processing Unit)を最適に使い分ける「ハードウェア抽象化レイヤー」として機能します。AIの処理内容に応じて最適なハードウェアを自動で割り当てるため、開発者はアプリケーションの性能を最大限引き出せます。これにより、複雑なハードウェア管理から解放されるのです。 既にAdobe、McAfee、Topaz Labsといった大手ソフトウェア企業が、開発段階からWindows MLの採用を進めています。各社は今後リリースする製品に、同プラットフォームを活用したAI機能を搭載する計画です。Windowsエコシステム全体でのAI活用の加速が期待されます。 具体的な活用例として、Adobeは動画編集ソフトでNPUを使い高速なシーン検出を実現します。McAfeeはSNS上のディープフェイク動画や詐欺の自動検出に活用。Topaz Labsも画像編集ソフトのAI機能開発に利用しており、応用分野は多岐にわたります。 マイクロソフトWindows MLを通じて、WindowsアプリへのAI実装を効率化し、OS自体の魅力を高める狙いです。ローカルでのAI処理は応答速度やプライバシー保護、コスト削減に繋がります。今後、同様のAI体験を提供するアプリの増加が見込まれます。

Clarifai、AI推論エンジンで処理速度2倍・コスト4割減

AIプラットフォームのClarifaiは25日、AIモデルの実行速度を2倍にし、コストを40%削減する新しい推論エンジンを発表しました。既存ハードウェアの性能を最大限引き出す多様な最適化技術を搭載し、複雑なAIの計算負荷増大に対応します。 新エンジンの性能は第三者機関によるベンチマークテストで検証済みです。スループット(処理能力)とレイテンシー(遅延)の両方で業界最高水準を記録。これにより、同じハードウェアでより多くの処理を高速に実行できることが客観的に示されました。 高速化は、学習済みAIモデルを運用する「推論」処理に特化した最適化で実現されます。同社CEOによると、CUDAカーネルレベルの最適化から高度な投機的デコーディング技術まで、様々なソフトウェア技術を組み合わせているとのことです。 開発の背景には、単一の指示で複数ステップの思考を要するエージェント型AIの台頭があります。こうしたモデルは計算負荷が極めて高く、推論コストの増大が課題でした。新エンジンは特にこうした多段階処理を行うモデル向けに調整されています。 AIブームによるGPU需要の急増を受け、同社はAIの計算オーケストレーション(最適管理)に注力しています。CEOは「巨大データセンター需要に対し、アルゴリズム革新はまだ終わっていない」と述べ、ハードウェア増強だけでなくソフトウェアによる最適化の重要性を強調しました。

Skild AI、脚を失っても歩くロボット開発 汎用AIで損傷に適応

米国のAIスタートアップSkild AIが、脚を切断されるなど極端な物理的損傷を受けても動作し続けるロボットを制御する、汎用AIアルゴリズム「Skild Brain」を開発しました。この技術は、単一のAIが多様なロボットを操作し、未知の身体形状や損傷に即座に適応する画期的なものです。従来のデータ収集の課題を克服し、ロボット知能の飛躍的な進歩を目指します。 この技術の核心は「omni-bodied brain(万能ボディの脳)」というコンセプトです。共同創業者兼CEOのディーパック・パサック氏が提唱するこの考え方は、「あらゆるロボット、あらゆるタスクを単一の脳でこなす」というもの。特定のハードウェアやタスクに特化せず、極めて高い汎用性を持つAIモデルの構築が目的です。 従来のロボットAI開発では、シミュレーションや遠隔操作を通じて学習させていましたが、十分な量の多様なデータを集めることが大きな課題でした。Skild AIのアプローチは、多種多様な物理ロボットを単一のアルゴリズムで学習させることでこの問題を解決。これにより、AIは未知の状況にも対応できる、より一般的な能力を獲得します。 その適応能力は驚異的です。実験では、AIが学習データに含まれていないロボットの制御に成功。四足歩行ロボットを後ろ足だけで立たせると、まるで人間のように二足で歩き始めました。これは、AIが自身の身体状況をリアルタイムで把握し、最適な動作を自律的に判断していることを示唆しています。 さらに、脚を縛られたり、切断されたりといった極端な物理的変化にもAIは即座に適応しました。車輪を持つロボットのモーターを一部停止させても、残りの車輪でバランスを取りながら走行を継続。AIが持つ高い自己修正能力が実証された形です。この能力は、予測不可能な事態が起こりうる現場での活用に大きな可能性を秘めています。 この汎用技術は歩行ロボットに限りません。Skild AIは同様のアプローチをロボットアームの制御にも応用し、照明の急な変化といった環境変動にも対応できることを確認済みです。すでに一部の企業と協業しており、製造現場などでの実用化に向けた取り組みが始まっています。 市場からの評価も高く、同社は2024年に3億ドルを調達し、企業価値は15億ドルに達しました。トヨタ・リサーチ・インスティテュートなども汎用ロボットAIを開発していますが、多様なハードウェアへの対応力でSkild AIは際立っています。この技術は、ロボットの自律性を飛躍的に高める「物理的な超知能」の萌芽として期待されています。

著名VCが断言「AGIより量子コンピュータが未来を拓く」

著名ベンチャーキャピタリストのアレクサ・フォン・トーベル氏が、次の技術革新の波として量子コンピューティングに大きな期待を寄せています。同氏が率いるInspired Capitalは最近、量子コンピュータ開発を手がけるスタートアップ「Logiqal」社に投資しました。AIの計算需要がインフラを再定義する中で、量子コンピュータこそがAGI(汎用人工知能)以上に科学的発見を解き放つと、同氏は考えています。 なぜ今、量子コンピュータなのでしょうか。フォン・トーベル氏は、AIの急速な進化が背景にあると指摘します。AIが必要とする膨大な計算能力は、既存のインフラを根本から変えつつあります。この大きな変化が、量子コンピュータのような次世代技術の成功確率を高める土壌になっていると分析しています。同氏は量子を「AIの次の革新の波」と位置づけています。 投資先として、同氏はソフトウェアではなくハードウェア開発に焦点を当てました。特に、数あるアプローチの中でも「中性原子」方式に高い将来性を見出しています。そして、この分野の第一人者であるプリンストン大学のジェフリー・トンプソン教授が率いるLogiqal社への出資を決めました。まずは実用的な量子コンピュータを構築することが最優先だと考えています。 量子コンピュータが実現すれば、社会に計り知れない価値をもたらす可能性があります。フォン・トーベル氏は、製薬、材料科学、物流、金融市場など、あらゆる分野で革新が起こると予測します。人間の寿命を20〜30年延ばす新薬の開発や、火星探査を可能にする新素材の発明も夢ではないと語っており、「地球を動かす」ほどのイノベーションになるとしています。 量子分野は、AI分野と大きく異なると同氏は指摘します。世界の量子専門家は数百人程度と非常に限られており、才能の真贋を見極めやすいといいます。一方、AI分野では専門家を自称することが容易で、多くの企業がブランドやスピード以外の持続的な競争優位性、つまり「堀」を築けていないのが現状です。巨大IT企業が優位な市場で、スタートアップが生き残るのは容易ではありません。

LLMの情報漏洩対策、準同型暗号でデータを秘匿したまま処理

プライバシー技術専門企業のDuality社は、大規模言語モデル(LLM)への問い合わせを秘匿したまま処理するフレームワークを開発しました。データを暗号化したまま計算できる完全準同型暗号(FHE)という技術を活用し、ユーザーの質問とLLMの回答をすべて暗号化します。これにより、企業の機密情報や個人情報を含むやり取りでも、情報漏洩リスクを懸念することなくLLMの恩恵を受けられるようになります。 このフレームワークの核心は、FHEによるエンドツーエンドの機密性保護です。ユーザーが入力したプロンプトはまずFHEで暗号化され、LLMに送信されます。LLMはデータを復号することなく暗号化された状態で処理を行い、生成した回答も暗号化したままユーザーに返します。最終的な結果は、ユーザーの手元でのみ復号されるため、途中でデータが盗み見られる心配がありません。 Duality社が開発したプロトタイプは、現在GoogleのBERTモデルなど、比較的小規模なモデルに対応しています。FHEとLLMの互換性を確保するため、一部の複雑な数学関数を近似値に置き換えるなどの調整が施されています。しかし、この変更によってもモデルの再トレーニングは不要で、通常のLLMと同様に機能する点が特長です。 FHEは量子コンピュータにも耐えうる高い安全性を誇る一方、大きな課題も抱えています。それは計算速度の遅さです。暗号化によってデータサイズが膨張し、大量のメモリを消費します。また、暗号文のノイズを定期的に除去する「ブートストラッピング」という処理も計算負荷が高く、実用化のボトルネックとなってきました。 Duality社はこれらの課題に対し、アルゴリズムの改良で挑んでいます。特に機械学習に適した「CKKS」というFHE方式を改善し、効率的な計算を実現しました。同社はこの技術をオープンソースライブラリ「OpenFHE」で公開しており、コミュニティと連携して技術の発展を加速させています。 アルゴリズムの改良に加え、ハードウェアによる高速化も重要な鍵となります。GPUASIC(特定用途向け集積回路)といった専用ハードウェアを活用することで、FHEの処理速度を100倍から1000倍に向上させることが可能だとされています。Duality社もこの点を重視し、OpenFHEにハードウェアを切り替えられる設計を取り入れています。 FHEで保護されたLLMは、様々な分野で革新をもたらす可能性があります。例えば、医療分野では個人情報を秘匿したまま臨床結果を分析したり、金融機関では口座情報を明かすことなく不正検知を行ったりできます。機密データをクラウドで安全に扱う道も開かれ、AI活用の可能性が大きく広がるでしょう。

OpenAI、AIハードウェア開発か 元Appleデザイナーと協業

OpenAIが、元Appleのチーフデザインオフィサーであるジョニー・アイブ氏と提携し、複数のAIハードウェア開発を検討していると報じられました。関係者の話として、すでにAppleの製品組立業者であるLuxshareと契約を結んだとされています。 開発が噂されるデバイスは多岐にわたります。最も有力なのは「ディスプレイのないスマートスピーカー」に似た製品です。この他にも、スマートグラスやデジタル音声レコーダー、身につけられるピン型デバイスなどが候補に挙がっている模様です。 この動きは、OpenAIサム・アルトマンCEOが以前から語っていた「デバイスファミリー」構想を具体化するものと言えるでしょう。最初の製品は2026年後半から2027年初頭の発売が目標とされており、ソフトウェア中心だった同社の大きな戦略転換となりそうです。 生産体制の構築も進んでいます。iPhoneやAirPodsの生産を担うLuxshareやGoertekなど、Appleのサプライチェーンネットワークを活用する動きが報じられました。これにより、高品質な製品の安定供給を目指す狙いがあると考えられます。 ハードウェア開発は人材獲得競争にも発展しています。元Appleの製品デザイン責任者がOpenAIハードウェア責任者に就任するなど、Appleからの人材流出が顕著です。これは、巨大テック企業間の新たな競争の火種となる可能性を秘めています。

OpenAI、人型ロボット開発を強化 AGI競争の新局面へ

AI開発をリードするOpenAIが、AGI(汎用人工知能)実現に向けた次の一手として人型ロボット開発を本格化させています。同社は最近、人型ロボット向けAIシステムの専門研究者の採用を開始しました。これは、物理世界でタスクを実行する能力がAGI開発の鍵になるとの認識が業界で高まっていることを示唆します。TeslaやFigure AIなど先行企業との競争が激化しそうです。 なぜ今、人型ロボットなのでしょうか。その理由は、ロボットが人間用に設計された環境で活動できる点にあります。階段を上るなど物理的なタスクを通じた学習が、より高度な知能の獲得につながると考えられています。文章生成は得意でも「コーヒーを淹れる」ことができない現在のAIの限界を超える狙いです。 OpenAIは2021年にロボティクス部門を一度閉鎖しましたが、再びこの分野に注力し始めました。AIの次なるブレークスルーとして、物理世界を理解する「ワールドモデル」の構築が重要視されています。ロボット開発はその鍵を握るプロジェクトと位置づけられているのです。 人型ロボット市場では、すでに多くの企業が開発競争を繰り広げています。TeslaやFigure AI、Boston Dynamicsなどが有力なプレイヤーです。中国のUnitreeは低コストなロボットで市場に参入。OpenAIは先行するハードウェア企業に対し、得意のAIアルゴリズムで優位性を築く戦略です。 人型ロボット市場は2050年までに5兆ドル規模に達するとの予測もあり、期待が高まっています。しかし、SNSで目にする見事なデモ動画は、特定の条件下でしか成功しない場合も少なくありません。未知の環境で安定して動作する信頼性の確保が、実用化に向けた最大の課題と言えるでしょう。 実用化はまず、工場や倉庫といった産業現場から進む見通しです。Amazonは倉庫内で、現代自動車は工場で人型ロボットの試験導入を開始しています。危険で単調な作業の代替が主な目的です。各家庭で活躍する「ロボット執事」の実現はまだ先になりそうです。 今後の技術的な焦点は、ハードとソフトの両面にあります。人間の手のように繊細な作業をこなすハードウェアは依然として難題です。また、未知の状況にも対応できる汎用的なAIモデルも欠かせません。AIの「幻覚」が物理世界で起きないよう、安全性と信頼性の確保が最優先されます。

NVIDIAのBlackwell、AI工場を駆動する新プラットフォーム

NVIDIAは最新アーキテクチャ「Blackwell」を、単なる半導体チップではなく「AI工場」を駆動するプラットフォームだと説明します。次世代AIモデルはパラメータ数が1兆を超えると予測され、膨大な計算需要が生まれています。Blackwellはこうした需要に応えるべく、システム全体で性能を追求する設計思想に基づいています。 その中核がラック規模システム「NVIDIA GB200 NVL72」です。これは単一の巨大GPUとして動作するよう設計され、AI推論の効率を劇的に高めます。重さ1.5トンのラックに60万以上の部品と約3.2kmの配線が詰め込まれ、ハードウェアとソフトウェアが密に統合されています。 性能の源泉は、2つのBlackwell GPUと1つのGrace CPUを統合した「Grace Blackwellスーパーチップ」です。高速インターコネクト技術「NVIDIA NVLink」で直結し、CPUとGPUがメモリを直接共有します。これによりAIワークロードの遅延を減らし、スループットを高めます。 GB200 NVL72内では「NVLink Switch」が性能ボトルネックを防ぎます。5,000本以上の銅線ケーブルが72基のGPUを網の目のように接続。毎秒130テラバイトという驚異的な速度でデータを移動させます。これはインターネット全体のピーク時トラフィックを1秒未満で転送できる速度に匹敵します。 AI工場では数万台のGB200 NVL72が一体で機能する必要があります。これを「Spectrum-X Ethernet」や「Quantum-X800 InfiniBand」といったネットワーク技術が実現。データセンターレベルでの統一的な動作を可能にし、全GPUが工場内のデータネットワークへ直接接続される仕組みを構築します。 データセンターという巨大なコンピュータを動かすOSが「NVIDIA Dynamo」です。多数のGPUにまたがるAI推論リクエストを調整・最適化し、需要に応じてGPUリソースを動的に割り当てます。これにより工場全体の生産性と収益性を最大化し、運用コストを低減します。 Blackwellはもはや単なるチップではなく、次世代の産業革命を支えるAI工場のエンジンです。すでに世界最大級のコンピューティングクラスターがこのアーキテクチャを基盤に構築されており、AIによるイノベーションをさらに加速させていくことが期待されます。

AWS、カスタムML環境と厳格な統制を両立する新手法を発表

Amazon Web Services(AWS)は、企業がカスタム構築した機械学習(ML)環境の柔軟性を維持しつつ、MLライフサイクル全体のガバナンスを強化する新手法を発表しました。多くの企業はコンプライアンスや独自アルゴリズムの最適化といった特殊な要件から、標準プラットフォームではなく独自の開発環境を構築します。しかし、こうした環境はMLライフサイクル管理の複雑化という課題を抱えていました。 この課題を解決するのが、AWS Deep Learning Containers (DLCs) とAmazon SageMakerのマネージドMLflowの統合です。DLCsはTensorFlowやPyTorchなどのフレームワークが最適化されたDockerコンテナを提供し、特定の要件に合わせた開発環境の構築を容易にします。これにより、開発者インフラ構築の手間を省き、モデル開発に集中できます。 一方、SageMakerのマネージドMLflowは、実験のパラメータ、メトリクス、生成物を自動で記録し、モデルの系統を完全に追跡します。これにより、インフラ維持の運用負荷を軽減しつつ、包括的なライフサイクル管理を実現します。誰が、いつ、どのような実験を行ったかを一元的に可視化・比較することが可能になるのです。 具体的な利用例として、Amazon EC2インスタンス上でDLCを実行し、モデルのトレーニングを行います。その過程で生成される全てのデータはマネージドMLflowに記録され、モデル成果物はAmazon S3に保存されます。開発者はMLflowのUIから、各実験の結果を直感的に比較・分析できます。 この統合の最大の利点は、モデルがどの実験から生まれたのかという来歴が明確になり、監査証跡が確立される点です。企業は、柔軟なカスタム環境でイノベーションを加速させながら、MLライフサイクル全体で高いガバナンスとコンプライアンスを維持できるようになります。本手法の詳細な実装手順やコードサンプルは、AWSが公開するGitHubリポジトリで確認できます。

Nvidia追撃のGroqが7.5億ドル調達 AI推論特化LPUで69億ドル評価へ

資金調達と企業価値

新規調達額は7.5億ドルを達成
ポストマネー評価額69億ドルに到達
1年間で評価額2.8倍に急伸
累計調達額は30億ドル超と推定

技術的優位性

NvidiaGPUに挑む独自チップLPUを採用
AIモデル実行(推論)特化の高性能エンジン
迅速性、効率性、低コストを実現
開発者200万人超が利用、市場浸透が加速

AIチップベンチャーのGroqは先日、7億5000万ドルの新規資金調達を完了し、ポストマネー評価額69億ドル(約1兆円)に到達したと発表しました。これは当初予想されていた額を上回る結果です。同社は、AIチップ市場を支配するNvidiaGPUに対抗する存在として、推論特化の高性能なLPU(言語処理ユニット)を提供しており、投資家の高い関心を集めています。

Groqの核となるのは、従来のGPUとは異なる独自アーキテクチャのLPUです。これは、AIモデルを実際に実行する「推論(Inference)」に特化して最適化されており、推論エンジンと呼ばれます。この設計により、Groqは競合製品と比較して、AIパフォーマンスを維持または向上させつつ、大幅な低コストと高効率を実現しています。

Groqの技術は開発者や企業向けに急速に浸透しています。利用する開発者の数は、わずか1年で35万6000人から200万人以上へと急増しました。製品はクラウドサービスとして利用できるほか、オンプレミスのハードウェアクラスターとしても提供され、企業の多様なニーズに対応できる柔軟性も強みです。

今回の調達額は7.5億ドルですが、注目すべきはその評価額の伸びです。Groq評価額は、2024年8月の前回の資金調達時(28億ドル)からわずか約1年で2.8倍以上に膨らみました。累計調達額は30億ドルを超えると推定されており、AIインフラ市場における同社の将来性に、DisruptiveやBlackRockなどの大手が確信を示しています。

創業者のジョナサン・ロス氏は、GoogleTensor Processing Unit(TPU)の開発に携わっていた経歴を持ちます。TPUGoogle CloudのAIサービスを支える専門プロセッサであり、ロス氏のディープラーニング向けチップ設計における豊富な経験が、Groq独自のLPU開発の基盤となっています。

Meta、画面付きAIグラスとEMG制御バンドを発表

AIグラスの新旗艦モデル

フラッグシップ機「Meta Ray-Ban Display」投入
片目レンズにアプリ表示用ディスプレイを搭載
通知や地図をスマホなしで確認可能

革新的な操作インターフェース

微細な手の動きを検知する「Meta Neural Band
筋電図(EMG)技術を用いた非接触制御
リストバンドでアプリ操作やナビゲーション

エコシステムとVR/AR強化

開発者向けウェアラブルアクセスツールキット公開
アスリート向け「Oakley Meta Vanguard」発表

Metaは年次イベント「Meta Connect 2025」で、AIとウェアラブル戦略の核となる新製品を発表しました。目玉はディスプレイを搭載したスマートグラスMeta Ray-Ban Display」と、微細なジェスチャーで操作可能な「Meta Neural Band」です。これはスマートフォンへの依存を減らし、AIを活用したハンズフリー体験を浸透させるための重要な一手となります。

新製品のMeta Ray-Ban Display(799ドル)は、片方のレンズに埋め込まれたポップアップ式の画面を持ちます。これにより、ユーザーは携帯電話を取り出すことなく、メッセージや地図、InstagramのReelsなどを視界に表示できます。これはかつてGoogle Glassが目指した体験に最も近い製品だと評価されています。

このスマートグラスの操作を支えるのが、Meta Neural Bandです。EMG(筋電図)技術により、脳から手に送られる微細な信号を検知し、小さな指の動きでアプリのナビゲーションを可能にします。Metaは、このEMGインターフェースがデバイス制御の新しい標準になると賭けています。

また、スマートグラスのラインアップを大幅に拡充しました。アスリート向けに耐水性とラップアラウンドデザインを採用した「Oakley Meta Vanguard」(499ドル)や、バッテリー寿命を従来の2倍(8時間)に改善した「Ray-Ban Meta Gen 2」も発表しています。

ハードウェアだけでなく、エコシステム強化も進められています。開発者向けには「Wearable Device Access Toolkit」が公開され、サードパーティのアプリがスマートグラス視覚・音声機能を利用可能になります。これにより、AIグラスのユースケース拡大が期待されます。

創業以来のテーマであるメタバース関連の発表もありました。Questヘッドセット向けには、現実空間をVR上にフォトリアルに再現する技術「Hyperscape」のベータ版が提供されます。また、VRプラットフォーム「Horizon Worlds」のグラフィックエンジンも刷新されています。

Nothing社、AI特化OSで市場刷新へ 2億ドル調達し来年デバイス投入

事業拡大と資金調達

2億ドルの資金調達を完了
企業評価額13億ドルに到達
流通網拡大とイノベーション加速
初の「AIネイティブデバイス」を来年投入

AI特化OSの戦略

従来と異なるAI特化のOSを開発
スマートフォンからEV、人型ロボットに対応
ユーザーに合わせた超パーソナライズ体験を実現
コンテキストとユーザー知識の活用を重視

ロンドン発の消費者テック企業Nothing社は、2億ドル(約310億円)の資金調達を発表し、評価額を13億ドルに引き上げました。同社は来年、既存の概念を覆す「AIネイティブデバイス」を市場に投入します。これは、従来のOSとは大きく異なる、AIに特化した新しいオペレーティングシステム(AI OS)を基盤とする戦略です。

このAI OSは、スマートフォンやヘッドホンといった既存の製品群に加え、スマートグラス、電気自動車(EV)、さらには人型ロボットまで、将来登場するあらゆるデバイスの頭脳となることを目指しています。ペイCEOは、この特化型OSを通じて、ユーザー一人ひとりに合わせた「超パーソナライズされた体験」を提供できると強調しています。

ペイCEOは、OS開発における独自の強みとして、コンテキストやユーザー知識を持つ「最後の流通接点(ラストマイル)」を握っている点を挙げます。これにより、単なるツールではない、ユーザーの日常生活に深く入り込み、真に役立つAI体験をハードウェアに統合できると説明しています。

Nothing社の挑戦は、過去に大衆市場の支持を得られなかったAIネイティブデバイスという未開拓の領域です。Appleのような大手企業でさえ成功を収めていない上、OpenAIと元Appleデザイナーのジョニー・アイヴ氏が共同開発する競合製品も存在します。Nothing社にとって、需要を創出し、この新たなカテゴリーを確立できるかが最大の試練となります。

卓上ロボット工場が1.5億円調達、人間実演で精密製造を高速学習

超小型・汎用ロボット工場

犬小屋サイズの卓上製造キット
2本のアームを持つ汎用ロボットシステム
回路基板組立など精密製造タスクに特化

革新的な学習アプローチ

人間の実演によるトレーニングを採用
従来のAIプログラミングより迅速に学習
複雑なシーケンスを数時間で習得可能

資金調達と事業目標

プレシードで150万ドルを調達
創業間もないが3000万ドル評価を獲得

サンフランシスコ拠点のスタートアップ、MicroFactoryが、犬小屋サイズの卓上ロボット工場を開発し、プレシードラウンドで150万ドル(約2.3億円)を調達しました。同社は設立間もないながら、ポストマネー評価額3000万ドル(約46億円)を獲得。このロボットシステムは、人間が物理的に動きを教えることで複雑な精密製造タスクを迅速に学習できる点が革新的です。

MicroFactoryのシステムは、従来の人型や工場全体の自動化を目指すロボットとは一線を画します。製品は透明な筐体に収められた卓上型の製造キットで、2本のアームを持つ汎用ロボットを搭載。CEOのイゴール・クラコフ氏は、人間型である必要はなく、設計をシンプルにすることで、ハードウェアとAIの両面で汎用性を高められると説明しています。

このシステムの最大の特徴は、ユーザーが直接ロボットアームをガイドして動作を教える、「人間による実演(Demonstration)」学習です。従来のAIプログラミングに比べ、複雑な製造シーケンスを数時間で正確に理解させることが可能となります。これは、熟練工を雇用し指導する際に費やす時間とリソースを大幅に削減できることを意味します。

このコンパクトなロボット工場は、特に高い精度が要求されるタスク向けに設計されています。具体的には、回路基板の組立、部品のはんだ付け、ケーブルの配線などです。また、エレクトロニクス製造だけでなく、食用カタツムリの加工など、ニッチな分野での多様な事前予約も獲得しており、その汎用性の高さを示しています。

今回調達した資金は、商業製品への移行とユニットの出荷、そしてAIモデルの継続的な改善に充てられます。MicroFactoryは、ハードウェア製造に焦点を当てた成長目標を掲げており、初年度に1,000台のロボット(1日あたり約3台)を生産する能力があると述べています。今後も毎年10倍の成長を目指す計画です。

Meta、sEMG制御のディスプレイ搭載AIグラスを投入

革新的な入力技術

sEMG技術搭載リストバンドで操作
手の電気信号を解釈しデバイス入力に活用
右レンズに限定的な小型ディスプレイ搭載

新AIグラスの概要

コードネームは「Hypernova」と予測
想定価格は約800ドル、既存品より大型化
Ray-Ban Meta 第3世代など派生モデルも期待

周辺戦略とAI強化

既存・新規ハードへのMeta AI機能拡充
VRヘッドセットの新作発表は2026年以降

Metaは来たるConnect 2025にて、AIに特化した次世代のスマートグラスを発表する見込みです。特に注目されるのは、右レンズに小型ディスプレイを搭載し、sEMG(表面筋電図)技術を用いたリストバンドで操作する新型モデルです。この新しいインターフェースは、デバイスとの接し方を根本的に変え、ビジネスパーソンの生産性向上に直結する可能性を秘めています。

この革新的な操作技術は、Metaが2019年に買収したCTRL-Labs社の技術が基盤となっています。sEMGは、ユーザーの手の動きに伴って発生する微細な電気信号を読み取り、それをデバイスへのコマンドとして解釈します。MetaはsEMG技術を「あらゆるデバイスの理想的な入力方法」と位置づけており、その実用化に大きな期待を寄せています。

「Hypernova」とコードネームされるこのディスプレイ搭載グラスは、限定的な視野ながらも、必要な情報を瞬時に表示するために設計されています。価格は約800ドルと予想されており、従来のRay-Ban Metaよりも厚みと重量が増す可能性があります。これは高度なセンサーと小型ディスプレイを内蔵するためと見られます。

一方、ディスプレイ非搭載の既存スマートグラスも引き続き強化されます。Ray-Ban Metaはすでに200万台を販売し成功を収めており、Connect 2025では第3世代の登場が予測されています。高性能なカメラやバッテリー寿命の改善など、AI利用を前提とした継続的なアップグレードが期待されます。

今回のConnectでは、ハードウェアだけでなくAI機能の拡張も主要テーマです。MetaはAIアシスタントを「Meta AI」アプリとして独立させ、AI生成コンテンツの共有機能などを拡充しています。既存のスマートグラスに対しても、AIを活用した機能アップデートが順次提供される見込みです。

主力VRヘッドセットであるQuestシリーズについては、今年は新作の発表は期待薄です。Metaは次期フラッグシップモデル「Quest 4」を2027年頃に据え、当面はHorizon OSをLenovoやAsusなどの外部企業にライセンス供与するプラットフォーム戦略に注力する構えです。

OpenAI、AGIへ「人型ロボットAI」開発を急加速

AGI実現への新経路

AGI実現へ物理世界での行動を重視
LLMの限界を認め新たな研究領域へ移行
人型ロボットAIの汎用化を目標に設定

開発体制と技術基盤

人型ロボット研究の専門家を積極採用
遠隔操作とシミュレーションで訓練
Nvidia Isaacなど開発環境を導入

ハード開発の可能性

試作・構築経験を持つ機械エンジニアを募集
量産化を視野に入れたハードウェア設計を示唆

OpenAIAGI(汎用人工知能)達成に向け、ロボティクス研究を本格的に再加速させています。特に、物理世界との相互作用を可能にする人型ロボットAIの開発に注力するため、スタンフォード大学などから専門家を積極的に採用していることが明らかになりました。これは、既存のLLMモデルの限界を超え、AIを次の段階へ進めるための戦略的な転換です。

同社は、AGIを実現するには、単なる対話や推論能力だけでなく、現実世界でタスクを実行できるアルゴリズムが必要だと判断しました。このため、大規模言語モデル(LLM)の発展がピークに達しつつあると見て、物理的な感覚や運動制御を伴う新たな研究分野に焦点を移しています。

採用された研究者たちは、人型や部分的に人型をしたロボットを制御するAIアルゴリズム開発の専門家です。求人情報からは、ロボットを人間が操作し、その動きをAIが学習するテレイグジスタンス(遠隔操作)シミュレーションを用いた訓練システムの構築を進めていることが分かります。

具体的には、ロボット訓練に広く使われるNvidia Isaacなどの仮想物理環境シミュレーション技術の専門知識が求められています。これにより、現実世界での試行錯誤コストを削減しつつ、AIが複雑な環境に適応する能力を効率的に獲得することが期待されます。

OpenAIが自社でロボットを製造するか、既存のハードウェアを活用するかは不明確です。しかし、求人には、センサー付きロボットシステムの試作・構築経験を持つ機械エンジニアの募集があり、量産(100万台以上)を前提とした設計経験も要求されており、ハードウェアへの深い関与を示唆しています。

このロボティクスへの再参入は、競争が激化する市場への挑戦です。すでにFigureやAgilityなどのスタートアップに加え、テスラやGoogleといった巨大AI企業も人型ロボット開発に大規模な投資を行っています。現時点では、OpenAI「魔法のような優位性はない」との指摘もあり、今後の技術開発競争に注目が集まっています。