Cerebras(企業)に関するニュース一覧

Cerebras、最大266億ドル評価でIPO準備へ

IPOの概要

28百万株を115〜125ドルで売出し
最大35億ドルの調達見込み
2026年最大のテックIPOとなる可能性
需要は募集額の約3倍に到達

OpenAIとの深い関係

OpenAI10億ドルを融資済み
3300万株超のワラント付与
Sam Altmanら幹部が個人投資
複数年100億ドル超の計算資源契約

AIチップメーカーのCerebras Systemsは2026年5月4日、新規株式公開(IPO)の準備を正式に発表しました。2800万株を1株あたり115〜125ドルで売り出し、最大35億ドルを調達する計画です。上限価格で算出した時価総額は約266億ドルに達し、実現すれば2026年最大のテックIPOとなります。

Cerebrasの最大の強みはOpenAIとの深い関係です。OpenAIは2025年12月にCerebrasへ10億ドルを融資し、3300万株超を取得可能なワラントを保有しています。さらに複数年で100億ドル超の計算資源契約を締結しており、Cerebrasの主要顧客です。CEOのSam Altmanをはじめ、Greg Brockman、Ilya SutskeverらOpenAI創業メンバーも個人で出資しています。

同社はGPUベースの競合に対抗する独自チップWafer-Scale Engine 3」を提供しています。推論処理でGPUより高速かつ省電力と主張しており、AI推論需要の急増を追い風にしています。投資家にはAlpha Wave、Benchmark、Eclipse、Fidelity、Foundation Capitalのほか、Tiger Global、Coatue、AMD、アブダビのG42など著名な機関投資家が名を連ねます。

Cerebrasは2024年にもIPOを試みましたが、G42からの投資に対する米連邦政府の審査で延期となった経緯があります。その後2025年9月に81億ドル評価で11億ドル、2026年2月に230億ドル評価で10億ドルを調達し、今回のIPOに至りました。Bloombergによれば、すでに募集額35億ドルに対し約100億ドルの注文が集まっており、公開価格が提示レンジを上回る可能性が高いとされています。

Stanford大、ゼロ演算を省く疎行列チップでAI効率70倍に

スパース計算の原理

モデルの大半がゼロ値パラメータ
ゼロ演算の省略で高速化
圧縮格納によるメモリ削減
GPUは非構造化スパースに非対応

Onyxチップの成果

CPUの70分の1エネルギー消費
平均8倍の計算速度
構造化・非構造化の両方に対応
密・疎の両ワークロードを1チップで処理

スタンフォード大学の研究チームが、AIモデル内のゼロ値パラメータを活用する専用チップOnyx」を開発しました。大規模言語モデルでは重みや活性値の大半がゼロまたはゼロに近い値であり、この「スパース性」を利用すれば不要な演算を省略できます。Onyxは従来のCPUと比較して平均で消費エネルギーを70分の1に抑え、計算速度を8倍に向上させています。

AIモデルの巨大化が進む中、Metaの最新Llamaは2兆パラメータに達しています。モデルの大型化は性能向上につながる一方、エネルギー消費と処理時間の増大が深刻な課題です。低精度演算や小型モデルの利用といった対策が取られてきましたが、スパース計算はモデルの性能を維持しつつ効率を高める第三の選択肢として注目されています。Cerebrasの研究では、LLMのパラメータの最大70〜80%をゼロに設定しても精度を損なわないことが示されました。

しかし、既存のGPUやCPUはスパース計算に最適化されていません。NVIDIAGPUは「4要素中2つがゼロ」という構造化スパースにしか対応しておらず、任意の位置にゼロが存在する非構造化スパースでは性能が大きく低下します。CPUはより柔軟ですが、圧縮データの間接参照によるメモリアクセスがボトルネックとなります。Appleは独自チップのプリフェッチャー改良で対応を試みていますが、汎用アーキテクチャの根本的な制約は残ります。

Onyxは粗粒度再構成可能アレイ(CGRA)をベースに設計されており、FPGAの柔軟性とCPUの効率性を両立しています。メモリタイルが圧縮行列を格納し、演算タイルが不要なゼロ演算をすべて省略します。専用コンパイラがソフトウェア命令をCGRA構成に自動変換するため、開発者は疎・密の両方のワークロードを同一チップ上で実行できます。エネルギー遅延積ではIntel Xeon CPUの最大565倍の効率を達成しました。

研究チームは次世代チップの開発を進めており、行列演算だけでなく正規化やソフトマックスなど全演算のスパース対応を目指しています。密・疎アーキテクチャのチップ上での統合効率化や、複数チップでの分散処理にも取り組んでいます。スパースハードウェアの普及は、AI計算の実行コスト・消費電力・環境負荷を大幅に低減する可能性があります。

GoogleがAnthropicに最大400億ドル投資へ

投資の全体像

即時100億ドルを出資
目標達成で300億ドル追加
企業価値3500億ドルで評価
10月にもIPO検討との報道

計算資源の確保競争

Google Cloudが5GWの計算容量提供
Amazon も50億ドルを出資済み
CoreWeaveともデータセンター契約
TPUNvidia代替として重要な役割

GoogleがAI企業Anthropicに最大400億ドル(約6兆円)を投資する計画であることが2026年4月24日、Bloombergの報道で明らかになりました。まず100億ドルを即時出資し、Anthropicが一定の性能目標を達成した場合にさらに300億ドルを追加投資します。企業価値は3500億ドルと評価されています。

今回の投資は、数日前に発表されたAmazonからの50億ドル出資に続くものです。Amazon投資Anthropicの企業価値を3500億ドルと評価しており、いずれも性能目標に基づく追加出資の余地を残しています。投資家の間ではAnthropic評価額8000億ドル以上に達するとの見方もあり、10月にもIPOを検討しているとの報道もあります。

Googleは自社でもAIモデルを開発する競合でありながら、Anthropicにとって重要なインフラ供給者でもあります。AnthropicGoogle CloudのTPU(テンソル処理ユニット)に大きく依存しており、今回の投資ではGoogle Cloudが今後5年間で新たに5ギガワットの計算容量を提供します。今月にはGoogleとBroadcomとの提携で2027年から3.5ギガワットのTPU計算容量を確保することも発表済みです。

AI開発競争はいまや計算資源の争奪戦の様相を呈しています。OpenAICerebrasとの200億ドル超の半導体契約を締結し、AnthropicCoreWeaveとのデータセンター契約やAmazonとの1000億ドル規模のクラウド利用契約を結んでいます。Claudeの利用制限に対するユーザーからの不満が高まるなか、Anthropicインフラ増強を急いでいます。

OpenAI、Responses APIにWebSocket対応を追加

高速化の仕組み

永続接続で会話状態を再利用
トークン再レンダリングを省略
安全性チェックを差分のみに限定

導入効果

エージェント処理が最大40%高速化
GPT-5.3で1,000TPS超を達成
CodexCursor・Clineが即座に採用
推論高速化の恩恵をユーザーへ直結

OpenAIは2026年4月22日、Responses APIにWebSocketモードを正式導入したと発表しました。従来のHTTPベースでは、エージェントがツール呼び出しのたびに会話履歴全体を再送信する必要があり、推論速度が向上してもAPIのオーバーヘッドがボトルネックになっていました。WebSocketによる永続接続でこの構造的課題を解消し、エージェントのエンドツーエンド処理を最大40%高速化しています。

技術的には、WebSocket接続のライフタイム内で前回のレスポンス状態をインメモリにキャッシュする設計です。後続リクエストがprevious_response_idを指定すると、サーバーはキャッシュから状態を取得し、トークンの再レンダリングやモデル解決ロジックの再実行を省略します。安全性分類器やバリデーターも差分入力のみを処理するよう最適化されました。

開発の背景には、コーディングエージェントCodex向けの高速モデルGPT-5.3-Codex-Sparkの存在があります。同モデルは専用のCerebrasハードウェア上で1,000TPS超の推論速度を実現しますが、従来のAPI構造ではCPU側の処理がGPUの速度に追いつかない状態でした。WebSocketモードの導入により、本番環境で1,000TPSの目標を達成し、バースト時には4,000TPSも記録しています。

既にVercel AI SDK、Cline、Cursorなど主要な開発ツールがWebSocketモードを統合済みです。Vercelは最大40%、Clineは39%、Cursorは最大30%のレイテンシ改善を報告しています。既存のResponses APIと同じリクエスト・レスポンス形式を維持しているため、開発者はインテグレーションを大幅に書き換えることなく移行できる点も普及を後押ししています。

OpenAIはWebSocketモードを、2025年3月のResponses APIローンチ以来最も重要な機能追加と位置づけています。モデルの推論速度が急速に向上する中、APIインフラ側の最適化がユーザー体験に直結する時代に入ったことを示す事例といえます。

Cerebras、評価額230億ドルでIPO再申請

IPO再挑戦の背景

2024年のIPO申請は連邦審査で延期
2025年に11億ドルのシリーズG調達
2026年2月に評価額230億ドルで10億ドル調達
5月中旬の上場を計画

大型契約と業績

OpenAIと100億ドル超の提携
2025年売上高5億1000万ドル
純利益2億3780万ドルを計上

AIチップスタートアップCerebras Systemsが、新規株式公開(IPO)を再び申請しました。同社は「AIの訓練と推論のための最速ハードウェア」を開発しており、CEOのAndrew Feldman氏が率いています。2024年にも上場申請を行いましたが、アブダビ拠点のG42からの投資に対する連邦審査の影響で延期され、最終的に撤回されていました。今回は評価額230億ドルでの再挑戦となります。

同社は近年、大型の資金調達と事業提携を相次いで実現しています。2025年9月に11億ドルのシリーズGを完了し、2026年2月には10億ドルのシリーズHを調達しました。さらにAmazon Web Servicesデータセンターでのチップ採用契約を締結し、OpenAIとは100億ドル超とされる大型提携も発表しています。

業績面では、2025年の売上高が5億1000万ドルに達し、純利益は2億3780万ドルを計上しました。ただし一時的項目を除いた非GAAPベースでは7570万ドルの純損失となっています。Feldman氏はウォール・ストリート・ジャーナルの取材に対し、「NvidiaからOpenAIの高速推論ビジネスを奪った」と自信を示しています。

IPOでの調達額は未公表ですが、上場は5月中旬を予定しています。AI半導体市場の急拡大を背景に、Cerebrasの上場はAIインフラ企業への投資家の関心を測る重要な試金石となりそうです。

Armが35年の歴史で初の自社製CPU発表、Metaが最初の顧客に

AGI CPUの概要

Neoverseベースの推論特化CPU
最大136コア搭載構成
TSMC3nmプロセスで製造
x86比2倍電力効率を主張

顧客と市場展望

Metaが共同開発・初号顧客
OpenAICerebras等も採用予定
2026年後半に量産出荷開始
DC向けCPU市場は2030年に1000億ドル規模へ

Armは2026年3月、サンフランシスコで開催したイベントにおいて、創業以来初となる自社製CPU「Arm AGI CPU」を発表しました。同社はこれまでチップ設計のライセンス供与に徹してきましたが、AI需要の急拡大を受けて自社製造に踏み切りました。

AGI CPUはAIエージェント推論処理に特化したデータセンター向けプロセッサです。最大136コアを搭載し、TSMCの3nmプロセスで製造されます。従来のx86アーキテクチャ製品と比較して、ワットあたり性能が2倍に達すると同社は主張しています。

Metaが共同開発パートナー兼最初の顧客として名乗りを上げました。Meta基盤部門責任者のサントシュ・ジャナルダン氏は「チップ業界を複数の軸で拡大する」と期待を示しています。同社は「パーソナル超知能」の実現に向け、電力効率の高いシリコンを求めています。

OpenAICerebrasCloudflare、SAP、SK Telecom、Rebellionsなども採用を表明しました。NvidiaAmazonGoogleの幹部もビデオメッセージで支持を表明しましたが、購入の確約には至っていません。量産出荷は2026年後半を予定しています。

調査会社Creative Strategiesは、データセンター向けCPU市場が2026年の250億ドルから2030年には600億ドルに成長すると予測しています。エージェントAI向けCPUを含めると市場規模は1000億ドルに達する見通しです。一方、Armが自社チップを投入することで、既存ライセンス先との競合関係が生じるリスクも指摘されています。

Gimlet Labs、マルチシリコン推論基盤で8000万ドル調達

資金調達と事業概要

Series Aで8000万ドル調達
Menlo Venturesが主導
累計調達額9200万ドル
従業員数30名体制

技術と市場展開

異種チップ横断の推論分散
推論速度を3〜10倍高速化
NVIDIA・AMD等6社と提携
8桁ドルの売上で公開開始

Gimlet Labsは、AI推論のボトルネックを解消する「マルチシリコン推論クラウド」を開発するスタートアップです。スタンフォード大学の非常勤教授でもあるZain Asgar氏が率い、Menlo Ventures主導で8000万ドルのシリーズAラウンドを完了しました。

同社の技術は、AIワークロードをCPU・GPU・高メモリシステムなど異なる種類のハードウェアに同時分散させるオーケストレーションソフトウェアです。エージェント型AIの各処理ステップが求める計算資源の特性に応じて、最適なチップに自動的に割り振ります。

マッキンゼーの試算では、2030年までにデータセンター投資は約7兆ドルに達する見通しです。一方でAsgar氏は、既存ハードウェアの稼働率がわずか15〜30%にとどまると指摘し、「数千億ドル規模の遊休資源が無駄になっている」と述べています。

Gimlet Labsは2025年10月に8桁ドル規模の売上を伴って正式ローンチしました。その後4カ月で顧客基盤は倍増し、大手モデルメーカーや超大規模クラウド事業者も含まれています。NVIDIA、AMD、Intel、ARM、Cerebras、d-Matrixとも提携済みです。

共同創業者チームは以前、Kubernetes向け可観測性ツールPixieを開発し、2020年にNew Relicに売却した実績があります。今回のラウンドにはSequoiaBill Coughran氏やIntel CEOLip-Bu Tan氏ら著名エンジェル投資家も参加しています。

Amazon独自AIチップTrainium、OpenAIやAnthropicが採用拡大

Trainiumの競争力

Nvidia比で最大50%低コスト
全世代合計140万チップ出荷済
Anthropic Claude100万チップ利用
PyTorch対応で移行障壁を低減

技術革新と戦略

3nmプロセスでTSMC製造
液冷技術で省エネ実現
OpenAI2GWの計算容量提供
Cerebrasとの推論連携も発表

Amazonは自社開発AIチップTrainium」の開発拠点であるオースティンのチップラボを報道陣に初公開しました。同チップOpenAIとの500億ドル規模の提携AnthropicClaude運用を支える中核技術として注目を集めています。

Trainiumは当初モデル学習向けに開発されましたが、現在は推論処理にも最適化されています。Amazon Bedrockサービスの推論トラフィックの大半をTrainium2が処理しており、全世代で140万チップが稼働中です。Anthropicは100万チップ以上を利用しています。

最新のTrainium3TSMC製の3ナノメートルプロセスで製造され、独自設計のNeuronスイッチによりチップ間をメッシュ接続し遅延を大幅に削減します。新型Trn3 UltraServerは従来のクラウドサーバーと比較して最大50%のコスト削減を実現するとAmazonは説明しています。

NvidiaGPUからの移行障壁を下げるため、TrainiumはPyTorchに対応しており「1行の変更と再コンパイルで動作する」とエンジニアは説明します。さらにAmazonCerebras Systemsとの提携も発表し、推論チップの連携による低遅延AI処理を目指しています。

開発チームは2015年にAmazonが約3.5億ドルで買収したイスラエルのAnnapurna Labsを母体とし、10年以上の設計実績があります。CEOのAndy Jassy氏はTrainiumを「数十億ドル規模のビジネス」と公言しており、次世代のTrainium4の開発も進行中です。

Nvidia、推論特化チップGroq 3 LPUを発表

Groq 3の技術的特徴

SRAM内蔵で超低遅延実現
メモリ帯域150TB/sでGPUの7倍
線形データフローで処理を簡素化

推論時代の到来

Groqを200億ドルで買収し技術統合
AWSCerebras推論システム構築

推論分離アーキテクチャ

プリフィルとデコードの分離処理
Groq 3 LPXトレイでGPULPU統合

Nvidiaは米サンノゼで開催されたGTC 2026において、AI推論に特化した新チップGroq 3 LPUを発表しました。同社がスタートアップGroqから200億ドルで技術ライセンスを取得し、わずか2カ月半で製品化したものです。

Jensen Huang CEOは「AIがついに生産的な仕事をできるようになり、推論の転換点が到来した」と宣言しました。学習と推論では計算要件が根本的に異なり、推論では低遅延が最も重要とされています。思考型・推論型モデルでは出力前に何度も推論が実行されるためです。

Groq 3 LPUの核心技術は、プロセッサ内部にSRAMメモリを直接統合した設計にあります。従来のGPUチップ外のHBMにアクセスする必要があるのに対し、データがSRAMを直線的に通過するため、推論に必要な極めて低いレイテンシを実現します。メモリ帯域は150TB/sで、Rubin GPUの22TB/sの約7倍です。

推論特化チップ市場ではD-matrix、Etched、Cerebrasなど多数のスタートアップが独自アプローチを展開しています。AWSCerebrasの第3世代チップと自社Traniumを組み合わせた推論システムのデータセンター展開を発表しました。推論を「プリフィル」と「デコード」に分離する技術が注目されています。

Nvidia推論分離を活用する新コンピュートトレイGroq 3 LPXを発表しました。8基のGroq 3 LPUとVera Rubin GPUを搭載し、計算集約的な処理はGPUが、最終段階の高速デコードはLPUが担います。Huang氏は「すでに量産段階にある」と述べ、推論市場の急速な拡大を示しました。

India AIサミット総括、各社が相次ぎ投資表明

インドAIサミットの主要発表

4日間のサミットにグローバルAI大手の幹部が集結
インド政府がAI投資誘致のための政策・インセンティブを提示
NvidiaMicrosoftインドへの大規模インフラ投資を約束
OpenAI Sam AltmanインドAI活用の可能性を高く評価
Cloudflareなどインフラ企業インド市場への参入を加速

インドのAI市場ポテンシャル

インド14億人の潜在ユーザーと高い若年層採用率
IT産業・英語能力・数学教育がAI開発者輩出に強み
言語多様性(22の公用語)がローカライズのハードル
デジタル公共インフラAadhaar・UPIがAI展開基盤
中国との競争においてインドが民主主義的AIの旗手に

インドはニューデリーで4日間にわたってAI Impact Summitを開催し、OpenAIAnthropicNVIDIAMicrosoftGoogleCloudflareなど主要AIおよびテック企業の幹部が参加しました。このサミットはインドが2026年の世界AI経済における重要プレイヤーとしての地位を確立する上での重要な節目となりました。

各社の具体的なコミットメントが相次いで発表されました。G42とCerebrasの8エクサフロップス投資(別記)に加え、Nvidiaインドスタートアップと研究機関向けのGPUアクセスプログラムを、Microsoftインドのデベロッパーエコシステムへの長期投資を、Cloudflareインドのエッジインフラ拡充を発表しました。

Sam Altmanインドを「ChatGPTの最も重要な市場の一つ」と表現し、インドの若年層が業務用途でAIを活用する速度と深度は他国を上回ると評価しました。OpenAIインドでのローカル拠点強化に向けたロードマップを示しました。

インドにとってAIは単なる技術課題ではなく、経済発展戦略の中核です。ITサービス輸出大国として培った人材基盤と、デジタルインフラ(Aadhaar・UPIなど)の整備が、AI時代の競争力の源泉になっています。ローカル言語AIの整備が次の重点課題です。

地政学的にも、インドは民主主義国のAIエコシステムにおいて中国に対抗する重要なプレイヤーとして位置づけられています。米国政府もインドのAI開発への支援を外交政策の優先事項に掲げており、技術同盟としての枠組みが強化されています。

インドAI投資競争、8エクサフロップス配備へ

インドAIインフラへの巨大投資

UAE・G42とCerebras8エクサフロップスの計算資源をインドに配備
Peak XVが13億ドルインド・アジア特化ファンドを設立
India AI Impact SummitがグローバルAI大手を集めてニューデリーで開催
インドデータ主権・コンプライアンス要件に準拠した設計
インフラ先行投資でAIエコシステムの地盤固め

インドAI消費・スタートアップ市場

SarvamがインドNLP特化チャットアプリIndusを正式公開
OpenAI India利用者の80%が30歳未満という若年層集中
ChatGPTインド利用は業務用途35%でグローバル平均超え
OpenAIのCodingアシスタントCodexインドで世界平均の3倍利用
ローカル言語モデル需要とグローバルAIの競争が激化

インドは2026年、世界で最も注目されるAI市場となっています。India AI Impact Summitには、OpenAIAnthropicNVIDIAMicrosoftGoogleCloudflareなどの主要AI大手のエグゼクティブが集結し、インドへのAI投資を競うように発表しました。

インフラ投資では、アブダビのG42がAIチップメーカーCerebrasと組み、8エクサフロップスの計算能力を持つスーパーコンピュータをインドに設置します。この規模はインドのAI産業の基盤を大幅に強化するものです。Peak XVは13億ドルの新規ファンドを設立し、AI分野に重点を置いています。

スタートアップ面では、インドのAI企業Sarvamがインド人ユーザー向けに最適化したチャットアプリ「Indus」を公開しました。ヒンディー語など地域言語への対応を強みとして、OpenAIGoogleとの差別化を図っています。ローカルAIとグローバルAIの競争が本格化しています。

OpenAIのデータによると、インドでのChatGPT利用者の約80%が30歳未満で、業務用途での利用が全体の35%を占めています。特にAIコーディングアシスタントの利用がグローバル平均の3倍という数字は、インドのIT産業との強い親和性を示しています。

インドのAIブームは、大規模インフラ投資、若年層の高い採用率、ローカルスタートアップの台頭という三つの力が重なる特別な現象です。グローバル vs ローカルの競争がインドのAI市場の形を決定づける2026年が始まっています。

OpenAIがCerebrasチップ採用、NVIDIAに依存しない即時コード生成

Cerebras採用の意義

OpenAIが初めてNVIDIA以外チップを本番採用
Cerebrasのウェーハスケール技術で超低レイテンシ推論
コーディングモデルで「ほぼ即時」の応答を実現

OpenAIはAIチップメーカーCerebrasのウェーハスケールプロセッサを「ほぼ即時」のコード生成に使う初の本番展開を発表しました。これはOpenAINVIDIAへの独占的依存から脱却する動きの一環として注目されています。

Cerebrasのウェーハスケールエンジン(WSE)は、一枚のウェーハ全体に統合された巨大なチップで、メモリ帯域幅と並列処理能力において従来のGPUとは異なるアーキテクチャを持ちます。特にトークン生成の速度で優位性を発揮します。

この動きはAIチップ市場における競争多様化を示しています。NVIDIAの一極支配に対して、CerebrasGroq、AMD、Intel Habanaなど複数のチップベンダーが特定ユースケースで食い込む余地を見せています。

開発者にとっては、コーディング支援ツールの応答速度が実際の開発体験を大きく左右します。「ほぼ即時」のコード補完は、GitHub Copilotなどとの競争において重要な差別化要素となります。

BenchmarkがCerebrasへの集中投資のため2.25億ドル特別ファンドを設立

ファンドと投資先

2.25億ドルの特別目的ファンド
AIチップ市場での賭け
Benchmarkの強い確信
TechCrunchが独自報道
Nvidia対抗チップへの本格支援

AI半導体投資の動向

VCの大型集中投資が増加
Cerebras WSEの技術的優位性
AI推論コスト削減への期待

TechCrunchは2026年2月6日、大手VC Benchmarkが2億2500万ドルの特別目的ファンドを設立し、AI半導体スタートアップCerebrasに集中投資すると報じた。

Cerebrasは「ウエハースケールエンジン(WSE)」という独自技術で、1枚のウエハーサイズのチップを製造するアーキテクチャを採用しており、LLM推論の速度で業界最速水準を誇る。

Benchmarkが通常の分散型ファンドではなく特別目的ファンドを組成したことは、Cerebrasへの並外れた確信を示しており、IPO前の大型支援として注目される。

NvidiaGPUへの代替や補完として、推論特化チップの需要が高まる中、Cerebrasは独自アーキテクチャで差別化を図る。

AI半導体市場は今後5年で数千億ドル規模に成長すると予測されており、Benchmarkの集中投資戦略が吉と出るかは業界全体の注目点だ。

OpenAIがCerebrasと100億ドルの計算資源契約を締結、推論能力を大幅強化

契約の規模と意義

100億ドル規模の計算リソース調達契約
Cerebrasの高速AI推論チップを活用
Nvidiaへの依存度を分散
推論速度の大幅な向上を期待
AIサービスのスケールアップに対応

業界への影響

Nvidiaの独占的地位に楔
AI推論チップ市場に競争促進
Cerebras評価額が急上昇
AI計算資源調達の多様化が加速
他のAI企業も同様戦略を検討か

OpenAICerebrasと推定100億ドル規模の計算資源契約を締結しました。CerebrasウェハースケールAIチップで知られる企業で、その高速な推論能力はOpenAIのサービス拡張に重要な役割を果たします。このサイズの調達契約はAI業界史上でも有数の規模です。

Cerebrasチップはトークン生成速度においてNvidiaGPUを大幅に上回るとされており、OpenAIのリアルタイム応答品質と処理能力の向上に直結します。またNvidiaへの依存分散という戦略的意味も持ち、AI計算資源のサプライチェーンリスクを低減する狙いがあります。

この契約はAI計算資源の調達競争が新たな段階に入ったことを示しています。Googleの独自チップTPU)、AmazonのTrainium/Inferentia、Microsoftの独自AIチップと並んで、GPU代替技術への投資が加速しており、Nvidia一強時代の終わりが近づいている可能性があります。

Nvidia、汎用GPU時代の終焉を認め戦略的転換を宣言

GroqとのライセンスとAIスタック競争

NvidiaGroq200億ドルライセンス契約を締結
推論専用チップ市場での協調・競合の複雑化
AIスタック競争が2026年に表面化
GPU汎用モデルからASIC専用化へのシフト
Nvidiaが4正面(モデル/推論/ネットワーク/ソフト)で戦う
エンタープライズのAI基盤選択が複雑化

次世代AI計算基盤の方向性

汎用GPUの万能戦略が限界を迎える
推論・学習・エッジで最適なチップが異なる
Intelや新興勢力のASICが存在感を高める
ソフトウェアスタックの差別化が鍵に
CUDAエコシステムの優位性は維持されるか
データセンター設計が根本的に変わる転換期

NvidiaGroqと締結した約200億ドル規模の戦略的ライセンス契約は、AI半導体業界の地図を塗り替える動きとして注目される。従来の競合関係から協調・ライセンスモデルへの転換は、推論市場の急速な拡大に対応するための現実的判断と見られる。

2026年を境に、AI計算市場は4つの正面で競争が激化するとされる。モデル学習用のNVIDIA H-シリーズ、推論特化のGroqCerebrasネットワーク・インターコネクト、そしてソフトウェアオーケストレーションレイヤーが主な競争軸だ。

特に注目されるのはNvidiaが「汎用GPU時代の終焉」を事実上認めた点だ。これは同社がAI専用シリコンへの特化を認め、エコシステム全体でのポジション確保戦略に転換したことを意味する。

エンタープライズ側にとっては選択肢の増加が歓迎される一方、ベンダーロックリスクも高まる。CUDAに最適化された既存コードベースを保持する企業は、代替アーキテクチャへの移行コストが高く、Nvidiaエコシステムの維持を余儀なくされる面がある。

長期的にはAIのワークロード多様化が進むにつれ、学習・推論・エッジ・エンドポイントで最適なシリコンが異なるという「ベストオブブリード」アーキテクチャが普及すると予想される。Nvidiaの戦略的ライセンスはその先取りと言える。

AIチップCerebras、IPO計画遅延も11億ドル調達

大型資金調達の概要

Nvidiaのライバルが11億ドルを調達
企業評価額81億ドルに到達
Fidelityなどがラウンドを主導
累計調達額は約20億ドル

成長戦略とIPOの行方

AI推論サービスの需要が急拡大
資金使途はデータセンター拡張
米国製造拠点の強化も推進
規制審査でIPOは遅延、時期未定

NVIDIAの競合である米Cerebras Systemsは9月30日、11億ドルの資金調達を発表しました。IPO計画が遅延する中、急拡大するAI推論サービスの需要に対応するため、データセンター拡張などに資金を充当します。

今回のラウンドはFidelityなどが主導し、企業評価額81億ドルと評価されました。2021年の前回ラウンドから倍増です。2015年設立の同社は、累計調達額が約20億ドルに達し、AIハードウェア市場での存在感を一層高めています。

資金調達の背景は「推論」市場の爆発的成長です。2024年に開始したAI推論クラウドは需要が殺到。アンドリュー・フェルドマンCEOは「AIが実用的になる転換点を越え、推論需要が爆発すると確信した」と語り、事業拡大を急ぎます。

調達資金の主な使途はインフラ増強です。2025年だけで米国内に5つの新データセンターを開設。今後はカナダや欧州にも拠点を広げる計画です。米国内の製造ハブ強化と合わせ、急増する需要に対応する供給体制を構築します。

一方で、同社のIPO計画は足踏み状態が続いています。1年前にIPOを申請したものの、アブダビのAI企業G42からの投資米国外国投資委員会(CFIUS)の審査対象となり、手続きが遅延。フェルドマンCEOは「我々の目標は公開企業になることだ」と述べ、IPOへの意欲は変わらないことを強調しています。

今回の大型調達は、公開市場の投資家が主導する「プレIPOラウンド」の性格を帯びており、市場環境を見極めながら最適なタイミングで上場を目指す戦略とみられます。AIインフラ競争が激化する中、Cerebrasの今後の動向が注目されます。