NvidiaがGTC 2026で次世代AI基盤「Vera Rubin」と企業向けエージェント戦略を発表

Vera Rubin基盤の全容

7チップ構成の新プラットフォーム量産開始
推論スループットBlackwell比10倍、トークン単価10分の1
Blackwell・Rubin合計で受注1兆ドル見通し
OpenAIAnthropicMeta等が採用表明

エージェントAI戦略

Agent ToolkitをOSSで公開
AdobeSalesforce・SAP等17社が採用
NemoClawでローカルAIエージェント実行

ハード・ソフトの垂直統合

DGX Stationで1兆パラメータモデルをデスクトップ実行
Dynamo 1.0が推論OS として主要クラウド採用

Nvidiaは2026年3月16日、サンノゼで開催した年次カンファレンスGTC 2026において、次世代AIコンピューティング基盤「Vera Rubin」プラットフォームを発表しました。CEOのジェンスン・フアン氏は基調講演で、BlackwellとRubinチップの受注見通しが1兆ドルに達すると宣言しています。

Vera RubinはVera CPURubin GPU、NVLink 6 Switch、ConnectX-9、BlueField-4 DPU、Spectrum-6、Groq 3 LPUの7チップで構成されます。旗艦モデルのNVL72ラックは72基のRubin GPUを搭載し、Blackwell比で推論スループットがワットあたり最大10倍、トークン単価は10分の1を実現するとしています。

Anthropicのダリオ・アモデイCEO、OpenAIのサム・アルトマンCEO、Metaらがプラットフォーム採用を表明しました。AWS、Google Cloud、Microsoft Azure、Oracle Cloudの4大クラウドがすべて提供を予定しており、80社超の製造パートナーがシステムを構築します。Microsoftハイパースケールクラウドとして初めてVera Rubin NVL72を稼働させたと発表しました。

ソフトウェア面では、企業向けAIエージェント構築基盤「Agent Toolkit」をオープンソースで公開しました。AdobeSalesforce、SAP、ServiceNow、CrowdStrikeなど17社が採用を表明し、セキュリティランタイム「OpenShell」やコスト最適化のAI-Qを統合した包括的な開発環境を提供します。推論OS「Dynamo 1.0」も主要クラウドに採用されています。

ハードウェアでは、GB300チップ搭載のデスクトップ型スーパーコンピュータ「DGX Station」を発表しました。748GBの統合メモリと20ペタフロップスの演算能力で、1兆パラメータモデルをクラウド不要でローカル実行できます。NemoClawと組み合わせ、常時稼働型AIエージェントの個人運用を可能にします。

さらにNvidiaは、Mistral AIら8組織とNemotron Coalitionを結成し、オープンフロンティアモデルの共同開発を開始します。自動運転分野ではBYD・日産らがLevel 4対応車両を開発中で、Uberとは2028年までに28都市でロボタクシー展開を計画しています。製薬大手ロシュは3,500基超のBlackwell GPUを導入し、AI創薬を加速させます。

今回のGTC 2026は、NvidiaチップメーカーからAIプラットフォーム企業への転換を鮮明にした大会となりました。ハードウェア、ソフトウェア、モデル、エージェント基盤を垂直統合し、宇宙からデスクトップまであらゆるスケールのAIインフラを一社で提供する戦略は、競合であるAMDやGoogle TPU、Amazon Trainiumとの差別化を図るものです。

NvidiaがOpenClaw企業版NemoClawを発表、安全性が最大課題に

NemoClaw概要

Nvidiaが企業向けNemoClawを発表
OpenClawセキュリティ機能を統合
ハードウェア非依存でオープンソース公開
現段階はアルファ版リリース

深刻な脆弱性

企業の22%で無許可運用が判明
公開インスタンスが3万件超に急増
3つの攻撃面は既存防御で検知不能
悪意あるスキルが824件に拡大

防御と今後

14日間で6つの防御ツールが登場
スキル仕様の標準化提案が進行中

Nvidiaのジェンスン・ファンCEOは2026年3月のGTC基調講演で、オープンソースAIエージェント基盤OpenClawに企業向けセキュリティ機能を組み込んだNemoClawを発表しました。すべての企業にOpenClaw戦略が必要だと訴えています。

NemoClawはOpenClaw開発者ピーター・シュタインベルガー氏と共同開発され、任意のコーディングエージェントやオープンソースAIモデルを活用できます。Nvidia製GPUに限定されずハードウェア非依存で動作する点が特徴ですが、現時点ではアルファ版の位置づけです。

一方でOpenClawセキュリティリスクは深刻です。Token Securityの調査では企業顧客の22%がIT部門の承認なくOpenClawを運用しており、Bitsightは2週間で3万件超の公開インスタンスを確認しました。ClawHubスキルの36%にセキュリティ欠陥が含まれるとの報告もあります。

特に危険な攻撃面は3つあります。第一にランタイム意味的データ抽出で、エージェントが正規APIを通じて悪意ある指示に従います。第二にクロスエージェント文脈漏洩で、1つのプロンプト注入が全エージェントチェーンを汚染します。第三に相互認証なしの信頼チェーンで、侵害されたエージェントが他の全エージェントの権限を継承します。

緊急対応としてClawSecやIronClawなど6つの防御ツールが14日間で開発されましたが、いずれも上記3つの根本的脆弱性は解消できていません。セキュリティ顧問のオライリー氏はスキルを実行ファイルとして扱う能力仕様の標準化を提案しており、企業はOpenClawが既に社内環境に存在する前提でリスク対策を講じる必要があります。

LinkedIn、5つの検索基盤をLLM統合し13億人のフィード刷新

統合アーキテクチャ

5つの検索パイプラインを1つに統合
LLMで投稿内容をリッチに理解
プロンプトライブラリでテキスト変換自動化
エンゲージメント数値をパーセンタイル

ランキング革新

生成的推薦モデル(GR)を独自開発
1000件超の履歴を時系列で処理
職歴・スキルから長期的関心を把握

GPU最適化

CPU処理とGPU推論を分離設計
C++データローダーで負荷削減

LinkedInは13億人以上が利用するフィード基盤を全面刷新し、従来の5つの独立した検索パイプラインを1つのLLMベースシステムに統合したことを発表しました。エンジニアリング担当副社長のTim Jurka氏によると、1年間で数百回のテストを実施したとのことです。

従来のフィードは、ネットワークの時系列インデックス、地域トレンド、興味ベースのフィルタリングなど、異なるインフラと最適化戦略を持つ複数のソースから構成されていました。これにより保守コストが増大し、統一的な改善が困難になっていたことが刷新の背景にあります。

新システムでは投稿のフォーマット、著者情報、エンゲージメント数、メタデータをテキスト化するプロンプトライブラリを構築しました。特にエンゲージメント数値をそのままプロンプトに入れるとモデルが重要性を認識できない問題を発見し、パーセンタイルバケットと特殊トークンで解決しています。

ランキング層では独自の生成的推薦モデル(GR)を開発し、ユーザーの過去1000件以上のインタラクション履歴を時系列として処理します。個々の投稿を独立にスコアリングするのではなく、職業的な関心の変遷をシーケンスとして理解する設計です。

GPU コスト削減のため、CPU処理とGPU推論を分離するアーキテクチャを採用しました。Pythonマルチプロセスの代わりにC++データローダーを開発し、独自のFlash Attention変種やチェックポイントの並列化により、GPU メモリの効率的な活用を実現しています。

ブリタニカ百科事典がOpenAIを著作権侵害で提訴

訴訟の主な主張

10万件の記事を無断学習
GPT-4が内容を丸暗記と主張
逐語的複製の出力例を提示
RAG経由の著作物利用も違法と指摘

業界への波及

NYTなど多数メディアが類似訴訟
Anthropicは15億ドルで和解済み
Perplexityへの訴訟も係属中
AI学習の法的先例は未確立

ブリタニカ百科事典と辞書出版社メリアム・ウェブスターは2026年3月、OpenAIChatGPTの学習に著作権コンテンツを無断使用したとして、大規模な著作権侵害を訴える訴訟を提起しました。

訴状によると、OpenAIGPT-4はブリタニカの著作権コンテンツの多くを「暗記」しており、要求に応じてほぼ逐語的なコピーを出力するとされています。実際に訴状にはOpenAIの出力とブリタニカの原文が並べて掲載され、全文が一致する箇所が複数示されています。

さらにブリタニカは、ChatGPTが自社コンテンツ直接競合する回答を生成することでウェブトラフィックを奪い、従来の検索エンジンのようにユーザーを自社サイトに誘導しないと主張しています。またハルシネーションをブリタニカに帰属させる行為は商標法違反にも当たると訴えています。

この訴訟はAI企業に対する著作権訴訟の急増を反映しています。ニューヨーク・タイムズ、ジフ・デイビス、米国・カナダの十数紙がすでにOpenAIを提訴しており、Perplexityに対する同様のブリタニカ訴訟も係属中です。

法的には、著作権コンテンツをLLM学習に使うことが侵害に当たるかの明確な判例はまだ確立されていません。ただしAnthropicの訴訟では、連邦判事が学習データとしての利用自体は変容的使用と認めつつ、書籍の違法ダウンロードを問題視し、15億ドルの和解が成立しました。今後の判決がAI業界全体の方向性を左右する可能性があります。

NVIDIAがDLSS 5発表、生成AIでゲーム画質を刷新

DLSS 5の技術革新

生成AIで照明・素材を再構築
キャラモデルの質感を大幅向上
最大4K解像度でリアルタイム動作
従来のアップスケーリングとは根本的に異なる手法

賛否と開発者対応

一部から「AIスロップ」と批判
アート意図の改変に懸念の声
開発者向け制御機能を提供
今秋リリース、対応タイトル順次拡大

NVIDIAは2026年3月のGTCカンファレンスにて、ゲームグラフィックス技術の新版「DLSS 5」を発表しました。ジェンスン・ファンCEOは「グラフィックスにおけるGPTの瞬間」と位置づけ、手作りのレンダリングと生成AIを融合させる新たなアプローチを披露しています。

DLSS 5は従来のアップスケーリング技術とは異なり、生成AIを活用してゲーム内の照明や素材をリアルタイムで再構築します。AIモデルはキャラクター、髪、布地、半透明の肌などの複雑なシーン構造を理解し、肌の表面下散乱や布の光沢、髪の光との相互作用を精緻に生成します。

対応タイトルとして『バイオハザード レクイエム』『スターフィールド』『ホグワーツ・レガシー』『EA Sports FC』などが紹介されました。さらに『エルダー・スクロールズVI:オブリビオン リメイク』や『アサシンクリード シャドウズ』への対応も確認されています。

一方で、ゲーム開発者やユーザーの間からは批判も出ています。キャラクターの外見が大きく変わる点について「AIスロップ」と呼ぶ声や、アーティストの意図を損なうとの指摘があります。開発者のマイク・ビセル氏は「アートディレクションを排除する技術」と厳しく評価しました。

NVIDIAはこうした懸念に対し、開発者が強度やカラーグレーディングを調整できる制御機能を提供すると説明しています。特定のオブジェクトやエリアをAI処理から除外するマスク機能も備え、ゲーム固有の美的表現を維持できるとしています。ファンCEOはこの技術がゲーム以外の産業にも拡大する可能性を示唆しました。

マスク氏のxAI、未成年性的画像生成で集団訴訟

訴訟の概要

未成年3名が連邦裁判所に提訴
Grokが実写から性的画像を生成
クラスアクション形式で被害者全体を代表
安全対策の欠如を設計上の欠陥と主張

被害と社会的影響

生成画像DiscordやTelegramで拡散
加害者は画像児童ポルノ交換に使用
EU・英国も調査や警告を実施
米議会がディープフェイク規制法を可決

イーロン・マスク氏率いるxAI社に対し、AIチャットボットGrok」が未成年の実写画像から性的コンテンツを生成したとして、テネシー州の少女3名がカリフォルニア北部地区連邦裁判所に集団訴訟を提起しました。原告のうち2名は現在も未成年です。

原告の一人「ジェーン・ドウ1」は、高校のホームカミングや卒業アルバムの写真がGrokによって裸体画像に加工され、Discordサーバー上で少なくとも18名の未成年の性的画像とともに流通していたことを、匿名の通報者から知らされました。加害者はすでに逮捕されています。

逮捕された加害者は、GrokAPIを利用するサードパーティアプリ画像を生成し、ファイル共有サービスMegaにアップロードした上で、Telegramのグループチャットで数百人のユーザーと児童ポルノの交換材料として使用していたと訴状は述べています。

訴訟では、xAIが昨年の「スパイシーモード」導入時に児童性的虐待素材(CSAM)が生成されることを認識していたと主張しています。他の主要AI企業が採用している安全対策xAIは怠り、製品設計上の欠陥があったと指摘しています。マスク氏自身がGrokの性的画像生成能力を公に宣伝していた点も問題視されています。

この問題を受け、欧州連合Grokに対する調査を開始し、英国首相が警告を発するなど国際的な波紋が広がっています。米国では上院がディープフェイク被害者の訴訟権を認める法案を可決し、トランプ大統領が署名した「Take It Down法」が2025年5月に施行予定で、AI生成ディープフェイクの配布が刑事罰の対象となります。

Nvidia、AIエージェント向け新ストレージ基盤STXを発表

STXの技術概要

KVキャッシュ専用メモリ層を新設
トークン処理量5倍を実現
エネルギー効率4倍向上
データ取込速度2倍

エコシステム展開

Dell・HPEなど12社が共同設計
CoreWeave・Oracleなど8社が採用表明
2026年下半期にパートナーから提供開始

企業AI基盤への影響

ストレージがGPU調達と同格の意思決定対象に

Nvidiaは2026年のGTCにおいて、AIエージェント向けの新たなモジュラー型リファレンスアーキテクチャ「BlueField-4 STX」を発表しました。GPUと従来型ストレージの間に専用のコンテキストメモリ層を挿入し、推論時のボトルネックを解消する設計です。

STXが解決を目指すのは、KVキャッシュデータの処理遅延です。KVキャッシュとは、LLMが推論時に保存する中間計算結果であり、エージェントがセッションやツール呼び出しを跨いで文脈を維持するために不可欠です。コンテキストウィンドウの拡大に伴いキャッシュも肥大化し、従来のストレージ経由ではGPU利用率が低下していました。

STXはNvidia自身が直接販売する製品ではなく、ストレージパートナー向けのリファレンスアーキテクチャです。新型BlueField-4プロセッサにVera CPUとConnectX-9 SuperNICを統合し、Spectrum-X Ethernet上で動作します。ソフトウェア面ではDOCAプラットフォームに「DOCA Memo」を追加し、プログラマブルな最適化基盤を提供します。

パートナーにはDell、HPE、NetApp、VAST Dataなどストレージ大手12社が共同設計に参加し、CoreWeave、Oracle Cloud、LambdaなどAIネイティブクラウド8社も採用を表明しています。IBMはSTX共同設計者であると同時に、Nvidia自身がIBM Storage Scale System 6000をGPU分析基盤に採用したことも発表されました。

STXの登場は、エンタープライズAI基盤においてストレージ層がGPU調達と同等の重要な意思決定対象になることを示唆しています。ただし、性能値の比較ベースラインは未公開であり、導入判断には詳細な検証が必要です。2026年下半期にパートナー各社からSTXベースの製品が提供開始される見通しで、今後12カ月以内にストレージ更新を検討する企業は選択肢として考慮すべきです。

OpenAI、ChatGPTの成人向けモード延期へ安全性懸念が浮上

機能の概要と延期理由

テキスト限定の官能的会話を提供
画像音声動画の生成は対象外
未成年保護の技術的課題で延期
年齢推定の誤判定率12%が問題に

社内外の反発と競合動向

安全チーム専門家全員反対を表明
反対した幹部が解雇される事態に
xAIのGrokはR指定映画基準で先行
英国法規制は文字限定で回避可能

モデレーションの困難

有害コンテンツ排除との線引きが難航
過去にバグで未成年不適切出力にアクセス

OpenAIは、ChatGPTに導入予定だった「成人向けモード」について、テキストベースの官能的会話に限定して提供する方針であることが明らかになりました。画像音声動画の生成機能は当面含まれず、ポルノではなく「官能小説」レベルの内容を想定しています。

この機能は2025年10月にサム・アルトマンCEOが発表しましたが、未成年の保護コンテンツモデレーションに関する社内の懸念から延期されています。OpenAIが開発した年齢推定システムは、未成年を成人と誤判定する割合が約12%に達しており、週1億人以上の18歳未満ユーザーを抱えるChatGPTでは数百万人規模の未成年がアクセスする恐れがあります。

OpenAIが選定した外部アドバイザーは、成人向けモードが子どもにアクセスされるリスクや、チャットボットへの不健全な感情的依存を助長する危険性を1月に警告しました。あるメンバーは「セクシーな自殺コーチ」を生み出しかねないと指摘しています。

社内の安全チームの専門家全員が反対を表明していたことがウォール・ストリート・ジャーナルの報道で判明しました。成人向けモードに反対した安全担当幹部が解雇される事態も発生し、OpenAIは解雇と関連はないと否定していますが、同社の安全体制に対する疑念が強まっています。

テキスト限定のアプローチは、英国オンライン安全法がポルノ画像には年齢確認を義務付ける一方、文字による官能表現は対象外としている点で規制対応上の利点があります。一方、競合のxAI(Grok)はR指定映画基準で画像動画を含むNSFWコンテンツを提供しており、各社のアプローチの違いが鮮明になっています。

LangChainとNVIDIAがエージェントAI開発基盤で包括提携

統合プラットフォームの全容

LangGraphとNIM統合で本番運用
NeMo Agent Toolkitとの連携
推論レイテンシの自動最適化機能
NIMで最大2.6倍のスループット向上

評価・監視と今後の展開

LangSmithで150億トレース処理実績
Nemotronモデル群での横断評価
LangChainNemotron Coalition参加
GPU環境でのDeep Agents実行構想

LangChainは2026年3月16日、NVIDIAとの包括的な統合を発表し、企業向けエージェントAI開発プラットフォームを提供すると明らかにしました。累計ダウンロード数10億回を超える同社のオープンソースフレームワーク群と、NVIDIAのAIツールキットを組み合わせた構成です。

プラットフォームはLangGraphによるマルチエージェントのオーケストレーション、Deep Agentsによるタスク計画とサブエージェント生成、そしてNVIDIA AI-Q Blueprintによるディープリサーチ機能を備えます。NeMo Agent Toolkitにより既存のLangGraphエージェントを最小限のコード変更で導入できます。

実行面ではNIMマイクロサービスが標準デプロイ比で最大2.6倍のスループットを実現します。Nemotron 3 SuperのMoEアーキテクチャにより単一GPUでのコスト効率の高い展開が可能です。並列実行や投機的実行によるレイテンシ削減も自動的に適用されます。

監視面ではLangSmithが150億トレース・100兆トークンの処理実績を持ち、分散トレーシングやコスト監視を提供します。NeMo Agent Toolkitのテレメトリと統合することで、インフラレベルとアプリケーションレベルの可観測性を一元化できます。

さらにLangChainNVIDIANemotron Coalitionに参画し、オープンなフロンティアモデルの共同開発に取り組みます。将来的にはDeep AgentsがCUDA-Xライブラリを活用したGPUアクセラレーション環境で動作し、金融や医療分野での大規模データ処理を可能にする構想も示されました。

Nvidia、推論特化チップGroq 3 LPUを発表

Groq 3の技術的特徴

SRAM内蔵で超低遅延実現
メモリ帯域150TB/sでGPUの7倍
線形データフローで処理を簡素化

推論時代の到来

Groqを200億ドルで買収し技術統合
推論特化チップスタートアップが急増
AWSもCerebras推論システム構築

推論分離アーキテクチャ

プリフィルとデコードの分離処理
Groq 3 LPXトレイでGPUとLPU統合

Nvidiaは米サンノゼで開催されたGTC 2026において、AI推論に特化した新チップGroq 3 LPUを発表しました。同社がスタートアップGroqから200億ドルで技術ライセンスを取得し、わずか2カ月半で製品化したものです。

Jensen Huang CEOは「AIがついに生産的な仕事をできるようになり、推論の転換点が到来した」と宣言しました。学習と推論では計算要件が根本的に異なり、推論では低遅延が最も重要とされています。思考型・推論型モデルでは出力前に何度も推論が実行されるためです。

Groq 3 LPUの核心技術は、プロセッサ内部にSRAMメモリを直接統合した設計にあります。従来のGPUがチップ外のHBMにアクセスする必要があるのに対し、データがSRAMを直線的に通過するため、推論に必要な極めて低いレイテンシを実現します。メモリ帯域は150TB/sで、Rubin GPUの22TB/sの約7倍です。

推論特化チップ市場ではD-matrix、Etched、Cerebrasなど多数のスタートアップが独自アプローチを展開しています。AWSはCerebrasの第3世代チップと自社Traniumを組み合わせた推論システムのデータセンター展開を発表しました。推論を「プリフィル」と「デコード」に分離する技術が注目されています。

Nvidia推論分離を活用する新コンピュートトレイGroq 3 LPXを発表しました。8基のGroq 3 LPUとVera Rubin GPUを搭載し、計算集約的な処理はGPUが、最終段階の高速デコードはLPUが担います。Huang氏は「すでに量産段階にある」と述べ、推論市場の急速な拡大を示しました。

DataRobotがNVIDIAと協業しAIエージェント基盤を強化

統合プラットフォーム

Nemotron 3 Superをワンクリック展開
GPU自動最適化で推論環境を構築
思考予算調整でコスト14倍削減も可能
マルチテナント制御で複数チーム同時利用

ガバナンスと認証

Okta連携エージェントにID付与
静的APIキーから短命トークンへ移行
EU AI Act等の規制準拠を自動化

ハードウェア基盤

RTX PRO 4500推論エンジンとして検証済み
32GB VRAMでオンプレミス展開にも対応

DataRobotは2026年3月、NVIDIAと共同開発したAgent Workforce Platformにおいて、大規模言語モデル「Nemotron 3 Super」のワンクリック展開機能を発表しました。企業がAIエージェントを本番環境で安全に運用するための統合基盤を提供します。

Nemotron 3 Superは1200億パラメータのハイブリッドMamba-Transformerモデルで、100万トークンのコンテキストウィンドウを備えています。DataRobotのプラットフォームでは、GPU構成の自動推奨、監視・アクセス制御の即時有効化、チーム別クォータ管理が標準で組み込まれており、展開直後から運用可能な状態になります。

コスト管理面では、思考予算の調整により同一モデルで精度とコストのトレードオフを制御できます。金融推論ベンチマークでは、最高設定で約86%の精度に対し、最低設定でも約74%を維持しつつトークン消費を14分の1に抑えられることが実証されました。

ガバナンス面では、Oktaとの統合により、AIエージェントを企業ディレクトリ上の独立したIDとして管理する仕組みを実現しました。従来の共有APIキーによる認証では、非決定的なエージェントの行動追跡や即時無効化が困難でしたが、ID基盤型ガバナンスにより人間と同一の管理体系でエージェントを統制できます。

ハードウェア面では、NVIDIA RTX PRO 4500をDataRobotプラットフォームの推論エンジンとして技術検証済みであることを発表しました。32GBのGDDR7メモリとBlackwellアーキテクチャを搭載し、リアルタイム物流最適化やRAGパイプラインなど、エージェント型ワークロードに最適化された性能を提供します。

ウォーレン議員、米国防総省のGrok機密ネットワーク接続を追及

安全性への懸念

Grokに殺人やテロの助言機能
児童性的虐待画像の生成問題
ガードレール不足で軍人に危険
機密情報漏洩リスク指摘

国防総省の動向

Anthropicをサプライチェーンリスク認定
OpenAIとxAIに機密利用契約
GenAI.milへのGrok導入を予告
集団訴訟も同日提起

エリザベス・ウォーレン上院議員(民主党・マサチューセッツ州)は2026年3月、ヘグセス国防長官に書簡を送り、イーロン・マスク氏率いるxAIのAIモデル「Grok」に機密ネットワークへのアクセスを許可した国防総省の決定について強い懸念を表明しました。

書簡では、Grokがユーザーに対し殺人やテロ攻撃の助言を提供し、反ユダヤ主義的コンテンツや児童性的虐待画像を生成した事例が指摘されています。ウォーレン議員はこうしたガードレールの欠如が米軍人の安全と機密システムのサイバーセキュリティに深刻なリスクをもたらすと主張しました。

この動きの背景には、Anthropicが軍への無制限アクセス提供を拒否したことで国防総省から「サプライチェーンリスク」と認定された経緯があります。その後、国防総省はOpenAIおよびxAIと機密ネットワークでのAI利用契約を締結しました。

国防総省の高官はGrokが機密環境で使用するために導入されたことを認めつつも、まだ実際の運用には至っていないと説明しています。報道官は軍の生成AI基盤「GenAI.mil」への近日中の展開を予告しました。

ウォーレン議員は国防総省とxAI間の契約内容の開示を要求し、サイバー攻撃への対策や機密情報の漏洩防止策について説明を求めています。同日にはGrokが未成年者の実画像から性的コンテンツを生成したとする集団訴訟も提起され、安全管理への疑問が一層深まっています。

Tower半導体とScintil、AI向け初の単チップ光エンジン量産開始

光通信チップの革新

世界初の単チップDWDM光エンジン
8~16波長を1本のファイバーで伝送
1.6Tbpsの高速データ転送を実現
300mmシリコンウェハー上にレーザー統合

GPU性能への効果

低遅延GPU利用率が倍増
スケールアップ網の光接続を実現
2026年末に数万個出荷予定
2028年の本格展開に向け量産体制構築

Tower SemiconductorScintil Photonicsは2026年3月、AIデータセンター向けとして世界初となる単チップDWDM(高密度波長分割多重)光エンジンの量産を発表しました。この技術により、1本の光ファイバーで複数の光信号を同時に伝送でき、消費電力と遅延を大幅に削減します。

AIデータセンターでは、数十基のGPUとメモリを一体的に動作させるスケールアップネットワークが求められています。従来の銅線接続では帯域幅と遅延の限界があり、光接続への移行が急務となっていますが、レーザーそのものをシリコンチップに統合する技術が欠けていました。

ScintilのSHIP技術は、標準的な300mmシリコンフォトニクスウェハー上にレーザー、フォトダイオード、変調器を統合します。InP系半導体ダイをウェハーの必要箇所にのみ接合することで、高価な材料の使用量を最小限に抑えつつ、フォトリソグラフィで高精度な波長安定性を実現しています。

完成品のLEAF Lightチップは、1ファイバーあたり8または16波長を出力し、最大1.6Tbpsのデータ速度を達成します。従来の単一チャネル400Gbps伝送に対し、50Gbpsを8チャネルに分散する「遅く広く」のアーキテクチャにより、電力効率とファイバーあたりのデータ容量が飛躍的に向上します。

最大の利点はGPU利用率の改善です。高帯域チャネルでの誤り訂正処理が遅延を増大させるのに対し、低帯域DWDMで複数GPUを接続すれば利用率を倍増できます。Scintilは2026年末までに数万個を出荷し、翌年には生産量を10倍に引き上げる計画で、2028年の本格導入に向けサプライチェーンを整備しています。

ロシュがNVIDIA Blackwell GPU3500基超を導入し創薬加速

創薬へのAI活用

Blackwell GPU3500基超導入
ハイブリッドクラウド環境を構築
低分子プログラムの90%にAI統合
創薬期間を25%短縮した事例

製造・診断への展開

Omniverseで工場デジタルツイン構築
ノースカロライナ新工場で先行導入
デジタル病理で疾患パターン検出
AIを全社基盤能力として定着

スイス製薬大手ロシュは、NVIDIA GTC 2026において、NVIDIA Blackwell GPUを3500基以上導入し、米国と欧州のハイブリッドクラウド環境でAI基盤を大幅に拡張すると発表しました。製薬企業として公表ベースで最大規模のGPUインフラとなります。

創薬部門では、傘下のジェネンテックが推進する「Lab-in-the-Loop」戦略の中核にAIを据えています。対象となる低分子プログラムの約90%にAIが統合されており、あるオンコロジー向け分解誘導剤の設計では開発期間を25%短縮する成果を上げています。

別のプログラムでは、従来2年以上かかっていたバックアップ分子の開発をわずか7カ月で完了しました。NVIDIA BioNeMoプラットフォームを活用し、生物学的・分子的基盤モデルの学習と微調整を自社データで行う体制を整えます。

NVIDIA Omniverseを用いた製造施設のデジタルツイン構築にも着手しています。ノースカロライナ州の新しいGLP-1製造工場では、稼働前に仮想環境でシステムの最適化を進めており、規制文書作成や品質保証、生産スケジューリングにもAI活用を拡大しています。

診断事業では、デジタル病理分野で大量の画像から微細な疾患パターンを検出する技術を開発中です。NVIDIA NeMo Guardrailsを用いて医療グレードのAI安全性を確保しつつ、ラボ運営の効率化や臨床意思決定支援にもAIを展開し、創薬から診断・製造まで一貫したAI活用体制の構築を目指しています。

Google、Gemini APIに月額上限設定と利用階層の自動昇格機能を導入

コスト管理の新機能

プロジェクト単位の月額上限設定
上限は変更・無効化まで継続適用
反映遅延は約10分以内
AI StudioのSpendタブで設定

利用階層の刷新

自動昇格で高レート制限に到達
上位階層の支払要件を引き下げ
請求アカウント単位の月額上限を新設

可観測性の強化

レート制限ダッシュボード新設
日別コスト内訳グラフを追加

Googleは、Gemini APIのコスト管理を強化するため、Google AI Studioにプロジェクト単位の月額支出上限(Project Spend Caps)機能を導入しました。開発者はプロジェクトごとにドル建ての上限を設定でき、変更するまで継続的に適用されます。

あわせて利用階層(Usage Tiers)も全面刷新されました。従来は手動申請が必要だった上位階層への昇格が自動化され、利用量と支払い実績に応じてリアルタイムでレート制限が引き上げられます。上位階層に必要な累計支出額も引き下げられ、より早く高いAPI容量を確保できるようになりました。

新たに各利用階層には請求アカウント全体での月額上限が設定されます。この上限は階層の昇格に伴い自動で引き上げられ、ユーザーが個別に設定するプロジェクト上限とは独立して機能します。業界の他プラットフォームと同様の仕組みで、公平なアクセスを確保する狙いがあります。

請求設定もAI Studio内で完結するよう改善されました。従来は複数のウィンドウを行き来する必要がありましたが、設定画面から直接プロファイルの構成とプロジェクトへの紐付けが可能になります。レート制限ダッシュボードでは、RPM・TPM・RPDの3指標をプロジェクトごとに可視化できます。

さらに日別コスト内訳グラフやモデル別フィルター機能も追加され、7日間から月全体まで柔軟に支出を追跡できます。ImagenやVeoのリクエスト数、Grounding with Google Searchなどツール別の使用状況も確認可能になり、開発者予算管理と運用の透明性が大幅に向上しました。

NVIDIA主導で医療ロボット初の大規模オープンデータセット公開

データセットと規模

778時間医療ロボットデータ
手術・超音波・内視鏡を網羅
35組織が国際共同構築
CC-BY-4.0で完全公開

基盤AIモデル2種

GR00T-H:手術用VLAモデル
縫合タスクの端到端実行を実証
Cosmos-H:手術シミュレータ
実機2日分を40分で再現

NVIDIAとジョンズ・ホプキンス大学、ミュンヘン工科大学らが主導する国際コミュニティが、医療ロボティクス分野初の大規模オープンデータセット「Open-H-Embodiment」を公開しました。35組織が参加し、778時間分のCC-BY-4.0ライセンスデータを提供しています。

データセットは手術ロボティクスを中心に、超音波検査や大腸内視鏡の自律制御データも含みます。シミュレーション、ベンチトップ訓練、実臨床手術にまたがり、CMR SurgicalやRob Surgicalなどの商用ロボットおよびdVRK、Frankaなどの研究用ロボットのデータを収録しています。

同時に公開されたGR00T-Hは、NVIDIAのVision-Language-Actionモデルを手術ロボット向けに特化させた初のポリシーモデルです。約600時間のデータで訓練され、SutureBottベンチマークで端到端の縫合タスクを完遂する能力を実証しました。異なるロボット間の運動学的差異を吸収する独自の設計が特徴です。

Cosmos-H-Surgical-Simulatorは、運動指令から物理的に妥当な手術映像を生成するワールド基盤モデルです。従来のシミュレータでは再現困難な軟組織変形や反射、出血を暗黙的に学習します。実機で2日かかる600回のロールアウトをわずか40分で完了でき、データ拡張にも活用可能です。

次期バージョンでは、意図・結果・失敗モードを注釈した推論対応データへの拡張を目指しています。手術ロボットが状況を説明し、計画を立て、長時間の手術に適応できる推論能力付き自律制御の実現が目標です。データセットとモデルはHugging FaceおよびGitHubで公開されており、コミュニティへの参加を呼びかけています。

AIエージェントのWeb操作がアクセス解析の前提を揺るがす

変わる指標の意味

AIエージェントが代行操作
クリックや滞在時間の意味が変質
人間の意図と乖離するデータ
EC・SaaS・旅行業界で顕在化

排除から解釈へ

従来のBot検知手法が無効化
行動文脈による確率的判定が有効
プライバシー配慮と信頼が前提
エージェンシーの連続体として設計

AIエージェントがユーザーに代わってWebサイトを操作する場面が増え、企業が依拠してきたアクセス解析の前提が崩れ始めています。ページビューやクリックといった指標は正確でも、その背後にある意図が人間のものとは限らなくなっているのです。

従来の自動化トラフィックは規則的な挙動で容易に検出できましたが、大規模言語モデルを活用した最新のAIエージェントは標準ブラウザで動作し、スクロールや非線形なナビゲーションを行うため、人間との区別が極めて困難になっています。技術的な異常検知だけでは対処できない時代に入りました。

EC事業者が商品閲覧数やカート追加の増加を需要シグナルと判断して広告費を増やしたものの、実態はAIによる価格監視や比較操作だったという事例が生じています。デジタルメディアではPV増加と広告収益が連動せず、SaaS企業では機能探索が増えてもコンバージョンに結びつかない現象が報告されています。

こうした課題に対し、CAPTCHAやレート制限による排除型アプローチから、行動文脈を分析する解釈型アプローチへの転換が進んでいます。人間特有の非効率な操作パターンとエージェントの構造的なロジックの違いを、ナビゲーションフローやタイミングの変動から確率的に推定する手法が注目されています。

ビジネスリーダーに求められるのは、エンゲージメント指標の再評価、活動と意図の分離、文脈的・確率的な計測手法への投資、そしてAI参加が拡大する中でのデータ品質の維持です。Web上のインタラクションは人間の直接操作からAI支援、完全自律までの連続体として捉える時代に移行しています。

LangChain、エージェント一発デプロイCLIを公開

deploy CLIの主要機能

langgraph deployで即時デプロイ
Docker構築からインフラ自動構成まで一貫
Postgres・Redisも自動セットアップ
CI/CDパイプラインへの組み込みに対応

管理コマンドと開発支援

デプロイ一覧・ログ確認・削除を完備
uvx経由で即座に利用可能
deep agent・simple agentテンプレート提供

LangChainは、langgraph-cliパッケージに新たなdeploy CLIコマンド群を追加し、コマンドライン一つでAIエージェントLangSmith Deploymentデプロイできる機能を公開しました。

中核となるlanggraph deployコマンドは、ローカルのLangGraphプロジェクトからDockerイメージを自動構築し、本番運用に必要なインフラを一括で構成します。手動でのサーバー設定が不要になり、開発者の負担を大幅に軽減します。

インフラ面では、永続化のためのPostgreSQLとメッセージストリーミング用のRedisが自動的にセットアップされます。これにより、エージェントは追加設定なしに本番環境で安定稼働できます。

GitHub ActionsやGitLab CI、Bitbucket Pipelinesなど既存のCI/CDワークフローとの統合も容易です。デプロイの一覧表示、ログ確認、削除といった管理コマンドも同時に提供されています。

開発者向けにはdeep agentとsimple agentの新テンプレートも公開されており、langgraph newコマンドで雛形を生成できます。uvxを使えばインストール不要で即座に試用が可能です。

a]16zが提言、AIでSAP等レガシー基幹システムを再生

レガシーの壁とAI

SAP移行に7億ドル・3年の事例
業務知識がシステムに固定化
デジタル作業者の47%が情報検索に苦戦
大規模変革の70%が目標未達

AI活用の3領域

導入・移行の自動化と低リスク化
日常業務をAIコパイロットで効率化
薄型アプリでレガシーUIを刷新
意図駆動の操作レイヤーが新標準に

a16zAndreessen Horowitzは、AIがSAP・ServiceNow・Salesforceなどの大規模レガシー基幹システムの活用方法を根本的に変えると提言しました。これらのシステムは企業の中核データと業務プロセスを握っており、置き換えは極めて困難ですが、AIによる「再生」が現実的な選択肢になりつつあります。

レガシーシステムの課題は深刻です。SAP ECCからS/4HANAへの移行には最大7億ドル・3年・50人規模のコンサルチームが必要とされ、独リドルは5億ドルを投じた移行を断念しました。デジタル作業者は1日平均1,200回もアプリを切り替え、週4時間を浪費しています。システム統合市場だけで2023年に約3,800億ドル規模に達しています。

AIの活用領域は大きく3つあります。第一に「導入・移行」では、要件定義やテスト自動化により工期とリスクを圧縮します。AxiamaticやTesseraなどのスタートアップが、ERP移行プロジェクトの失敗を早期検知し、コンサルタント依存を削減するツールを提供しています。

第二に「日常利用」では、AIコパイロットがSlackやブラウザから質問応答と安全な操作実行を担います。APIが存在しない業務には「コンピュータ使用型エージェント」がUI操作を自動化し、従来手作業だった残り30〜40%のワークフローもカバーします。Factor LabsやSolaが本番環境で実用化を進めています。

第三に「拡張」では、レガシーシステム上に薄型アプリを迅速に構築します。12のSAPトランザクションを1画面に集約するベンダーオンボーディングや、複数システムを横断するイベント駆動ワークフローが実現します。a16zは最終的に基幹システム自体は残りつつも、AIが「意図駆動型の操作レイヤー」となり、ユーザーは画面やコードではなく目的を伝えるだけで業務が完結する世界を描いています。

OpenAI Codex SecurityがSASTレポートを採用しない理由

SAST の限界

データフロー追跡だけでは不十分
サニタイザー存在と安全性は別問題
変換チェーン後の制約維持が課題
順序・正規化の不整合が実際の脆弱性

エージェント型検証の設計

リポジトリ構造と脅威モデルから出発
z3ソルバーで制約充足を形式検証
サンドボックスでPoC実行検証
トリアージ前に証拠を確立

SAST起点を避ける理由

既存結果への早期収束リスク
暗黙の前提が推論を歪める

OpenAIは自社のコードセキュリティ製品「Codex Security」において、従来の静的解析(SAST)レポートを起点としない設計を採用しました。代わりにリポジトリのアーキテクチャ、信頼境界、意図された動作から分析を開始し、人間に報告する前に検証を行う方針です。

SASTは入力源から危険なシンクまでのデータフロー追跡に優れますが、実際のコードベースでは間接呼び出しやリフレクション、フレームワーク固有の制御フローにより近似処理が必要になります。より根本的な問題は、サニタイザーが存在しても、その制約が変換チェーン全体で維持されるかを判定できない点にあります。

具体例として、JSONペイロードから取得したリダイレクトURLに対し正規表現チェック後にURLデコードを行うパターンがあります。CVE-2024-29041ではExpressにおいて、不正なURLがデコード・解釈の過程で許可リストを迂回できる脆弱性が発見されました。データフローは明白でも、変換後に検証が有効かが真の問題でした。

Codex Securityはコードパスをセキュリティ研究者のように読み、検証と実装の不一致を探します。最小のテスト可能な単位に分解してマイクロファザーを生成し、Python環境のz3ソルバーで制約充足問題として形式化することも可能です。サンドボックス環境でエンドツーエンドのPoCを実行し、疑惑と確証を区別します。

SASTレポートを起点としない理由は3つあります。第一に、既存の検出結果が探索範囲の早期収束を招きます。第二に、SASTが内包する暗黙の前提が推論を歪め、調査ではなく確認作業に陥ります。第三に、エージェント自身の発見能力の評価が困難になり、システム改善の妨げとなります。

東南アジア詐欺拠点がAIモデル大量募集、顔替え通話で被害拡大

AIモデル募集の実態

Telegramで数十件の求人広告を確認
1日最大150件のビデオ通話を要求
月給最大7000ドルの高報酬提示
パスポート預かりなど人身売買の兆候

ディープフェイク詐欺の手口

恋愛詐欺や暗号資産投資詐欺に悪用
顔交換技術で本人確認を突破
複数人が一つの偽ペルソナを共有運用
カンボジア等に専用AI部屋を設置

対策と課題

Telegram側は個別判断の姿勢
NPOが求人チャネルの監視を継続

東南アジアの詐欺拠点が、ディープフェイク用の「AIフェイスモデル」を大規模に募集していることがWIREDの調査で明らかになりました。Telegramには数十の求人チャネルが存在し、トルコやロシア、ウクライナなど世界各国から応募が殺到しています。

AIモデルの役割は、顔交換ソフトウェアを使ってビデオ通話に出演し、詐欺被害者に「本物の人間」と信じ込ませることです。いわゆる「豚の屠殺」と呼ばれる恋愛詐欺や暗号資産投資詐欺において、被害者が本人確認を求めた際にディープフェイク通話で対応します。

求人広告では1日あたり100〜150件のビデオ通話が求められ、月の休日はわずか1日と半日4回程度です。勤務時間はカンボジア時間で午後10時から午前10時までとされ、「西洋風のアクセント」や中国語能力が優遇条件として挙げられています。

応募者の大半は20代前半の若い女性で、自己紹介動画や写真の提出が求められます。一部の応募者は「ラブスキャム」への従事経験を公然と記載しており、暗号資産投資への勧誘技術を売り込むケースも確認されました。人権団体は、自発的に応募した者でも暴力や性的嫌がらせを受ける危険があると警告しています。

Telegramは詐欺関連活動を規約で禁止しているとしつつも、WIREDが報告した約24のチャネルを削除しなかったとされます。ベトナムのNPO「ChongLuaDao」やHumanity Research Consultancyなどが監視を続けていますが、AIを悪用した詐欺の産業化に歯止めがかかっていないのが現状です。

Z.ai、エージェント特化の非公開モデルGLM-5 Turboを投入

モデルの特徴と価格

エージェント向け高速推論に最適化
入力$0.96・出力$3.20の低価格設定
約20万トークンの長文脈対応
ツール呼出エラー率0.67%と低水準

戦略的意味合い

オープンソース路線からの転換信号
中国AI各社が商用優先へ傾斜
米国大手と同様のハイブリッド戦略
企業向けコーディングサービスにも搭載

中国AIスタートアップZ.aiは、オープンソースのGLM-5をベースにしたプロプライエタリ版「GLM-5 Turbo」を発表しました。エージェント駆動型ワークフロー向けに最適化された同モデルは、OpenRouterのAPIを通じて即日利用可能です。

価格は入力100万トークンあたり0.96ドル、出力100万トークンあたり3.20ドルに設定されています。前身モデルより合計コストで約0.04ドル安く、Claude Haiku 4.5やGemini 3 Flashなど競合モデルと比較しても競争力のある水準です。

技術面では、複雑な指示の分解・ツール呼び出し・スケジュール実行・長時間タスクの安定性が改善されています。OpenRouterのデータによると、ツール呼出エラー率はわずか0.67%で、GLM-5の各プロバイダー(2.33〜6.41%)を大きく下回ります。

注目すべきはライセンス戦略の変化です。Z.aiはGLM-5 Turbo自体の公開は明言せず、得られた知見を次期オープンソースモデルに反映するとしています。これはAlibaba Qwen部門の幹部離脱や組織再編と合わせ、中国AI業界全体の商用化シフトを示唆しています。

この動きは、OpenAI・Anthropic・Googleが採用する「オープンで普及、プロプライエタリで収益化」という米国型ハイブリッド戦略と酷似しています。エージェントプラットフォームを検討する開発者にとって、GLM-5 Turboは製品であると同時に、中国AI市場の構造変化を読み解く重要なシグナルです。

半導体冷却のFrore、評価額16.4億ドルでユニコーンに

資金調達の概要

シリーズDで1.43億ドル調達
累計調達額は3.4億ドルに到達
評価額16.4億ドルでユニコーン入り
MVP Venturesがリード投資家

技術と事業展開

元Qualcommエンジニア2名が創業
AIチップ向け液冷システムを開発
Nvidia・Qualcomm・AMD向け製品展開
黄仁勲CEOの助言が液冷転換の契機

半導体冷却スタートアップFrore Systemsが、MVP Ventures主導のシリーズDラウンドで1億4300万ドルを調達し、評価額16億4000万ドルのユニコーン企業となりました。同社の累計調達額は3億4000万ドルに達しています。

Frore Systemsは元Qualcommのエンジニア2名が8年前に設立した企業です。当初はスマートフォンなどファンレス機器向けの空冷技術を開発していましたが、現在はAIチップ向けの液冷システムを主力事業としています。

事業転換のきっかけは、約2年前にNvidiaのCEO黄仁勲氏が同社の技術デモを見たことでした。黄氏はAIチップに不可欠な液冷オプションの開発を提案し、同社はNvidia各種チップ・ボード対応の製品を次々とリリースしています。

AI半導体分野への投資は活発化しており、Nvidia競合のPositronが2月に評価額10億ドル、Recursive Intelligence評価額40億ドルで登場するなど、新興ユニコーンが相次いで誕生しています。Eriduも2億ドルのシリーズAで参入しました。

今回のラウンドにはFidelity、Mayfield、Addition、Qualcomm Ventures、Alumni Venturesなどが参加しました。大手機関投資家半導体企業の双方が出資しており、AI冷却技術への期待の高さがうかがえます。

NVIDIA、AIファクトリー仮想検証基盤DSX Airを発表

DSX Airの機能

AIファクトリー全体のデジタルツイン構築
GPU・NIC・DPU等を高精度シミュレーション
稼働開始を数カ月から数日に短縮
ストレージ・セキュリティ等パートナー連携対応

エコシステムへの影響

CoreWeaveが導入済みで事前検証を実施
サーバー製造元が物理ラボ不要で検証可能
マルチテナント環境のセキュリティ検証に対応
変更管理・アップグレードの事前テストにも活用

NVIDIAは2026年3月のGTC 2026において、AIファクトリーを論理的にシミュレーションするSaaS型プラットフォーム「DSX Air」を発表しました。CEOジェンスン・ファン氏が紹介したこの製品は、DSXプラットフォームの一部として提供されます。

DSX Airは、GPU、SuperNIC、DPU、スイッチなどのNVIDIAハードウェアインフラを高精度にデジタルシミュレーションします。ストレージやルーティング、セキュリティ、オーケストレーションなどのパートナーソリューションともAPIベースで連携できます。

大規模AIインフラを構築するCoreWeaveをはじめとする企業がすでにDSX Airを活用しており、ハードウェア到着前に環境のシミュレーションと検証を完了させています。導入までの時間を数週間〜数カ月から数日〜数時間へと大幅に短縮できます。

GTC会場のデモでは、Check Pointの分散ファイアウォールやTrendAI Vision Oneによる脅威検知、Keysight AI Inference Builderなど、セキュリティ分野の検証事例も披露されました。マルチテナントポリシーやDPUベースの分離機能もシミュレーション環境で検証可能です。

タイ最大のAIクラウド事業者Siam.AIやベアメタルGPUプロビジョニングを手がけるHydra Hostも導入を開始しています。AIファクトリーの大規模化・複雑化が進む中、ハードウェア到着前にフルスタック環境を検証できる能力がイノベーションの速度を左右すると同社は強調しています。

a]6zが核兵器との類比でAI規制論を展開

オッペンハイマーの比喩

核兵器開発と AI の類似性を指摘
Anthropicが政府への提供に慎重姿勢
架空企業「McBombalds」で民間管理の矛盾を描写

国家安全保障との関係

米イラン戦争でAI技術の軍事的優位が顕在化
核拡散防止とAI規制の整合性を問題視
民間企業が超兵器を管理する危険性を警告

誰がAIを管理すべきか

技術は完成した時点で使用は不可避
政府か民間かという本質的問いを提起

a16zアンドリーセン・ホロウィッツは、映画『オッペンハイマー』の核兵器開発の歴史を引き合いに出し、現在のAI技術が同様の転換点にあるとする論考を発表しました。AnthropicのCEOダリオ・アモデイ氏がAIを核兵器に例えている点を起点に議論を展開しています。

論考では架空の民間企業「McBombalds社」が核兵器を開発したという思考実験を提示します。もし1945年にトルーマン大統領が民間企業から原爆の購入を求め、企業側が使用条件を制限したらどうなるかという仮定で、民間によるAI管理の矛盾を浮き彫りにしています。

背景にはAnthropicが米国政府へのAI技術提供に慎重な姿勢を取っている現実があります。同社は自社の価値観に基づきアクセスを制限しており、a16zはこれを「オッペンハイマーが政府より強力な兵器を持つ」状態と同等だと批判しています。

折しも米国とイスラエルによるイラン戦争が勃発し、最新AI技術の軍事的優位性が実証されました。イランの核兵器取得阻止を理由に戦争を遂行する一方で、次世代の超兵器であるAIの管理を民間企業の財産権の問題として扱うことは矛盾だと指摘しています。

論考は「技術が完成した以上、製造するか否かではなく誰に委ねるかが唯一の選択肢」と結論づけています。核兵器が発明から80年間人類を滅ぼしていない事実はAIにも当てはまるとは限らず、政府が最善の管理者とも限りませんが、軍事利用の責任を誰が担うべきかという問いに答えない批判は無意味だと主張しています。

Picsart、AIエージェント市場を開設しクリエイター支援

4種のAIエージェント

Shopify連携のFlair agent
画像・動画の自動リサイズ機能
スタイル変換のRemix agent
背景一括変更のSwap agent

運用と安全性

WhatsApp・Telegram対応
自律レベルの段階設定が可能
承認制で誤動作リスクを軽減
有料プランで本格利用可能

Picsartは、クリエイターがAIアシスタントを「雇用」できるAIエージェントマーケットプレイスを開設しました。SNSコンテンツのリサイズやリミックス、商品写真の編集など、特定タスクを自動化する4種類のエージェントを提供開始しています。

最も高機能なFlairエージェントShopifyと連携し、市場トレンドを分析してオンラインストアの改善提案を行います。将来的にはA/Bテストの実施や低パフォーマンス商品の特定も可能になる予定で、ECオーナーの売上向上を包括的に支援します。

Resize Proエージェントは各プラットフォームの推奨サイズに画像・動画を自動変換します。元の素材がサイズに合わない場合はAIが生成的にフレームを拡張し、意図的に構図を整えたような仕上がりを実現します。

これらのエージェントWhatsAppTelegram上でも利用可能で、デスクでも移動中でもチャット形式で指示を出せます。CEOのアヴォヤン氏は「クリエイターは操作者から意思決定者へ変わる」と、エージェントによるワークフロー革新を強調しました。

安全面では、エージェント自律レベルをユーザーが設定でき、すべての操作に承認を求めるモードも用意されています。LLMベースのソフトウェアに伴うハルシネーションや意図しない動作のリスクに対し、段階的な制御で対応しています。無料プランでは利用が限定的で、本格利用には月額約10ドルからの有料プランが必要です。

VercelがLiteLLMサーバーの公式デプロイに対応

LiteLLM連携の概要

Vercel上にワンクリック展開
任意のLLMプロバイダーに接続可能

技術的な特徴

Vercel AI Gateway経由のルーティング
YAML設定でモデル切替が容易
環境変数によるAPIキー管理
既存proxy_serverをそのまま利用

Vercelは、LLMプロキシツール「LiteLLM」のサーバーを同社プラットフォーム上にデプロイできる公式サポートを開始しました。これにより開発者は、複数のLLMプロバイダーへの接続を一元管理できるようになります。

LiteLLMは、OpenAI互換のAPIゲートウェイとして機能し、背後で任意のLLMプロバイダーに接続する仕組みです。開発者はエンドポイントを統一したまま、モデルの切り替えやプロバイダーの変更を柔軟に行えます。

デプロイ方法は非常にシンプルで、litellm.proxyモジュールのproxy_serverアプリをそのまま利用します。基本的なゲートウェイ構成であれば数行のコードで立ち上げることが可能です。

Vercel AI Gatewayを経由してモデルをルーティングする場合は、litellm_config.yamlに設定を記述します。モデル名やAPIキーを環境変数で管理でき、セキュリティと運用性の両立が図られています。

この対応により、Vercelのエコシステム内でLLMアプリケーションの構築からデプロイまでを完結させる選択肢が広がりました。マルチプロバイダー戦略を採る企業にとって、ベンダーロックインを避けつつ迅速に開発を進められる環境が整います。

AI翻訳ツールがゲーム保存コミュニティで論争に

プロジェクトの概要

Vibe codingでAI翻訳ツール開発
日本のゲーム雑誌スキャンが対象
Google GeminiでOCR・翻訳を自動化

コミュニティの反発

Patreon資金のAI活用に批判
翻訳精度への懸念が噴出
開発者が公開翌日に謝罪文投稿

保存活動の背景

Gaming Alexandriaは2015年設立
1970年代からの雑誌スキャンを収蔵

Gaming Alexandriaの運営者Dustin Hubbard氏が、AIを活用した日本語ゲーム雑誌の自動翻訳ツール「Gaming Alexandria Researcher」を週末に公開しましたが、コミュニティから強い反発を受け、翌日に謝罪する事態となりました。

Vibe codingと呼ばれるAI支援型のプログラミング手法で開発されたこのツールは、数百冊に及ぶ日本のゲーム雑誌スキャンのOCRテキストを機械翻訳し、西洋の研究者が活用できる形に整理することを目的としています。

しかし、Patreonの支援金をAI翻訳プロジェクトに充てたことに対し、多くのコミュニティメンバーが異議を唱えました。エラーの多いAI翻訳に資金を投じることへの不信感が主な理由です。

Hubbard氏は謝罪文で「これまでアクセスできなかったものへのアクセスを提供するのが自分の保存哲学だった」と述べつつ、「AIの問題点をもっと考慮すべきだった」と反省の意を示しました。

Gaming Alexandriaは2015年の設立以来、高品質なボックスアート、希少なプロトタイプ、1970年代に遡る日本のゲーム雑誌など、ビデオゲーム史の包括的なアーカイブとして成長してきました。この論争は、AIツールの有用性と品質・倫理面の懸念が衝突する現状を浮き彫りにしています。

Google、オンライン詐欺対策の業界協定に署名

業界協定の概要

国連詐欺サミットで署名
MetaやMicrosoftなど10社参加
脅威情報の共有体制構築
組織犯罪ネットワークに対抗

Googleの追加施策

1500万ドルの既存支援を拡大
AI活用の詐欺検知技術提供
法執行機関との連携強化
データ共有ガイド公開予定

Googleは、ウィーンで開催された国連グローバル詐欺サミットにおいて、オンライン詐欺・不正行為に対抗する業界協定に署名しました。Adobe、Amazon、Meta、Microsoft、OpenAIなど主要テック企業10社が共同で参加しています。

この協定は、オンライン詐欺が孤立した事案から組織的な国際犯罪ネットワークへと進化し、深刻な金銭的・精神的被害をもたらしている現状を受けて締結されました。業界全体で能力を統合し、防御を連携する狙いがあります。

参加企業は脅威インテリジェンスの共有を軸に、詐欺グループの手口や攻撃パターンを迅速に把握する体制を整えます。個別対応では限界がある国際的な詐欺犯罪に対し、集団的な防御力の向上を目指しています。

Googleは既にGoogle.orgを通じて1500万ドルの資金を提供しており、今後はAI駆動の詐欺検知・無効化ソリューションなど技術的支援も拡大します。2026年中にはグローバル・シグナル・エクスチェンジを通じた情報共有も強化される予定です。

さらに、パートナー企業と共同でデータ共有の実務ガイドや、民間から法執行機関への通報フレームワーク、公共政策ガイドラインを順次公開する計画です。国境を越えた詐欺対策の制度的基盤づくりが本格化します。

ネタニヤフ首相のAIクローン疑惑が映像信頼の危機を浮き彫りに

ディープフェイク疑惑の経緯

記者会見映像で指6本と指摘
Snopes等がAI生成を否定
反証動画もさらに疑惑を招く
コーヒーカップの液体に不自然な動き

真正性証明の構造的課題

C2PA等の認証メタデータが未付与
プラットフォーム側も真偽を判定せず
トランプ大統領もAI偽情報を批判
自政権もAI生成画像を多用する矛盾

イスラエルのネタニヤフ首相が2026年3月の記者会見で「指が6本に見える」映像が拡散し、首相がAI生成のディープフェイクに置き換えられたとする陰謀論がSNS上で急速に広がりました。

ファクトチェック機関のSnopesやPolitiFactは映像の画質劣化や照明が原因と結論づけ、約40分の長尺映像は現行のAI動画生成モデルでは作成不可能と指摘しています。しかしこうした検証にもかかわらず、疑念は収まりませんでした。

ネタニヤフ首相はカフェで指を数える反証動画をXに投稿しましたが、コーヒーの液体の動きや指輪の不自然な消失など新たな「証拠」が指摘され、かえって疑惑を深める結果となりました。カップの持ち方や「雰囲気」まで疑われる異常事態です。

根本的な問題は、いずれの映像にもC2PA Content CredentialsやSynthIDといった真正性証明のメタデータが付与されていない点です。InstagramやYouTubeなどのプラットフォームもAI生成の有無を表示しておらず、映像の真偽を客観的に判定する仕組みが整っていません。

トランプ大統領はイランがAIを偽情報兵器として使用していると批判しましたが、自身もディープフェイクを政治的に利用した経歴があり、米政権自体がAI生成画像を多用しているという矛盾が指摘されています。AI時代における映像の信頼性確保は、技術・制度の両面で喫緊の課題です。

Google、欧州AI人材育成に3000万ドル追加投資を発表

AI Works始動

3000万ドルの追加支援発表
欧州AI機会基金を拡充
50大学と連携し学生支援
求人の24%がAIスキル要求

人材育成の具体策

AI専門資格を10言語で提供
ICT・物流・金融など重点5分野
5万人の労働者に研修実施
地域NPOと労働組合が配布協力

Googleは2026年3月、ラトビア・リガで開催されたFuture of Work Forumにおいて、欧州の労働者と学生向けAIスキル支援イニシアチブ「AI Works for Europe」を発表しました。Google.orgの欧州AI機会基金に3000万ドルの追加支援を行います。

同社は2015年以降、欧州2100万人以上にデジタルまたはAIスキルの研修を実施してきました。AI普及により欧州GDPが1.2兆ユーロ押し上げられる可能性があるとし、この機会を捉えるための人材投資を加速させます。

非営利団体INCOとChanceが欧州50以上の高等教育機関と連携し、最終学年の学生に実践的AIスキルと就職支援を無償で提供する「NewFutures:AI」プログラムを展開します。ICT、事務、物流、マーケティング、金融の5分野を重点領域に定めています。

INCOの調査では、英国・EU全域の3100万件の求人を分析した結果、エントリーレベルの求人の24%が何らかのAI関連スキルを求めていることが判明しました。OECD・欧州委員会のデータと1500人超への聞き取りも活用されています。

新たにGoogle AIプロフェッショナル資格欧州10言語で提供開始し、AI Sweden等の現地NPOや労働組合を通じて5万人の労働者に届けます。IPSOSの調査ではAIリテラシーが労働者のAI活用に不可欠であると示されており、実践的な研修が雇用主の求めるスキル習得を支援します。

Google.org、AI時代の人材育成に1.5億ドル超投資の成果公表

5年間の投資成果

1.5億ドル超を投資
41カ国70団体と連携
数百万人にデジタル技能を提供
AI Opportunity Fundを新設

効果的な支援の教訓

学習者の文脈に合わせた設計
成長マインドセットの醸成が鍵
長期的なインフラ構築が不可欠
政策への影響で制度変革を推進

Google.orgは2026年3月、過去5年間のFuture of Workプログラムの成果と教訓をまとめた報告書を公開しました。同プログラムでは1億5000万ドル以上を投資し、欧州41カ国の70団体と連携して、デジタルスキル格差の解消に取り組んできました。

報告書では、AI時代に向けた4つの重要な教訓が示されています。第一に、学習者ごとの文脈に応じた設計が成果を左右します。Generationの研究では、AIによる中高年の採用バイアスを特定し、対象を絞ったプログラムで83%の就職率を達成しました。

第二に、特定スキルの習得だけでなく成長マインドセットの醸成が不可欠です。フィンランドのTSLでは、SkillPlusプログラム修了者の69%がプログラム終了後もデジタルスキルの学習を継続しました。Czechitasでは卒業生が教育者コミュニティの40%を占める自律的な支援サイクルが生まれています。

第三に、長期的なインフラ整備が重要です。地元の非営利団体に柔軟な資金を提供することで、技術の変化にも対応できる持続的なプログラムが構築されます。生活費やデバイスへのアクセスなど包括的支援を加えると、修了率が2倍以上に向上した事例も報告されています。

第四に、個人支援にとどまらず制度そのものの変革が求められます。ウクライナのDiia.Osvitaは地域プロジェクトから国家インフラへと成長し、成人の52%が利用するまでに拡大しました。Google.orgはこれらの教訓を新たなAI人材育成施策「AI Works for Europe」に反映させていく方針です。

Yahoo CEO、Verizon離脱後の再建とAI検索エンジン戦略を語る

Yahoo再建の全体像

Verizonから独立し黒字化達成
非中核ブランドを次々売却し集中
Apollo傘下で数十億ドル規模の収益
ファーストパーティデータが競争優位
DAUの75%がログイン状態
Yahoo MailはZ世代が50%占める

AI検索Scout の戦略

Anthropic Haikuを軽量LLMとして採用
パブリッシャーへのリンクを重視する設計
既存Yahoo製品群にScoutを統合
パーソナライズとエージェント機能を予定
検索広告の新UIでマネタイズ模索
Google対抗ではなく既存ユーザーの検索頻度向上が狙い

広告と事業の方向性

SSPとネイティブ広告を廃止しDSPに集中
NetflixやSpotifyのCTV広告も配信
スポーツ賭博は自社運営せず送客モデル
Coinbase連携で金融送客を強化
IPOを視野に入れた経営体制構築
コングロマリット型GM制で各事業を運営

YahooのCEOジム・ランゾーン氏がThe Vergeのポッドキャスト「Decoder」に出演し、2021年のVerizonからのスピンアウト以降の再建戦略を詳細に語りました。同社は現在、Apollo Global傘下の独立企業として数十億ドル規模の売上を誇り、高い収益性を実現しています。

再建の柱となったのは、非中核事業の売却と広告技術の再編です。TechCrunchやEngadgetなどのメディアブランドを売却し、収益性の低いSSPとネイティブ広告事業を廃止しました。代わりにDSP(デマンドサイドプラットフォーム)に集中投資し、NetflixやSpotifyを含むCTV広告配信で成長を遂げています。

注目すべきは、新たに立ち上げたAI検索エンジン「Scout」の戦略です。Anthropicの軽量モデルHaikuとYahooの独自データを組み合わせ、コスト効率の高いAI回答エンジンを構築しました。ChatGPTやGoogleと異なり、パブリッシャーへの明示的なリンクとトラフィック送客を重視する設計思想を打ち出しています。

ランゾーン氏は、Yahoo Mailの利用者の50%がZ世代・ミレニアル世代であることを明かし、ユーザー基盤の若返りが進んでいると強調しました。7億人のグローバルユーザーに対してScoutを各プロダクトに統合配信し、検索頻度の向上を通じた成長を目指す方針です。今後はパーソナライズやエージェント機能の追加も予定しています。

スポーツ賭博や予測市場については、自社での運営には参入せず、情報提供と送客に徹する姿勢を明確にしました。Polymarket連携やBetMGMとの提携は広告契約に近い位置づけです。将来的にはIPOを視野に入れつつ、コングロマリット型のGM制で各事業の自律的成長を促す経営体制を維持していく考えを示しました。

GitHub Actions入門、YAML定義でCI/CD自動化を実現

基本構成と仕組み

YAMLワークフロー定義
イベント駆動で自動実行
ホステッドランナーで仮想実行
Marketplaceの再利用可能アクション活用

実践と運用管理

イシュー自動ラベル付けを実装
permissionsでアクセス権制御
Actionsタブで実行履歴確認
ワークフロー一時停止・再開対応

GitHubは、リポジトリに組み込まれたCI/CDおよび自動化プラットフォーム「GitHub Actions」の入門ガイドを公開しました。YAMLファイルでワークフローを定義し、プッシュやプルリクエストなどのイベントをトリガーに自動実行される仕組みです。

ワークフローイベントランナージョブの3要素で構成されます。イベントが発火するとGitHubが仮想マシン上でジョブを起動し、定義されたステップを順次実行します。Ubuntu、Windows、macOSのホステッドランナーが提供されています。

実践例として、新規イシューに自動でラベルを付与するワークフローの作成手順が紹介されています。.github/workflowsディレクトリにYAMLファイルを配置し、トリガー条件とジョブ内容を記述します。GitHub CLIを活用したスクリプト実行も可能です。

セキュリティ面では、permissionsキーワードでジョブごとのアクセス権を制御します。環境変数にはGitHubが自動生成するGITHUB_TOKENを設定し、リポジトリへの安全なアクセスを実現しています。

GitHub Marketplaceには、コードのチェックアウトやNode.jsセットアップなど再利用可能なアクションが多数公開されています。パッケージ公開、テスト実行、セキュリティチェックなど幅広い自動化に対応しており、Actionsタブからワークフローの監視・管理・デバッグが可能です。

Eon Systems「ハエの脳をアップロード」主張に専門家が疑義

基盤モデル

誇大な主張と実態

論文未発表で動画のみ公開
専門家「本物の上傳動物ではない」
91%精度の根拠が不明確
マスク氏ら著名人が拡散に加担

科学的検証の欠如

独立検証なし、再現不可能
神経伝達物質など重要情報が欠落
仮想ハエは飛行すらできず
複数個体の合成データを使用

Eon Systems社(サンフランシスコ)が2026年3月、ショウジョウバエの脳全体をデジタル化し仮想身体で動作させたと主張する動画をXに投稿しました。共同創業者は「世界初の全脳エミュレーションの具現化」と称し、CEOは「本物のアップロードされた動物」と断言しています。

しかし公開されたのは短い動画2本のみで、詳細な手法の記述も科学論文も独立した検証も存在しません。イーロン・マスク氏やブライアン・ジョンソン氏らがSNSで賞賛し、コンテンツファームが「人間も次か」と煽る記事を量産する事態となりました。

ハーバード大学のアレクサンダー・ベイツ研究員は、同社が「期待を下回る成果」しか示していないと指摘します。ブログ記事で追加情報が公開されましたが、コードや再現手順の詳細は不足しており、91%という行動精度の定義も依然不明です。さらに仮想ハエは飛行できないことも判明しています。

カーネギーメロン大学のナイエビ教授は、同社がハエの脳全体を捉えるには「程遠い」と評価しました。神経伝達物質や細胞間接続の強度といった重要な生物学的情報が欠落しており、運動系も「真のアップロード」ではないと断じています。複数の異なる個体から合成されたデータである点も問題視されています。

哲学者らは「アップロードされた動物」という概念自体に疑問を呈しています。ロンドン・スクール・オブ・エコノミクスのジョナサン・バーチ氏は「脳のエミュレーションであり、動物の残りは置き去り」と指摘します。CEOは批判を受けてもなお主張を撤回せず、「限定的な意識がある」とまで述べており、科学的根拠なきスタートアップの過大宣伝として専門家から厳しい目が向けられています。

Vercel、ストリーミングMarkdownライブラリStreamdown 2.5を公開

パーサーの強化

インラインKaTeX数式の自動補完
通貨記号との曖昧性を回避
単一チルダの誤判定を防止
段階的アニメーションの追加

コードブロック改善

メタ文字列のカスタムレンダラー対応
長い行の水平スクロール対応
Tailwind v3互換性の修正
CSV出力時のUTF-8 BOM付与

Vercelは、AIアプリケーション向けReactコンポーネントライブラリ「Streamdown」のバージョン2.5をリリースしました。本ライブラリは、マークダウンコンテンツをリアルタイムでストリーミング表示する際の課題を解決するために設計されています。

今回のアップデートでは、インラインKaTeXサポートが追加されました。ストリーミング中に数式の自動補完を行い、ドル記号が通貨記号と混同される問題を回避します。ブロックKaTeXの部分的な閉じタグ処理も修正されています。

新たに段階的ストリーミングアニメーション機能が導入され、単語や文字のアニメーションが一斉ではなく順次カスケードで表示されるようになりました。タイミングはstaggerオプションで調整可能で、デフォルトは40ミリ秒に設定されています。

コードブロックの機能も大幅に改善されました。カスタムレンダラーがコードフェンスからメタ文字列を受け取れるようになり、行番号表示の制御も可能になりました。長い行はクリップではなく水平スクロールで対応し、未知の言語識別子はプレーンテキストにフォールバックします。

バグ修正として、CSV保存時にUTF-8 BOMが付与されるようになり、Windows版Excelでのエンコーディング検出が正しく動作します。また、Tailwind CSS v3でのキャレット表示の不具合も解消されました。