トランプ政権がAI安全規制に転換、事前審査を導入

規制転換の背景

Anthropic Mythos流出が国家安全保障を脅かす
David SacksのAIczar退任で規制抑止力低下
イランによるAWSデータセンター攻撃が危機感を増幅
EUのAI規制強化も米国の方針転換を後押し

新たな安全体制

CAISIがフロンティアAIの事前テスト機関に
xAIMicrosoftGoogle DeepMindと合意締結
これまでに約40件のモデル評価を完了
大統領令による審査義務化も検討中

2026年5月、トランプ政権はフロンティアAIモデルのリリース前に政府による安全性テストを実施する方針へと大きく転換しました。商務省傘下のCAISI(旧AI安全研究所)がxAIMicrosoftGoogle DeepMindとの間で事前審査に関する合意を締結し、バイデン前政権が進めていた安全規制路線を事実上復活させた形です。トランプ大統領は就任以来、AI規制を「イノベーションの妨げ」として撤廃を進めてきましたが、わずか1年余りで方針を180度転換しました。

転換の最大の契機は、Anthropicが開発したMythosの存在です。同モデルはサイバーセキュリティ脆弱性を発見する能力が極めて高く、Anthropic自身が悪用リスクを理由に一般公開を見送りました。この事実が国家安全保障に関わる当局者を強く動揺させ、財務長官Scott Bessentや首席補佐官Susie WilesがAnthropicDario Amodei CEOと直接会談する事態に発展しています。

もうひとつの要因は、AI・暗号通貨担当のDavid Sacksがホワイトハウスを事実上追われたことです。ベンチャーキャピタリスト出身のSacksは、州レベルのAI規制法案を阻止するため議会工作や大統領令を活用しようとしましたが、共和党の同盟者やトランプ支持層からも反発を招きました。さらにイラン紛争を巡りトランプ大統領を公然と批判し、影響力を完全に失いました。

地政学的なリスクも政策転換を加速させています。イランは米国とイランの軍事衝突後、UAEにあるAWSデータセンター2か所をドローンで攻撃し、中東全域で深刻な障害を引き起こしました。さらに米国テック企業18社を標的として名指ししており、AIインフラが軍事的脅威にさらされる現実を突きつけています。

CAISIはこれまでに未公開モデルを含む約40件の評価を完了し、セーフガードを低減した状態でのテストも実施しています。今後はトランプ大統領がAI事前審査を義務化する大統領令を発令する可能性も報じられており、米国のAI規制は「自主規制」から「政府主導」へと明確に舵を切りつつあります。EUでもAI法の改正議論が進んでおり、世界的に規制強化の流れが加速しています。

AnthropicがSpaceXAIの巨大データセンターと計算資源契約を締結

契約の概要と背景

Colossus 1の全計算資源を取得
300MW超・GPU約22万基の大規模契約
Claude Pro/Max利用者の容量拡大へ
軌道上データセンターにも関心表明

xAIの戦略転換とIPO

Grok利用減でネオクラウド事業に軸足
Colossus 2へ移行し旧施設を収益化
SpaceXAI上場に向けた投資家訴求
GoogleMetaと異なる計算資源外販路線

AI業界の計算資源争奪戦

Anthropicクラウド総契約が3000億ドル超規模に
主要クラウドの受注残の半分をAI企業が占有

AnthropicSpaceXAIは2026年5月6日、AnthropicxAIのメンフィス所在データセンターColossus 1」の計算資源を利用する契約を締結したと発表しました。Anthropicは同社の年次開発者カンファレンスで発表し、SpaceXAI側もブログ記事で詳細を公開しています。この契約により、Anthropic300メガワット超電力容量と約22万基のNvidia GPU(H100、H200、GB200)へのアクセスを得ます。

Anthropicはこの計算資源を「Claude Pro」「Claude Max」の利用者向け容量拡大に充てる方針です。近年、Claude Codeなどのサービスでは利用制限やサービス中断への不満が高まっており、開発者は週平均20時間以上Claude Codeを使用しているとされます。また、Anthropic軌道上AI計算基盤の共同開発にも関心を示しており、SpaceXAIの宇宙データセンター構想の将来的な顧客となる可能性があります。

この提携xAIの戦略的転換を象徴しています。xAIはすでにトレーニングを新施設Colossus 2に移行済みで、旧施設を外部に貸し出すことで収益化を図りました。TechCrunchの分析によれば、画像生成問題でGrokの利用者が減少するなか、xAIは計算資源の販売を主軸とする「ネオクラウド」企業へと変貌しつつあります。GoogleMetaが自社のAI開発のために計算資源を囲い込む戦略とは対照的です。

SpaceXAIにとって、この契約はIPOを控えた重要な実績となります。Anthropicという有力顧客の存在は、軌道データセンターを含む今後の大規模インフラ投資の収益性を投資家に示す材料になります。一方で、競合に計算資源を販売する姿勢は、xAI自身のソフトウェア開発やコーディングツールへの野心と矛盾するとの指摘もあります。

AI業界全体では計算資源の争奪が激化しています。AnthropicGoogle Cloudに2000億ドル、Amazonに1000億ドル超のコミット契約を結んでおり、AnthropicOpenAIの契約だけで主要クラウド事業者の受注残2兆ドルの半分以上を占めるとも報じられています。計算資源の確保がAI開発の成否を左右する時代が本格化しています。

DeepSeek初の資金調達、評価額450億ドルに急騰

資金調達の背景

初のVC調達を交渉中
評価額200億ドルから450億ドルへ急騰
人材流出対策で従業員に株式付与へ
創業者の梁文鋒が約90%を保有

中国の国家戦略

国家半導体ファンドがリード投資家
TencentとAlibabaも参加協議中
Huawei製チップに最適化済み
米国技術への依存回避が狙い

中国のAIラボDeepSeekが、設立以来初となるベンチャーキャピタルからの資金調達に向けて交渉を進めています。Financial TimesとBloombergの報道によると、評価額はわずか数週間で200億ドルから450億ドル(約6兆8000億円)へと急騰しました。

DeepSeekは2025年初頭、米国の大手AIモデルと比較してごくわずかな計算資源とコストで大規模言語モデルを構築したことで注目を集めました。その後も推論コーディングの分野でトップモデルに匹敵する性能を維持しつつ、オープンウェイトモデルとしてHugging Faceで公開を続けています。

創業者でヘッジファンド経営者梁文鋒氏は同社の約90%を保有しており、これまで外部投資を求めていませんでした。しかし競合他社による研究者の引き抜きが相次ぎ、従業員に株式を付与するため資金調達に踏み切ったとFTは伝えています。

本ラウンドは中国の国家半導体投資ファンド「国家集成電路産業投資基金」が主導する見通しです。さらにTencentやAlibabaも参加を協議中とBloombergは報じています。DeepSeekがHuawei製チップに最適化されている点は、米国技術への依存を回避したい中国にとって戦略的に重要な組み合わせとなっています。

OpenAI、企業AI活用格差を可視化する指標を公開

先進企業と一般企業の格差

先進企業は従業員あたり3.5倍AI活用
1年前の2倍差から格差が拡大
メッセージ量は格差の36%しか説明せず
残りは複雑な業務への深い活用が要因

エージェント型活用が鍵

Codexは先進企業が16倍多く利用
チャットから業務委任への移行が進行
Ciscoはビルド時間約20%短縮を実現
業種ごとに異なるAI導入の強みが存在

OpenAIは2026年5月6日、企業のAI活用状況を定量的に追跡する新指標「B2B Signals」を公開しました。同社のエンタープライズ製品から得られたプライバシー保護済みの集計データに基づき、先進企業と一般企業のAI活用格差を可視化するものです。レポートによると、利用上位5%にあたる先進企業は、一般企業の3.5倍の「インテリジェンス」を従業員あたりで消費しており、2025年4月時点の2倍差から大きく拡大しています。

注目すべきは、格差の本質が単純な利用頻度ではなく「深さ」にある点です。メッセージの送信量は先進企業と一般企業の差の36%しか説明できず、残りの大部分はより複雑な業務への活用、より豊富な文脈の提供、より実質的な出力の生成といった質的な違いから生じています。一般企業がAIを「質問への回答」に使う段階にとどまる一方、先進企業は「複雑な業務の遂行」にAIを組み込んでいるのです。

エージェントワークフローの活用差はさらに顕著です。コーディング支援ツール「Codex」では先進企業の従業員あたりメッセージ数が一般企業の16倍に達しています。ChatGPT AgentやDeep Researchなど、マルチステップの業務委任を可能にするツールでも同様の傾向が見られます。Ciscoの事例では、Codexを「チームの一員」として扱うことでビルド時間を約20%短縮し、月間1,500時間以上のエンジニアリング工数を削減したと報告されています。

業種・職種別の活用パターンも明らかになりました。IT・セキュリティ部門は手順ガイダンス、ソフトウェア開発チームはコーディング、財務部門は分析・計算にAIを集中的に活用しており、汎用的な生産性向上から各部門の中核業務への浸透が進んでいます。損害保険大手Travelersは、OpenAIを活用したAI保険金請求アシスタントで初年度約10万件の対応を見込んでいます。

OpenAIは先進企業に近づくための具体策として、活用の深さの測定、本番運用を可能にするガバナンス構築、教育・学習への投資、先行チームの知見の全社展開、そしてチャットからエージェントへの移行を挙げています。B2B Signalsは今後も定期的に更新され、企業のAI活用の進展を追跡していく予定です。

Musk対Altman裁判でBrockmanとMuratiが証言

Brockmanの証言

Muskが経営権独占を要求
拒否され激怒し席を立つ
個人日記が法廷で公開
現在の持ち株価値は約300億ドル
MuskはAIを理解していないと証言

Muratiの証言

Altmanが安全基準で虚偽説明と証言
経営陣の対立を煽る手法を確認
退職後にThinking Machines Lab設立

OpenAIの共同創業者Greg Brockmanが、Musk対Altman裁判で2日間にわたり証言しました。2017年後半、当時小規模な非営利研究機関だったOpenAIの営利化を巡り、Muskが組織の完全な支配権を要求したものの、他の共同創業者らがこれを拒否。Brockmanによれば、Muskは「辞退する」と告げて席を立ち、テーブルの周りを歩き回った後、「いつOpenAIを去るのか」と問い詰めたといいます。

Brockmanの個人日記も法廷で公開され、「非営利団体を彼から奪うのは道徳的に問題がある」という記述がMusk側弁護士に追及されました。ただしBrockman本人は、Muskを取締役会から外すべきかどうかを検討していた文脈だと説明しています。Muskは2018年2月に自ら取締役を退任し、「OpenAIは確実に失敗する道を歩んでいる」と述べました。Musk側弁護士は、Brockmanの現在の持ち株価値が約300億ドルに達している点を追及し、非営利の使命より個人の利益を優先したのではないかと問いただしました。

一方、OpenAIの元CTOであるMira Muratiもビデオ証言で登場しました。Muratiは、AltmanがAIモデルの安全審査について虚偽の説明をしたと宣誓の下で証言。法務部門が新モデルについて安全審査委員会の審査は不要と判断したとAltmanが述べたが、実際にはそのような判断はなかったと確認したといいます。

Muratiはさらに、Altmanが「経営陣同士を対立させ、自分の職務遂行を困難にした」とも述べました。これは、共同創業者Ilya Sutskeverが取締役会に提出した52ページのメモで指摘した「Altmanには嘘をつくパターンがある」という内容とも一致します。Muratiは2024年にOpenAIを退職し、競合となるThinking Machines Labを設立しています。

裁判は来週も続く見通しで、Altman本人の証言はまだ行われていません。Musk側は「Altmanらが慈善団体を盗んだ」と主張し、OpenAI側は「Muskこそ同じ計画を持っていた」と反論する構図です。2024年にMuskが提起したこの訴訟は、OpenAIの非営利から営利への転換を巡る根本的な対立を浮き彫りにしています。

SamsungがAI半導体需要で時価総額1兆ドル到達

時価総額1兆ドルの背景

株価が10%以上急騰
アジア企業でTSMCに次ぐ2社目
前年同期比利益が8倍に増加
Apple向け米国チップ製造の報道

HBMと業界の構造変化

HBMがAI向け利益の中核
SK Hynixとの激しい市場競争
メモリ3社が消費者向けからAI向けへ転換
労組が18日間ストを予告

韓国半導体大手Samsungの株価が2026年5月に10%以上急騰し、時価総額1兆ドルに到達しました。アジア企業としてはTSMCに続く2社目の達成です。背景にはAIシステムの構築に不可欠なメモリチップへの旺盛な需要があり、先週発表された決算では前年同期比8倍の利益を記録しています。

株価急騰のもう一つの要因は、AppleSamsungおよびIntel米国内でのチップ製造について協議しているとの報道です。Appleはこれまで台湾のTSMCにほぼ全面的に依存してきたため、実現すれば世界の半導体サプライチェーンに大きな変化をもたらす可能性があります。

利益急増の中核にあるのが高帯域幅メモリ(HBM)です。AIシステムの稼働に欠かせない部品であり、利益率も高いことから各社が注力しています。一方でライバルのSK Hynixも同市場で積極的に攻勢をかけており、競争は激化しています。

半導体業界全体ではAIブームによるチップ不足が深刻化しています。Samsung、SK Hynix、Micronの主要メモリ3社はいずれもAIデータセンター向け需要に追いつけず、消費者向け事業への投資を縮小してHBM生産の増強に舵を切っています。

好調な業績の一方で課題もあります。労働組合が月内に18日間のストライキを予告し、AI利益の分配拡大を求めています。また、スマートフォンやテレビ部門はメモリチップの高騰により社内調達コストが上昇し、収益が圧迫される構造的な問題も抱えています。

Google、Gemma 4に投機的デコードで最大3倍高速化

投機的デコードの仕組み

軽量ドラフターが次トークンを先読み
メインモデルの待機時間を有効活用
KVキャッシュ共有で再計算不要
スパースデコードで候補を絞り込み

ローカルAIへの影響

消費者GPU上の推論速度を大幅改善
E2Bドラフターはわずか7400万パラメータ
Apache 2.0ライセンスで自由に利用可能
メモリ帯域のボトルネックを軽減

Googleは2026年5月、オープンモデルGemma 4向けに「Multi-Token Prediction(MTP)」と呼ばれるドラフターモデルを公開しました。投機的デコード(speculative decoding)の手法を活用し、テキスト生成速度を最大3倍に引き上げることができます。ローカル環境でAIを動かすユーザーにとって、大きな性能改善となります。

通常、Gemma 4のような大規模言語モデルはトークンを1つずつ逐次生成します。各トークンの生成にはモデルパラメータをメモリから計算ユニットへ転送する必要があり、エンタープライズ向けの高帯域メモリ(HBM)と比べて遅い消費者向けGPUでは、この転送がボトルネックになっていました。MTPはこの待機時間を利用して軽量なドラフターモデルに次のトークンを推測させる仕組みです。

ドラフターモデルのサイズはE2Bでわずか7400万パラメータと非常にコンパクトです。メインモデルのKVキャッシュ(文脈を保持するアクティブメモリ)を共有することで、すでに処理済みの文脈を再計算する必要がありません。さらにスパースデコード技術を用いて、候補となるトークンのクラスタを事前に絞り込むことで、推測の精度と速度を両立しています。

Gemma 4はGoogleのフロンティアモデルGeminiと同じ技術基盤で構築されていますが、ローカル実行に最適化されています。ライセンスもApache 2.0に変更され、以前のカスタムライセンスよりも大幅に自由度が高まりました。クラウドにデータを送らずに手元のハードウェアでAIを活用したいユーザーにとって、今回のMTPドラフター公開は実用性を一段と高めるものといえるでしょう。

AIチャットボット10分間の利用で問題解決力が低下、研究が警告

研究の概要と結果

10分間のAI利用で影響確認
3つの実験で数百人規模を調査
AI除去後に正答率が大幅低下
問題への粘り強さが減退

AI設計への提言

直接回答型から支援型への転換提案
教師のような足場かけ機能の必要性
学習と生産性バランスが課題
長期的な人間能力への配慮を主張

カーネギーメロン大学、MIT、オックスフォード大学、UCLAの研究チームは2026年5月、AIチャットボットをわずか10分間使用しただけで、人間の問題解決における粘り強さが大幅に低下するという研究結果を発表しました。この研究は、AI活用が短期的な生産性を高める一方で、基礎的な思考力を損なうリスクを実験的に示した点で注目されています。

研究チームは3つの実験を実施し、それぞれ数百人の参加者をオンラインプラットフォーム上で調査しました。参加者は分数計算や読解問題などに取り組み、一部には問題を自律的に解けるAIアシスタントが提供されました。その結果、AIを使用していた参加者は、AIが突然取り除かれた後に問題を途中で諦めたり、誤答する割合が有意に高くなることが判明しました。

研究を主導したMIT助教のミヒール・バッカー氏は、「AIを教育や職場から排除すべきだということではない」と述べつつも、AIが提供する支援の種類とタイミングについて慎重になるべきだと指摘しています。同氏は、問題解決における粘り強さが新しいスキルの習得や長期的な学習能力の予測因子であることから、この発見は特に懸念されると強調しました。

バッカー氏は、AIツールの設計を見直す必要性を訴えています。優れた人間の教師のように、モデルが時には直接回答を与えるのではなく、足場かけやコーチングを通じて利用者自身の学びを優先すべきだという提案です。ただし、こうした「パターナリスティック」なアプローチとユーザー体験のバランスは難しい課題であると認めています。

この研究は、AIの長期的な影響に関するより広い議論とも接続しています。記事の筆者であるWIREDのウィル・ナイト氏も、自身がAIアシスタントの提案に従ってLinuxマシンを起動不能にした体験を紹介し、批判的思考をAIに委ねるリスクを実感として語っています。AI企業がモデルの追従性を抑える取り組みを進める中、利用者の能力を長期的に育てるAI設計が今後の重要な課題となりそうです。

Genesis AIが人間大ロボットハンドと基盤モデルを公開

フルスタック戦略

独自の人間サイズハンド開発
基盤モデルGENE-26.5を公開
センサー搭載グローブでデータ収集
シード資金1億500万ドル調達済み

技術と今後の展開

料理やルービックキューブを実演
シミュレーションモデル反復加速
欧米3拠点で60人体制
汎用全身ロボットも近く発表予定

ロボティクスAIスタートアップGenesis AIは2026年5月6日、独自開発した人間サイズのロボットハンドと初の基盤モデルGENE-26.5を公開しました。同社はKhosla VenturesやEclipseが共同リードした1億500万ドルのシードラウンドで資金を調達しており、ソフトウェアとハードウェアの両方を自社で手がける「フルスタック」戦略を打ち出しています。

最大の特徴は、ロボットハンドが人間の手と同じサイズ・形状で設計されている点です。多くのロボティクス企業が2本指のグリッパーを使う中、Genesis AIは人間の手に近い構造を採用することで、実世界との差異、いわゆる「エンボディメントギャップ」を縮小しました。共同創業者でCEOのZhou Xian氏は「人間の手を可能な限り模倣するロボットハンドを設計すれば、大量の人間データを即座に活用できる」と説明しています。

デモ動画では、卵を割りトマトを切る調理タスクや、ピアノ演奏、ルービックキューブの解法、実験室作業など多彩なタスクが披露されました。共同創業者Mistral AI出身のTheophile Gervet氏は、調理タスクが一連の複雑な動作を長時間こなす能力の証明になると強調しています。加えて、同社はセンサーを搭載した軽量グローブも開発しており、製薬や製造業の現場で作業者が装着するだけでロボット訓練用データを収集できる仕組みを構想しています。

Genesis AIはパリ、ロンドン、カリフォルニアに拠点を持ち、約60人の体制で欧米の人材を活用しています。元Google CEOのEric Schmidt氏も出資者に名を連ね、「ロボティクス業界にとって重要なマイルストーンだ」と評価しました。同社は近くハンドだけでなく全身の汎用ロボットを発表する計画で、Zhou氏は「最も高性能なロボットシステムの構築」を目標に掲げています。

SpaceX、テキサス州に最大1190億ドルの半導体工場を計画

Terafab構想の全容

初期投資550億ドルの大型計画
総額1190億ドル規模に拡大の可能性
AI・衛星・自動運転向けチップを製造
Intelが製造パートナーとして参画

背景と今後の展望

xAIGrok訓練に大量計算資源が必要
既存メーカーの供給速度に不満
テキサス州Grimes郡が候補地の一つ
SpaceXxAI統合企業は評価額1.25兆ドル

SpaceXが、テキサス州Grimes郡に次世代半導体製造施設「Terafab」の建設を検討していることが、同郡のウェブサイトに掲載された提案書類から明らかになりました。初期投資額は550億ドル(約8.2兆円)で、最終的には総額1190億ドル(約17.8兆円)に達する可能性があります。施設は「多段階の垂直統合型半導体製造・先端コンピューティング施設」と位置づけられています。

Terafab構想は、イーロン・マスク氏が以前から公表していたもので、SpaceX傘下のAI企業xAITeslaが共同で資源を投入します。半導体大手のIntelも製造パートナーとして参画しており、AIサーバー、衛星通信、SpaceXが構想する宇宙データセンター、さらにTeslaの自動運転車やロボット向けのチップ開発を目指しています。

マスク氏は、将来的に年間1テラワット相当のチップを製造する能力を持つ施設にする考えを示しています。既存の半導体メーカーが自社のAI・ロボティクス需要に見合う速度でチップを製造できていないことが、自社工場建設に踏み切る理由だと説明しました。「Terafabを建てるか、チップがないか。チップが必要だから建てる」と述べています。

ただし、マスク氏は5月6日の投稿で、Grimes郡はあくまで複数の候補地のうちの一つだと補足しています。この動きの背景には、xAIGrokシリーズの訓練・運用に必要な膨大な計算資源の確保があります。SpaceXxAIを統合した企業体の評価額1.25兆ドルとされ、6月のIPOも取り沙汰されています。

vLLM V1移行で発覚した推論精度問題をServiceNowが修正

発覚した4つの問題

logprobの意味的差異
V1固有のランタイム設定差
学習中の重み更新パス不一致
fp32 lm_headの精度差

修正の原則と成果

推論の正確性を最優先で修正
目的関数の補正は後回し
V0基準と同等の学習曲線を再現
RL全般に応用可能な知見

ServiceNowのAI研究チームは2026年5月6日、強化学習フレームワークPipelineRLで使用する推論エンジンをvLLM V0からV1へ移行する際に発覚した4つの推論精度問題とその修正過程を公開しました。vLLM V1はV0の大規模な書き直しであり、ロールアウト時のlogprob(トークンの対数確率)がRL学習の方策比率やKL、クリップ率、報酬に直接影響するため、わずかな計算の不一致が学習動態を変えてしまいます。

最初の問題はlogprobの意味的な違いでした。V1はデフォルトで温度スケーリングやペナルティ適用前の「生の」logprobを返しますが、PipelineRLはサンプラーが使用する「処理済み」の分布からのlogprobを期待していました。設定をprocessed_logprobsに変更することで平均オフセットは解消されましたが、クリップ率やKLにはまだ差が残りました。

次に、V1固有のランタイムデフォルト設定が問題でした。プレフィックスキャッシュと非同期スケジューリングがV1のデフォルトで有効になっており、オンラインRL環境では重み更新の境界を無視してキャッシュが再利用される可能性がありました。これらを明示的に無効化し、さらに重み更新時のパスもV0の挙動に合わせて調整しました。

最後の問題はfp32 lm_headの精度でした。学習側では最終射影にfp32を使用していましたが、推論側が一致していませんでした。MiniMax-M1やScaleRLの論文でも同様の問題が報告されており、RL学習におけるlogit計算の精度が訓練の正確性に直結することが改めて確認されました。

チームが強調するのは、推論バックエンドの正確性を先に修正するという原則です。目的関数側の補正(重要度サンプリングの切り詰めなど)を先に適用すると、推論のバグを隠蔽してしまい、学習曲線の解釈が困難になります。4つの修正を適用した結果、V1の学習曲線はV0基準とほぼ一致し、PPOやGRPOなど他のオンラインRL手法にも応用可能な知見となっています。

NVIDIA、AI向けEthernetに新プロトコルMRCを導入

MRCプロトコルの特徴

複数経路での負荷分散
マイクロ秒単位の障害迂回
RDMA接続の帯域幅を最大化
OpenAIMicrosoftが実運用

巨大AIクラスタへの対応

数十万GPU規模の同期を維持
マルチプレーン設計に対応
Open Compute Projectで仕様公開
AMD・Intel等と共同開発

NVIDIAは2026年5月6日、AI向けイーサネット基盤「Spectrum-X Ethernet」に新たなRDMAトランスポートプロトコル「MRC(Multipath Reliable Connection)」を導入したと発表しました。MRCは単一のRDMA接続で複数のネットワーク経路にトラフィックを分散させる技術で、大規模AI学習環境でのスループット向上、負荷分散、可用性の改善を実現します。OpenAIMicrosoftOracleがすでに実運用環境に導入しています。

OpenAIのSachin Katti氏は「Blackwell世代でのMRC導入は非常に成功した」と述べ、ネットワーク起因の学習遅延や中断を回避できたと評価しています。MicrosoftのFairwaterデータセンターOracleのAbileneデータセンターなど、フロンティアLLMの学習・推論を目的とした大規模AI工場でもMRCが採用されています。データロスが発生した際にはインテリジェントな再送機能が高速かつ精密に復旧を行い、GPUのアイドル時間を最小限に抑えます。

MRCの大きな強みは、マイクロ秒単位ネットワーク経路の障害を検知し、ハードウェアレベルで自動的にトラフィックを迂回させる点です。数千台のGPUが同期する学習クラスタでは、わずかなネットワーク障害が全体の遅延につながるため、この高速復旧能力は極めて重要です。さらにマルチプレーンネットワーク設計により、数十万GPU規模までの拡張が可能になります。

MRCの仕様はOpen Compute Projectを通じてオープンに公開されました。NVIDIAはAMD、Broadcom、IntelMicrosoftOpenAIと共同で開発を進めており、業界標準としての普及を目指しています。Spectrum-X Ethernetプラットフォーム上ではMRCのほか、Adaptive RDMAなど複数のトランスポートモデルを選択でき、ワークロードに応じた柔軟な構成が可能です。

GitHub、AIエージェント検証の新手法を提案

従来テストの限界

決定論的前提の破綻
偽陰性による不要なCI停止
環境ノイズへの脆弱性

支配木による構造検証

実行トレースのグラフ化
必須状態と任意状態の自動分離
少数の成功例から正解モデル構築

評価結果と実用性

自己評価比で精度100%達成
Actions連携で誤検知を大幅削減

GitHubは2026年5月6日、AIエージェントの非決定的な振る舞いをCI環境で検証するための構造的バリデーションフレームワークを公式ブログで提案しました。Copilot Coding Agentのようなエージェントは実行パスが毎回異なるため、従来のアサーションベースや記録再生型のテストでは「タスクは成功したのにテストが失敗する」偽陰性が頻発するという課題があります。

提案手法の核心は、コンパイラ理論の支配木解析(Dominator Analysis)エージェントの実行トレースに適用する点です。2〜10回の成功トレースをプレフィックスツリーオートマトン(PTA)としてグラフ化し、視覚的メトリクスとLLMによる3層の状態等価判定で統合します。そのうえで支配関係を算出し、「検索ダイアログの表示」のような必須状態と「ローディング画面」のような任意状態を自動的に分離します。

VS Codeの拡張機能テストスイートを用いた評価では、エージェント自身の自己評価(CUA)が精度82.2%・再現率60.0%にとどまったのに対し、支配木手法は精度・再現率ともに100%を達成しました。特に「バグではない」シナリオの識別でCUAのF1スコアが0%だったのに対し、構造的検証は52.2%を記録しています。エージェントは自身の成否を正しく判定できないという知見が示されました。

実用面では、GitHub Actionsパイプラインでの偽陰性削減、安定版トレースからの回帰テスト自動生成、エージェント評価の外部検証といった統合ポイントが示されています。手動仕様の記述も大規模な学習データも不要で、失敗時には「どの必須状態が欠落したか」を明示する説明可能性を備えています。

一方で現時点の制約も明記されています。成功トレースが前提であり失敗ログからは学習できないこと、状態等価判定にLLM APIへの依存があること、ローディング画面の滞留時間のような時間的制約は未対応であることです。今後は時間制約の導入、階層的抽象化、オンライン学習によるモデル逐次改善が計画されています。

AppleがSiriのAI訴訟で2.5億ドル和解

訴訟の経緯と争点

Apple Intelligence機能の誇大広告が争点
iPhone 15・16購入者が集団訴訟を提起
SiriAI強化が未実装のまま販売

和解の内容と影響

和解金総額2億5000万ドル
対象者1台あたり最大95ドルの補償
Apple非を認めず和解を選択

今後の展望

6月のWWDCでAI版Siri発表の見込み
次期iOS複数LLM選択肢の可能性

Appleが、音声アシスタントSiriのAI機能に関する集団訴訟で2億5000万ドル(約375億円)の和解に合意しました。2024年のWWDCで発表されたApple Intelligenceの目玉機能として大幅に強化されたSiriが約束されましたが、iPhone 15・iPhone 16の購入者に対し、実際には未実装の機能を利用可能であるかのように宣伝したとして、カリフォルニア連邦裁判所に虚偽広告の訴えが起こされていました。

原告側は、AppleSiriのAI機能の準備状況と性能を誇張し、消費者の購入判断を誤らせたと主張しています。全米広告審査機構(NAD)も、Apple Intelligenceが「利用可能」とする広告Siriの強化版が発売時から使えるとの印象を与えたと認定していました。Appleは2025年3月、Siriのパーソナライズ機能の提供が予定より遅延すると公式に認め、女優ベラ・ラムジーを起用したSiri広告も取り下げています。

和解案では、2024年6月10日から2025年3月29日の間にiPhone 15またはiPhone 16を購入したアメリカ国内の消費者が対象となります。1台あたり基本25ドル、申請状況に応じて最大95ドルが支払われる見込みです。Appleは法的な非を認めておらず、広報担当者は「最も革新的な製品とサービスの提供に集中するために和解を選んだ」とコメントしています。

今後の焦点は、6月8日に開催予定のWWDC 2026です。AppleはここでAI強化版Siriのプレビューを行うと見られています。報道によれば、次期iOS 27ではGoogle Geminiをはじめとする複数のサードパーティ製大規模言語モデルをユーザーが選択できる仕組みが検討されているとのこと。Siriの進化がようやく形になるのか、開発者会議での発表が注目されます。

Hugging Faceがロボット用アプリストアを開設、200超のアプリ公開

アプリストアの概要

Reachy Mini向け専用ストア開設
コミュニティ製200超のアプリを無料提供
AI活用コード不要のアプリ開発
ブラウザ上の3Dシミュレーターも搭載

低価格ロボットの普及

299ドルからの手頃な価格設定
累計販売台数は約1万台に到達
直近2週間で3,000台を販売
オープンソースで全設計を公開

Hugging Faceは2026年5月6日、同社の小型デスクトップロボットReachy Mini」向けのアプリストアを正式に開設しました。ストアにはすでにコミュニティが開発した200以上のアプリが登録されており、Reachy Miniのオーナーは無料でダウンロードできます。これまでロボティクス開発には高度な専門知識が必要でしたが、AIエージェントの支援により、プログラミング経験のない一般ユーザーでも1時間以内にアプリを開発・公開できる環境が整いました。

アプリ開発の鍵となるのは、Hugging Faceが提供するAIエージェントML Intern」です。ユーザーは「誰かがおはようと言ったら手を振って」といった自然言語で動作を指示するだけで、エージェントがコード生成からテスト、パッケージ化までを自動処理します。プラットフォームはモデル非依存で、GPT-5.5やClaude Opus 4.6など外部モデルも利用可能です。

Reachy Miniは299ドルのUSB接続版と449ドルのワイヤレス版の2モデルを展開しています。2025年7月の発売以降、累計約1万台を販売し、直近2週間だけで3,000台が売れるなど需要が加速しています。Boston Dynamicsの約7万ドルのSpotや中国ロボットの1,900ドル以上という価格帯と比較すると、圧倒的な低価格が普及を後押ししています。

ストアに登録されたアプリのジャンルは多岐にわたります。チェスをしながらユーザーの悪手をからかうアプリ、スマートフォンを触ると仕事に戻るよう促すアプリ、発音を矯正する語学チューター、F1レースの実況アプリなど、150人以上のクリエイターが参加しています。その多くはロボティクスのコードを書いた経験がないユーザーです。

CEOのClément Delangue氏は、今後AIモデル開発者がRobotics能力のテスト場としてReechy Miniを活用するようになるとの見通しを示しました。全コードがオープンソースで公開されているため、エージェントハードウェアとの連携方法を学習しやすく、開発速度の加速が期待されます。ロボティクス専門家だけのものではなく、誰もが参加できる「ホビイスト時代」に入ったことを象徴する動きといえます。

Google、Webエージェント「Project Mariner」を終了

実験プロジェクトの終幕

2024年12月に発表された実験的機能
5月4日付でサービス終了
同時10タスク実行など段階的に機能拡張

技術は他製品へ統合

Gemini Agentエージェント機能を移管
AI検索機能AI Modeにも技術統合
Chrome向け「auto-browse」機能との関連も
5月19日のGoogle I/Oに向けた整理か

Googleは、Webブラウザ上でユーザーに代わってタスクを実行する実験的機能「Project Mariner」を2026年5月4日付で終了しました。ランディングページには「技術は他のGoogle製品へ移行した」との告知が掲載されています。The Vergeが報じました。

Project Marinerは2024年12月Google DeepMindのプロジェクトとして発表されました。Webサイトを横断して自動的にタスクをこなすAIエージェントで、その後のアップデートでは最大10件のタスクを同時に処理できるよう強化されていました。

Googleはこの1年間で、Project Marinerの技術を自社の主力AI製品に段階的に統合してきました。メール整理やホテル予約を支援するGemini Agentや、検索のAI機能であるAI Modeがその代表例です。さらにChromeでは航空券の価格調査などを自動で行う「auto-browse」機能も披露されており、OpenAIOperatorPerplexityCometなど競合のWebエージェントに対抗する布陣を整えています。

終了のタイミングは、5月19日から始まるGoogle I/O 2026の直前にあたります。実験段階のプロジェクトを整理し、新たなAI機能の発表に向けて製品ラインを再編する狙いがあるとみられます。Googleは本件についてコメントしていません。

Microsoft、幹部退任でAI製品群の組織再編

新体制の陣容

RoslanskyがTeams統括へ
LamannaがCopilotエージェント統括
Davuluriは引き続きWindows担当
Clarkeが新設CTO職に就任

再編の背景

Jhaが35年勤務後に退任
4幹部が6月末からNadella直属に
長期勤続者への早期退職制度も開始
LinkedIn新CEOにShapero就任

Microsoftは、35年以上在籍したベテラン幹部Rajesh Jha氏の退任に伴い、AI製品を含む主要事業の大規模な組織再編を実施します。Jha氏はWindowsOfficeCopilotMicrosoft 365を統括してきた人物で、3月の退任発表以降、同社はその職責の分割を進めてきました。新体制は今週から段階的に移行し、6月30日のJha氏退社をもって完了します。

LinkedIn兼Office責任者のRyan Roslansky氏は、新たにMicrosoft Teamsの統括も担い、「Work Experiences Group」を率いることになります。同氏は先週、LinkedInの新CEOにDaniel Shapero氏を指名しており、自身はより広範なMicrosoft製品群の統括に注力する体制を整えました。

急速に昇進してきたCharles Lamanna氏は、「Copilot, Agents, and Platform(CAP)」チームを率います。このチームにはMicrosoft 365やDynamics 365の主要サービス、BizChat、OneDrive、SharePointなどが含まれます。ベテラン幹部のJeff Teper氏がアプリ・エージェント担当EVPとして、Kirk Koenigsbauer氏がData Platform and Growth担当プレジデントとして、それぞれLamanna氏の配下に入ります。

Windows・デバイス部門は引き続きPavan Davuluri氏が統括します。また、Perry Clarke氏はApplication SystemsのCTOに就任し、M365とCopilotのシステムアーキテクチャ全体を担当します。Lamanna、Davuluri、Clarke、Roslanskyの4氏は、6月30日からSatya Nadella CEOの直属となります。

今回の再編は、Microsoftが長期勤続者向けに早期退職プログラムを提供するタイミングとも重なっています。年齢と勤続年数の合計が70以上の米国従業員が対象で、WindowsOffice部門には該当者が多数いるとみられます。AIを軸にした組織体制の刷新と人材の新陳代謝を同時に進める動きといえます。

Anthropicがエージェントに「夢を見る」機能、擬人化命名に批判も

Dreaming機能の概要

セッション間で記憶を整理
コンテキスト窓の情報喪失を補完
Managed Agents限定の研究プレビュー
複数エージェント間で学習内容を共有

擬人化への批判

人間の認知過程を模した命名が常態化
過度な信頼や誤った道徳判断の誘発
学術研究が擬人化の弊害を指摘
Anthropic自身の憲法にも擬人的表現

Anthropicは2026年5月6日、サンフランシスコで開催した開発者会議「Code with Claude」において、Claude Managed Agentsに「Dreaming」と呼ばれる新機能を発表しました。これはエージェントが最近のセッションを振り返り、将来のタスクに役立つ情報を選別して記憶として保存するスケジュール実行型の処理です。現在は研究プレビューとして、Managed Agentsプラットフォーム上でのみ利用できます。

Managed Agentsは、AnthropicのMessages APIを直接利用するよりも高レベルな、マネージドインフラ上で動作するエージェント基盤です。数分から数時間に及ぶ複雑なタスクを複数エージェントで処理する場面を想定しています。Dreaming機能は、大規模言語モデルのコンテキスト窓の制約による重要情報の喪失を防ぎ、エージェント間で共有される学習内容を最新の状態に保つ役割を担います。

一方、この命名に対してはWIREDが即座に批判記事を掲載しました。「夢を見る」「記憶する」「考える」といった人間の認知過程になぞらえた命名がAI業界全体で常態化している問題を指摘しています。OpenAIの「推論」モデルやスタートアップ各社の「記憶」機能など、同様の事例は枚挙にいとまがありません。

学術誌AI & Ethicsに掲載された研究論文によると、擬人化はAIに対する道徳的判断を歪め、過度な信頼や実在しない特性の投影につながるリスクがあります。Anthropic自身も社内の憲法文書でClaudeに「美徳」「知恵」といった人間的概念を適用しており、マーケティング戦略にとどまらない構造的な問題であることがうかがえます。

フィリップ・K・ディックの小説『アンドロイドは電気羊の夢を見るか?』を引き合いに、WIREDは「人間と機械の境界を曖昧にする命名をやめるべきだ」と主張しています。AI企業のリーダーたちが自社ツールの限界を直視できていないのではないかという問いかけは、技術の進歩に伴うコミュニケーションの責任を改めて浮き彫りにしています。

Brox、実在の6万人をAIで複製し市場調査を即時化

デジタルツイン技術の仕組み

実在6万人の行動レプリカ構築
数時間の深層インタビューで心理把握
1人あたり最大300ページのデータ蓄積
推論チェーンで予測の根拠を可視化

事業モデルと展望

年間10万〜150万ドルの定額制
金融・製薬を中心に大企業が採用
日本・トルコなど4カ国で既に展開
中東・APACへの拡大を準備中

スタートアップBroxは、実在する6万人の「デジタルツイン」を構築し、従来12週間かかっていた市場調査を数時間で完了できるサービスを発表しました。同社は戦略的資金調達ラウンドを完了し、前年比10倍の売上成長を報告しています。CEOのHamish Brocklebank氏は「これらのデジタルツインは実在する個人の1対1のレプリカだ」と説明しています。

Broxの技術は、LLMで生成した架空のペルソナではなく、実際に採用・報酬を支払った被験者への数時間にわたるインタビューに基づいています。1人あたり最大300ページのテキストデータを蓄積し、生い立ちや人間関係、意思決定の動機まで掘り下げます。予測結果には「推論チェーン」が付与され、なぜその反応が起きるのかをステップごとに説明できる点が、既存の合成データとの大きな違いです。

主な活用分野は金融製薬の2領域です。金融では、地政学的リスクに対する預金者の行動予測に使われ、製薬ではワクチン忌避の変動や政治的発言が処方行動に与える影響をシミュレーションします。高額資産家の協力を維持するため、株式連動型報酬(SAR)を付与するユニークなインセンティブ設計も採用しています。

料金体系は年間10万ドルからの定額SaaSモデルで、大規模契約では最大150万ドルに達します。利用回数の上限はなく、何千回ものシミュレーションを追加費用なしで実行可能です。現在は米国英国日本、トルコの4カ国で展開しており、中東やAPAC地域への拡大を計画中。従業員14人の少数精鋭ながら、Scribble VenturesやWonder Venturesなどが出資しています。

ChromeのAI機能が4GBのストレージを無断消費

問題の概要

Gemini Nanoのモデルファイルが原因
AI機能有効時に自動ダウンロード
4GBのweights.binがローカル保存
ユーザーへの事前通知なし

対処と背景

ファイル削除だけでは再ダウンロード
設定からオンデバイスAIの無効化が必要
プライバシー重視のローカル処理が前提
Googleはストレージ要件の明示不足

Google Chromeで特定のAI機能を有効にすると、Gemini Nanoのモデルファイル(weights.bin)が自動的にダウンロードされ、約4GBのストレージを消費していることが判明しました。The Vergeが2026年5月6日に報じたもので、多くのユーザーがストレージの不可解な減少に気づいてから問題が表面化しています。

Gemini Nanoは、Chromeの詐欺検出やライティング支援、オートフィル、サジェスト機能などを動かすオンデバイスAIモデルです。クラウドではなくローカルで推論を行うため、学習パラメータをデバイス上に保持する必要があります。これによりプライバシー面の利点はあるものの、ストレージ容量が限られたデバイスでは大きな負担となります。

問題の解決にはファイルの単純な削除では不十分です。AI機能が有効のままだとChromeが再ダウンロードするため、「設定」から「システム」を開き、オンデバイスAIオプションを無効化する必要があります。これにより関連ファイルが削除され、再ダウンロードも防止できます。

Google開発者向けドキュメントで「Gemini Nanoの正確なサイズはブラウザ更新に応じて変動する」と記載していますが、この情報はAI機能を有効化する画面ではなく、長大な技術ガイドの中にしか掲載されていません。機能有効化の時点でストレージ要件を明示するか、クラウドベースの代替オプションを提供していれば、混乱は避けられたはずです。

Google AI検索にReddit引用や実体験の声を統合

主な新機能

Redditやフォーラムの引用表示
投稿者名やコミュニティ名を併記
AI回答内にインラインリンク追加
ニュース購読リンクの優先表示

精度への懸念

AI Overviewsの正答率約9割
年間数兆件中の誤回答は膨大
過去には風刺記事の誤引用も
情報源の信頼性確認が依然必要

Googleは2026年5月6日、AI ModeおよびAI Overviewsに5つの新機能を追加すると発表しました。最大の目玉は、Redditやウェブフォーラム、SNSなど「実体験に基づく声」をAI回答内に引用として表示する機能です。投稿者名やハンドルネーム、コミュニティ名も併記され、ユーザーが元の議論に直接アクセスできるようになります。

そのほかの新機能として、AI回答の本文中に関連するウェブサイトへのインラインリンクを配置する機能、回答末尾に関連トピックへの深掘りリンクを提案する機能、デスクトップでリンクにカーソルを合わせるとサイト名やページタイトルをプレビュー表示する機能が加わりました。さらに、ニュース購読者向けに購読元メディアのリンクを目立たせる「Subscribed」ラベル機能も導入されます。

Googleはこれらの改善について、「多くの検索で他者のアドバイスを求める傾向が強まっている」と説明しています。実際、検索クエリの末尾に「Reddit」を追加するユーザー行動は広く知られており、Reddit CEOのSteve Huffman氏も「Googleを使えば最終的にRedditにたどり着く」と発言していました。GoogleはこうしたユーザーニーズをAI機能に取り込む狙いです。

一方で、TechCrunchAI Overviewsの精度に懸念を示しています。New York Timesの調査によると正答率は約9割ですが、年間数兆件の検索を処理するGoogleでは、毎分数十万件の不正確な回答が生じる計算になります。過去にはThe Onionの風刺記事を事実として引用した事例や、Redditの冗談を真に受けて「ピザに接着剤を塗る」と回答した事例もありました。フォーラムの引用が加わることで情報の質の担保がより複雑になる可能性が指摘されています。

Match Group、AI投資のため採用を抑制

AI全社導入と費用構造

全従業員にAIツール提供
研修と活用目標の設定
ツール費用増を採用減で相殺
コスト中立の見通し

Tinderの回復兆候

月間利用者減少幅が改善
新規登録が2024年以来初の増加
第1四半期売上8.64億ドル
Z世代のアプリ離れが課題

マッチングアプリ大手Match Groupは2026年第1四半期決算で、社内向けAIツールへの投資を拡大するため、年内の採用計画を減速させる方針を明らかにしました。CFOのSteven Bailey氏は決算説明会で「全従業員に最先端のAIツールを提供し、AI活用を前提とした企業への転換を目指す」と述べています。

同社はAIツールの導入費用を採用抑制による人件費削減で相殺し、コスト中立を維持する計画です。経営陣はAI活用による生産性向上が最終的に売上成長を押し上げるとの見通しを示しました。増加するソフトウェア費用と減少する人件費のバランスを取る戦略といえます。

主力アプリTinderには回復の兆しが見えています。月間アクティブユーザーの減少幅は前年同期の10%から7%に改善し、新規登録者数も2024年以来初めて1%の増加に転じました。第1四半期の売上高は前年同期比4%増の8億6,400万ドルでしたが、次の四半期は横ばいから微減の見通しです。

背景にはZ世代のマッチングアプリ離れという構造的な課題があります。若年層はランニングクラブや読書会といったリアルな場での出会いを志向する傾向が強まっています。Match Groupはこの変化に対応するため、自社主催のリアルイベントを拡充する方針を打ち出しました。CFOのRascoff氏は「Z世代は人とつながりたいが、就職面接のような堅苦しさは求めていない」と説明しています。

TSMC、台湾沖で1GW洋上風力の30年契約を締結

大型風力電力契約の概要

1GW超の洋上風力を30年購入
カナダNorthland Powerと契約
台湾海峡の3風力サイトが対象
2027年に全面稼働予定

台湾エネルギー危機の背景

中東紛争でLNG供給が3分の1減少
天然ガスが電力の約半分を占める構造
燃料備蓄はわずか2週間分
豪州・米国から代替調達で急場しのぎ

半導体受託製造最大手のTSMCは、カナダの電力大手Northland Powerとの間で、台湾海峡に位置する洋上風力プロジェクト「海龍(Hai Long)」の発電量100%を購入する30年間の電力購入契約を締結しました。対象となる3つの風力発電所の合計出力は1GWを超え、台湾の100万世帯以上に相当する電力を賄える規模です。

海龍プロジェクトは2025年にすでに台湾の送電網への電力供給を開始しており、2027年の全面稼働を予定しています。AI向け半導体の需要急増に伴い、TSMCの製造拠点では膨大な電力消費が見込まれるなか、再生可能エネルギーの長期確保に踏み切った形です。

この動きの背景には、台湾が直面する深刻なエネルギー危機があります。2026年3月、中東紛争の激化によりイランの無人機攻撃でカタールの天然ガス施設が損傷し、同国は生産を停止しました。台湾は電力の約半分を天然ガス火力に依存しており、通常のLNG供給の3分の1を一度に失う事態となりました。

台湾の燃料備蓄はわずか2週間分しかなく、政府はオーストラリア米国など代替供給元の確保に奔走しています。TSMCの洋上風力契約は、こうしたエネルギー安全保障上のリスクを軽減し、化石燃料への依存から脱却する戦略的な一手といえます。

サイバー犯罪者もAI生成の低品質投稿に不満

フォーラムに広がる反発

9.8万件のAI関連会話を分析
AI生成の解説記事に対する苦情が増加
人間同士の交流を求める声
AI利用者のスキルへの疑問視

犯罪へのAI活用の実態

高度な攻撃者はガードレール回避を認識
低レベル犯罪者の参入障壁は低下せず
SEO詐欺やロマンス詐欺など自動化領域に影響限定
AI搭載マーケット構想に強い反発

英エディンバラ大学のBen Collier氏らの研究チームが、2022年のChatGPT登場以降にサイバー犯罪フォーラムへ投稿された約9万8000件のAI関連会話を分析しました。その結果、一般のインターネットユーザーと同様に、サイバー犯罪者の間でもAI生成コンテンツへの不満が高まっていることが明らかになりました。ケンブリッジ大学、ストラスクライド大学の研究者も参加した共同研究です。

ハッキングフォーラム「Hack Forums」では、AI生成の投稿に対する苛立ちが表面化しています。「AIを使ってスレッドを作る人が多くて腹が立つ」「AIのゴミ投稿をやめろ」といった声が相次いでいます。Collier氏によると、こうしたフォーラムは本質的に社交の場であり、AIによる投稿はコミュニティの人間関係を損なうと受け止められています。また、AI生成の解説を投稿して評判を上げようとする行為は、スキルの正当性を脅かすものとして警戒されています。

セキュリティ企業Flashpointの調査でも、高度なハッカーがAI生成のプロジェクトに含まれる脆弱性インフラ露出のリスクを認識していることが確認されました。一方で、Anthropicの最新モデル「Claude Mythos Preview」の攻撃活用の可能性を議論する動きも見られます。ただし、他のハッカーがAIに頼ることを嘲笑する投稿もあり、犯罪コミュニティ内でもAIへの評価は分かれています。

研究の結論として、低レベルのサイバー犯罪者においてAIは「本質的な混乱」をもたらしていないと指摘されています。スキルの参入障壁は大きくは下がらず、既存のビジネスモデルへの深刻な影響もないとのことです。主な影響はSEO詐欺やSNSボット、一部のロマンス詐欺など、すでに高度に自動化された領域に限定されています。

フォーラムでは、投稿の文法改善を助けるAIアシスタントなら歓迎するという声がある一方、完全にAIが投稿する機能には「AIがAIと会話するフォーラムになる」と強い拒否反応が示されています。盗難データの売買を効率化する「AI搭載マーケット」の提案に対しても、「マーケットにAIを入れるのは愚かだ」と激しく反対する声が上がっており、サイバー犯罪の世界でもAI導入への抵抗は根強いことがうかがえます。

SnapとPerplexityが4億ドルのAI検索提携を解消

提携解消の経緯

4億ドル規模の契約を円満解消
本格展開の方針で合意に至らず
Q1決算で売上見通しから除外
一部ユーザー向けテストで終了

Snapの現状と戦略転換

DAU4.83億人で前年比5%増
AR眼鏡Specsへの投資を継続
4月に全従業員の16%を削減
AI活用による組織効率化を推進

Snapは2026年5月6日、第1四半期決算の発表に合わせて、AI検索企業Perplexityとの提携を解消したことを明らかにしました。この契約は2025年11月に発表されたもので、PerplexityのAI検索エンジンをSnapchatに直接統合し、Perplexityが1年間で現金と株式合わせて4億ドルをSnapに支払う内容でした。

Snapによれば、両社は第1四半期中に「円満に関係を終了」したとのことです。契約発表当初、Snapは2026年から売上への貢献を見込んでいましたが、今回の決算では「Perplexityからの貢献を見込まない」としています。PerplexityのAI検索はSnapchatのチャット画面に統合され、一部ユーザーでテストされていましたが、本格展開に向けた方針で合意に至らなかったことが2月時点で示唆されていました。

Snapの業績自体は堅調です。SnapchatのグローバルDAUは前年比5%増の4億8300万人、MAUも5%増の9億6500万人に達しました。CEOのエヴァン・シュピーゲル氏はDAUの成長回復、売上成長の加速、マージン拡大、そして強いフリーキャッシュフローを強調しています。

一方で、Snapは4月に全従業員の約16%にあたる約1,000人のレイオフを実施しており、その理由としてAIの進歩を挙げています。シュピーゲル氏はAR眼鏡「Specs」とインテリジェント・アイウェアへの長期投資に注力する姿勢を示しており、Perplexityとの提携解消は、Snapが外部AI企業との大型契約よりも自社戦略を優先する方向へ舵を切ったことを示唆しています。

DeepMindがEVE Online開発元に出資しAI実験場に

提携と独立の背景

DeepMind少数株式を取得
CCP Gamesが1.2億ドルで独立
Fenris Creationsに社名変更
リストラや人員削減なし

AI研究の狙い

オフライン専用環境で実験
長期計画・記憶・継続学習を検証
オンラインプレイヤーへの影響なし
新たなゲーム体験の共同探索

Google DeepMindは2026年5月、オンラインゲームEVE Onlineの開発元であるCCP Gamesに少数株式を取得する形で出資し、研究提携を発表しました。DeepMindはEVE Onlineを「複雑で動的なプレイヤー駆動型システムにおける知能」を研究するための実験環境として活用します。同時にCCP Gamesは韓国のPearl Abyssから1億2000万ドルで経営権を買い戻し、Fenris Creationsとして独立しました。

DeepMindは専用のオフラインサーバー上でAIモデルの制御実験を行い、オンラインのプレイヤー体験には直接影響を与えない方針です。研究の焦点は長期的な計画立案、記憶、継続的な学習といった汎用AI能力の検証にあります。両社は今後、これらの技術を活用した新しいゲーム体験の開発も視野に入れています。

DeepMindにとってゲームはAI研究の重要な実験場であり続けてきました。囲碁でのAlphaGoの成果に始まり、AtariゲームやStarCraftでの超人的パフォーマンス達成など、ゲーム環境を通じた機械学習の進展で知られています。最近では「仮想世界モデル」を活用し、AIが物理的な現実世界で動作するための学習にも取り組んでいます。

Fenris CreationsのCEOであるHilmar Veigar Petursson氏は「EVEは知能に関する問いを、すでに生きた世界のように振る舞う環境の中で探究できる数少ない場所だ」と述べています。DeepMindAlexandre Moufarek氏も「EVEコミュニティが築いたものはゲーム界で類を見ないシミュレーションであり、汎用AIを安全なサンドボックスでテストする理想的な環境だ」と期待を示しました。

Hugging Face、音声認識評価に非公開データ導入

非公開データの概要

AppenとDataoceanAIが提供
英語の朗読・会話音声を収録
米英豪加印の5アクセント対応
合計約30時間分の音声データ
テストセット汚染防止が主目的

評価方法の設計

平均WERは公開データのみで算出
トグルで非公開データを追加可能
個別スプリットのスコアは非公開

Hugging Faceは2026年5月6日、音声認識モデルの性能を測るOpen ASR Leaderboardに非公開の評価データセットを追加したと発表しました。データはAppen Inc.DataoceanAIの2社が提供したもので、公開テストセットに過剰に最適化する「ベンチマクシング」やテストセット汚染を防ぐ目的があります。

新たに追加されたデータセットは、朗読形式と自然な会話形式の英語音声で構成されています。アメリカ英語だけでなく、オーストラリア・カナダ・インドイギリスの各アクセントを含む計11のスプリットが用意され、合計約30時間音声を収録しています。句読点やケーシング、言いよどみなど、実環境に近い条件での評価が可能です。

評価の公平性にも配慮がなされています。リーダーボードのデフォルトの平均WER(単語誤り率)は従来どおり公開データセットのみで算出され、ユーザーがトグル操作で非公開データを含めた場合にのみスコアが変動します。また、個別スプリットごとのスコアはあえて公開せず、特定のデータ提供元やアクセントに特化した最適化を防いでいます。

モデル開発者が非公開データでの評価を受けるには、GitHubでプルリクエストを提出し、まず公開データセットの結果を報告する必要があります。その後Hugging Face側が非公開データでの評価を実施し、結果を確認するという手順です。Open ASR Leaderboardは2023年9月の開設以来、71万回以上のアクセスを記録しており、今回の更新でベンチマークとしての信頼性がさらに高まることが期待されます。

AI専門家網のEthos、a16z主導で2275万ドル調達

音声AIで専門性を可視化

音声オンボーディングで知見抽出
自然言語で企業と専門家をマッチング
3万5000人が新規参加

事業モデルと成長戦略

a16z主導のシリーズA完了
案件ごとに30%以上の手数料
8人体制で8桁ドル年間売上見込み
AI研究所の人材需要が追い風に

ロンドン拠点のスタートアップEthosは2026年5月6日、a16zが主導する2275万ドルのシリーズAラウンドを完了したと発表しました。General Catalyst、XTX Markets、Evantic Capital、Common Magicも参加しています。EthosはAIを活用した専門家ネットワークを構築し、従来のLinkedInやGLGなどが職種名ベースで行ってきたマッチングの精度を大幅に向上させることを目指しています。

Ethosの最大の特徴は、音声AIによるオンボーディングです。専門家はフォーム入力の代わりに音声インタビューを受け、職種名では把握できないサブ専門領域や実務経験をAIが抽出します。a16zのAnish Acharyaは「音声は人間の最も自然なコミュニケーション手段であり、自分の経歴を的確に書ける人は少ない」と語り、この手法の有効性を評価しています。

企業側は自然言語で「一流投資家から出資を受けたフィンテックスタートアップの経験者」といった複雑な条件を指定でき、Ethosが蓄積した多面的なデータから最適な専門家を提示します。現在、ヘッジファンド、プライベートエクイティ、大手AI研究所、コンサルティング企業などが顧客として利用しており、プロジェクト単位で30%以上の手数料を課す収益モデルです。

創業者はマッキンゼーとソフトバンク出身のJames Loと、Google DeepMindGeminiやAlphaDevに携わったDaniel Mankowitzの2人です。Loは人材と経済機会の最適配分に関心を持ち、Mankowitzは人・企業・製品を結ぶ知識グラフの構築をビジョンに掲げています。週あたり約3万5000人が新規登録しており、チームは8人と少数精鋭ながら、年間売上は8桁ドル規模に達する見通しです。

同社にとっての追い風は、大手AI研究所がモデル構築やフィードバック収集のためにあらゆる職種の専門家を求めていることです。Loは「AI研究所は世界中の経済的に価値ある職業をマッピングしようとしている。それが我々にとって巨大な順風になっている」と語っています。法律、医療、金融、経営など幅広い分野でAIサービスを開発する研究所の需要が、Ethosのネットワーク拡大を加速させています。

Google Flow MusicがBelieveと提携しAI音楽制作ツールを提供

提携の概要と機能

Believe傘下アーティストに提供
作詞・メロディ・ジャンル探索を支援
Lyria 3 Proモデルが基盤
生成コンテンツの所有権はGoogle非主張

アーティストとの共創

選抜アーティストが毎週開発に参加
アンバサダー制度で製品改善に反映
TuneCore利用者も対象
責任あるAI訓練の方針を明示

Google Labsの音楽制作ツールFlow Music(旧ProducerAI)が、グローバルなアーティスト開発企業Believeとの提携を発表しました。この提携により、BelieveおよびTuneCore所属のアーティスト、プロデューサー、ソングライターにAI音楽制作ツールが提供されます。Flow Musicはミュージシャン自身が立ち上げたプロジェクトで、小規模なアーティストコミュニティとの共同開発を経て、今回より広い提供に踏み切りました。

Flow Musicは創作のパートナーとして機能し、作詞の支援や新しいメロディ・ジャンルの実験、さらには新たな楽器の創出まで対応します。アルバムの方向性を模索する初期段階から、歌詞の仕上げといった最終工程まで幅広く活用できます。Googleは、Flow Musicで生成されたオリジナルコンテンツ所有権を主張しない方針を明示しています。

提携の一環として、BelieveとTuneCoreが選出したアーティストやプロデューサーのグループが、Flow Musicの開発チームと毎週ミーティングを行います。このアンバサダー制度を通じて、実際の利用者のフィードバックが製品の将来に直接反映される仕組みです。

技術基盤には、Googleの最新音楽生成モデルLyria 3 Proが採用されています。同モデルは楽曲構成を理解し、イントロ・ヴァース・コーラス・ブリッジといった構成要素をプロンプトで指定できます。アマピアノからドリームポップまで多様なスタイルに対応し、複雑なリズム生成や他言語でのボーカル実験も可能です。訓練データにはYouTubeGoogleが利用権を持つ素材のみを使用しており、責任あるAI開発の姿勢を示しています。

Barry Diller氏、AGI接近で「信頼は無意味」と警告

信頼より未知が問題

信頼は無意味と断言
AI開発者自身も結果を予測不能
創造者たちの驚きと畏敬の念
Altman氏は誠実な人物と評価

AGIへの備え

AGIに急速に接近中と認識
ガードレール整備の必要性
放置すればAGI自身が判断する危険
不可逆的な転換点への警鐘

メディア業界の重鎮Barry Diller氏が2026年5月、Wall Street Journalの「Future of Everything」カンファレンスで、AGI(汎用人工知能)の到来を前に「信頼は無意味だ」と警告しました。Fox Broadcasting共同創業者でIACおよびExpedia Group会長を務める同氏は、OpenAISam Altman CEOを個人的に信頼しつつも、AI開発において指導者への信頼そのものが本質的な問題ではないと主張しています。

Diller氏の論点は明快です。AIがもたらす変化は、開発者自身にとっても「未知の領域」であるという事実が核心だと指摘しました。「AIの開発に携わる人々と多くの時間を過ごしてきたが、彼ら自身が驚きの感覚を持っている。我々にもわからないし、彼らにもわからない」と述べ、信頼の問題を超えた構造的なリスクを強調しています。

Altman氏については「誠実で良い価値観を持つ人物」と評価し、AI開発を率いるリーダーの多くは良い管理者だとの見解を示しました。ただし、どのAIリーダーが不誠実だと思うかについては明言を避けています。問題の本質は個人の資質ではなく、技術そのものの予測不可能性にあるという立場です。

同氏はAGIの実現が「ますます速く近づいている」と述べ、ガードレールの必要性を訴えました。人間がガードレールを設けなければ「AGIという別の力が自らそれを行い、一度それが解き放たれれば後戻りはできない」と警告しています。巨額のAI投資の成否には関心がないとしながらも、AIが「ほぼすべてを変える」技術であることは疑いないとの認識を示しました。

Nutanix、企業AI基盤の本番運用課題に挑む新製品を発表

実験から本番への壁

PoCから本番展開への実務的ギャップ
エージェントAIによるリソース競合の深刻化
AI開発者インフラ部門の連携不足
セキュリティとガバナンスの要件増大

AI工場という解決策

GTC 2026でAgentic AI Solution発表
ハイブリッド環境でのセルフサービス基盤
規制業種向けデータ主権への対応
ネオクラウドへのソフトウェアスタック提供

米Nutanixの幹部2名が、企業におけるAIの実験段階から本番運用への移行が直面する課題についてVentureBeatの取材に語りました。同社プレジデント兼CCOのTarkan Maner氏と、製品管理担当EVPのThomas Cornely氏は、プロトタイプを1万人規模の従業員に展開する段階で生じるインフラの根本的な見直しの必要性を指摘しています。

特にエージェントAIの台頭が新たな複雑性をもたらしています。複数のエージェントが同時に稼働し、リソースへのアクセスを奪い合う状況では、制約の設定やガバナンスの仕組みが不可欠です。Cornely氏は「エージェントがリソースを奪い合う環境では、制約を設け、リソースを統制できるインフラが必要だ」と述べています。多くの企業はクラウドで実験を始めるものの、データ管理やコストの問題から最終的にはオンプレミスへの回帰を検討する傾向にあります。

こうした課題に対し、NutanixはGTC 2026でNutanix Agentic AI Solutionを発表しました。コアインフラからKubernetesベースのコンテナサービス、エージェント構築・統制のための高度なサービスまでを包括するプラットフォームです。AI開発者インフラチームの間に存在する「大きなギャップ」を埋め、インフラチームがAIエンジニアを支援できるツールを提供することが狙いです。

同社はハイブリッド環境を妥協策ではなく必須要件と位置づけています。規制産業ではデータ主権やセキュリティの観点からオンプレミスが求められる一方、パブリッククラウドとの連携も欠かせません。AWS、Azure、Google Cloudの各ハイパースケーラーに加え、ネオクラウドにもフルスタックを提供し、企業顧客がコンピュート・ネットワーク・AI機能をシームレスに拡張できる体制を整えています。

実際の導入事例では、小売業での店内AIカメラやキャッシャーレス決済、医療分野での診断・遠隔医療、製造・物流の最適化など、業種特化型のAI展開がすでに進行中です。ただし本記事はNutanixがスポンサーする記事であり、同社製品の優位性を前提とした構成である点には留意が必要です。

Google Ads、AI広告制作のブランド管理指針を公開

AI広告制作の課題

速度と品質の両立が焦点
ブランドの声を損なうリスク
正確性・ブランド忠誠の維持が必須

Googleの提案する活用法

Veo活用で動画広告を拡充
Ad Strengthの正しい解釈法
Demand Gen向け新機能の紹介
大規模なブランド忠誠構築の手法

Googleは2026年5月6日、公式ポッドキャスト「Ads Decoded」の最新エピソードで、AIを活用した広告クリエイティブ制作におけるブランド管理の指針を公開しました。広告クリエイティブ担当のグループプロダクトマネージャーCharles Boyd氏とDemand Gen担当ディレクターSarah Hathiramani氏が、AIの速度を活かしつつブランドの独自性を守る方法について語っています。

広告キャンペーンにおいてクリエイティブ制作は最も時間がかかる工程のひとつです。AIの登場により素材の高速生成が可能になりましたが、スピードが正確性やブランドへの忠誠を犠牲にしてはならないと両氏は強調しています。広告効果を左右するクリエイティブの質を維持しながら、いかに効率化するかが課題となっています。

エピソードでは具体的なツールとして、動画生成AI「Veo」を活用したブランドロイヤルティの大規模構築手法が紹介されました。また、広告の品質指標であるAd Strengthの正しい解釈方法についても解説されています。

さらに、広告主からの要望に応えた新機能についても言及されました。GoogleAI広告ツールの拡充を進めるなか、ブランドの声を保ちながらAIを活用する実践的なガイダンスを提供する姿勢が示されています。

Google、AI検索のガーデニング活用例5選を公開

AI Modeの活用法

写真から庭のレイアウトを視覚化
Canvasで年間栽培計画を自動生成
カオスガーデンの種選びを提案
Search Liveで植物の異変を即時診断

検索トレンドの変化

「カオスガーデン」検索140%増
「ミニガーデン」が2026年過去最高に
整然とした庭より自然な植栽が人気
地元店舗の在庫をAIが電話確認

Googleは2026年5月6日、AI搭載の検索機能をガーデニングに活用する5つの方法を公式ブログで紹介しました。Google Trendsのデータによると、花やハーブを自由に混ぜ植えする「カオスガーデン」への関心が2025年に急上昇し、2026年春も検索数が前月比140%増加しています。「ミニガーデン」の検索量も2026年に過去最高を記録しました。

注目されるのはAI Modeの多彩な使い方です。自宅のパティオやベランダの写真をアップロードすると、AIがその空間に合った植栽イメージを生成してくれます。さらにCanvas機能を使えば、月ごとの作業リストやコンパニオンプランティングの計画表を含む年間管理ガイドを作成できます。カオスガーデンに挑戦したいユーザーには、日当たりやスペースに応じた最適な種の組み合わせも提案します。

買い物の場面でもAIが役立ちます。Googleショッピングの「nearby」フィルターを使えば近隣の園芸店の在庫を確認でき、「AIによる代理電話」機能では、Googleが自動で店舗に電話をかけて商品の有無を問い合わせてくれます。子ども用のガーデニング手袋の検索も前月比180%増と、家族で楽しむ層の拡大がうかがえます。

もう一つの目玉がSearch Liveです。Google Lensで植物の写真を撮り、葉の黄変などの症状について「何が起きているのか」と質問すると、リアルタイムで対話しながら原因の特定や対処法の提案を受けられます。水やりの調整や剪定のタイミングといった具体的なフォローアップにも応答します。

今回の発表は、Google検索のAI機能を日常生活の具体的なシーンに落とし込む戦略を加速させていることを示しています。ガーデニングという親しみやすいテーマを通じて、AI Modeの画像理解やCanvas、Search Liveといった新機能の実用性をアピールした形です。

OpenAI、学生26人に助成金を贈る初の人材発掘プログラム開始

プログラムの概要

26人学生を初選出
各自に1万ドルの助成金
最先端モデルへのアクセス付与
20超の大学・機関から選出

選出された学生の活動

学習ツールや研究支援を開発
障害者向けアクセシビリティツール
メンタルヘルス資源の翻訳活動
アイデアから実装までの即時実行

OpenAIは2026年5月6日、AIを活用する学生や若手ビルダーを表彰する初のプログラム「ChatGPT Futures Class of 2026」を発表しました。20を超える大学・教育機関から選ばれた26人の学生に対し、それぞれ1万ドルの助成金と最先端モデルへのアクセスを提供します。

2026年卒業の学生は、2022年秋の入学時からChatGPTとともに大学生活を過ごした最初の世代です。OpenAIによれば、選出の基準は特定の専門分野や経歴ではなく「新しいツールに好奇心を持ち、自ら手を動かして何かを作る姿勢」だといいます。選出メンバーにはバンダービルト大学、トロント大学、オックスフォード大学、ジョージア工科大学などの学生が含まれています。

受賞者たちの活動は多岐にわたります。クラスメート向けの学習支援ツールの開発、十分なサービスを受けられないコミュニティへのメンタルヘルス資源の翻訳、科学研究の推進、障害を持つ仲間のためのアクセシビリティツールの設計などが紹介されています。ウォータールー大学の起業家Kyle Scenna氏は「問題に気づいてから実際に何かを作るまでの距離がこれほど縮まるとは思わなかった」と語っています。

OpenAIはこのプログラムを通じて、AIは野心を置き換えるものではなく増幅するものだというメッセージを打ち出しています。これまで製品開発や研究プロジェクトの立ち上げには技術的訓練や機関の支援、ネットワーク、資金といったアクセスが必要でしたが、そうした障壁が変化し始めているとの認識を示しました。

同社はChatGPT Edu、Study Mode、米国教員連盟との提携など、教育分野での取り組みをすでに進めています。今回のプログラムもその延長線上にあり、「AIの未来は技術の能力だけでなく、好奇心と責任感を持って使う人々によって定義される」という考えを強調しています。

人気配信者Hasan Piker、生成AIを全面拒否

AI不使用の理由

認知オフロードで人間が愚かに
ハルシネーションによる誤情報拡散
労働者の置き換えに悪用される構造
芸術こそ人間の領域と主張

配信者の日常

Twitchで週7日7〜8時間配信
Twitterに週22時間以上を費やす
セキュリティ上最新iPhoneを使用
Apple Watchで筋トレを徹底管理

WIREDは2026年5月6日、Twitchの政治カテゴリで最大のフォロワー数を持つ配信者Hasan Piker氏のテクノロジー利用習慣を特集しました。300万人超のフォロワーに向けて週7日・1日7〜8時間の政治コメンタリー配信を行う同氏は、生成AIを一切使わないと明言しています。その理由として認知オフロード、ハルシネーション、大規模な偽情報拡散、労働者の置き換えという4つの問題を挙げました。

Piker氏はAIに対する批判を具体的に展開しています。ツイートの意味を「@Grock」に尋ねるユーザーについて「ロボットに訓練されていることに気づいていない」と指摘し、AIへの依存が人間の能力を低下させると警告しました。また、Sam Altman氏らAI企業トップが製品の能力を誇張して恐怖を煽り、巨額の資金調達につなげていると批判しています。

生成AIが芸術分野に進出していることへの反発も強く表明しています。「芸術こそ人間を人間たらしめるもの」であり、本来AIが担うべき単純作業は依然として人間が行い、人間の創造性が機械に置き換えられている現状を「逆転している」と述べました。Twitter上のAI生成アートについても、使用者の大多数が右翼的な人物だと指摘しています。

テクノロジー利用面では、弁護士の助言により政府の令状なし監視対策として最新のiPhone 16 Pro Maxを使用しています。ただし最新iOSデザインには強い不満を示しています。Twitterの1日平均利用時間は3時間42分、週合計22時間超に達しますが、音楽は聴かずポッドキャスト(Democracy Now等)のみを消費するという独特のメディア習慣も明らかになりました。