AWSがOpenAIモデルをBedrock提供、エージェント時代の基盤争い本格化

Bedrock上のOpenAI統合

GPT-5.4が限定プレビューで即日利用可能
既存ワークロードの移行不要で即座に切替可
AnthropicMeta等と統一APIで比較運用

エージェントAI製品群の展開

Quick Desktopが個人知識グラフで能動的に業務支援
Amazon Connectが4製品に拡大、物流・採用・医療に対応
Bedrock Managed Agents強化学習訓練済みハーネス提供

ガバナンスと競争構図

ゼロオペレーターアクセス推論データの人的接触を排除
モデルアクセスのコモディティ化でプラットフォーム層が差別化要因に

2026年4月29日、AWSはサンフランシスコでのイベントで、OpenAIの最新モデルをAmazon Bedrock経由で提供開始すると発表しました。GPT-5.4が限定プレビューで即日利用可能となり、GPT-5.5も近日中に追加される予定です。この動きは、前日にMicrosoftOpenAIが独占契約を再編し、OpenAIが競合クラウドへの展開を可能にしたことを受けたものです。

技術面では、Bedrock Managed Agentsが注目されます。OpenAIの「ハーネス」と呼ばれるエージェント実行フレームワークを組み合わせ、強化学習によりモデルをツール操作に最適化しています。AWS副社長のAnthony Liguori氏は、汎用モデルに指示を与えるだけでなく、特定のツールセットで繰り返し訓練することで「筋肉の記憶」のような信頼性が生まれると説明しました。

同時に発表されたAmazon Quick Desktopは、開発者以外のナレッジワーカー向けのエージェントAIアシスタントです。ローカルファイル、カレンダー、メール、Slackなどから個人知識グラフを構築し、未回答メールや更新が必要な案件を能動的に提示します。一方で専門家からは、この自律的な判断が既存のオーケストレーション基盤の可視性の外で行われる「シャドーオーケストレーション」のリスクも指摘されています。

Amazon Connectは従来のコンタクトセンター製品から、サプライチェーン計画(Decisions)、大量採用(Talent)、医療(Health)、顧客対応(Customer AI)の4製品ファミリーへと拡大しました。Amazonの30年にわたる物流最適化技術やOne Medicalの経験が活用されています。

一連の発表は、AWSカスタムインフラ、モデルアクセス、エージェントプラットフォーム、専用アプリケーションの4層戦略でエンタープライズAI市場を狙う姿勢を明確にしました。モデルへのアクセスがコモディティ化する中、エージェントの構築・統治・運用を担うプラットフォーム層が、MicrosoftGoogle Cloudとの真の競争領域になると見られています。

Alphabet増収22%、検索クエリが過去最高を記録

決算の主要指標

売上高1099億ドルで予想超え
クラウド売上200億ドル突破、63%増
有料サブスク3.5億件に到達
検索広告収入が19%増

AI戦略の進展

Gemini Enterprise有料MAU40%増
APIトークン処理が毎分160億に拡大
消費者向けAIプランが過去最高の伸び

YouTube事業の明暗

YouTube広告収入99億ドルで予想未達
Premium非トライアル加入者が過去最大の増加

Alphabetは2026年第1四半期決算を発表し、連結売上高が前年同期比22%増の1099億ドルに達したことを明らかにしました。CEOのSundar Pichai氏は、Google検索のクエリ数が過去最高を記録し、AI体験がSearch全体の成長を牽引していると述べています。決算はウォール街の予想を上回り、発表後に株価は上昇しました。

Google Cloudの売上高は前年同期比63%増の200億ドルを初めて突破しました。生成AIモデルを基盤とする製品の売上は前年比約800%増と急成長しています。受注残も前四半期比でほぼ倍増し、4600億ドル超に達しました。Gemini Enterpriseの有料月間アクティブユーザーは前四半期比40%増で、BoschやCitiなど大手企業が採用を進めています。

一方、YouTube広告収入は前年同期比11%増の99億ドルでしたが、市場予想の99.9億ドルには届きませんでした。これはYouTube Premiumへの移行が進み、広告視聴が減少していることが背景にあります。ただし、サブスクリプション事業ではYouTube Music・Premiumの非トライアル加入者数が2018年のサービス開始以来、四半期ベースで過去最大の増加を記録しました。

有料サブスクリプション総数は前四半期の3.25億件から3.5億件へと2500万件増加しました。YouTubeGoogle Oneが主な成長ドライバーです。消費者向けAIプランも過去最高の四半期となり、Geminiアプリの採用拡大が寄与しています。Pichai氏はAIへの投資とフルスタック戦略があらゆる事業を加速させていると強調しました。

Musk対Altman裁判で初期メール群が公開

創設期の構想と対立

2015年のメール群が法廷で公開
Muskがミッション文の原案を起草
当初の名称案は「Freemind
AltmanはY Combinator拠点を提案

支配権をめぐる緊張

Muskの持分51.2%の資本構成表
BrockmanとSutskeverが一極支配を懸念
Muskは「もう十分だ」と反発
NvidiaのHuangがスパコンを提供

2026年4月28日、カリフォルニア連邦裁判所でMusk対Altman裁判の陪審審理が始まり、OpenAI創設期の2015年から2017年にかけての内部メールや企業文書が次々と公開されました。裁判はAltman、Brockman、Microsoftを被告とし、OpenAI「全人類に利益をもたらすAGIという設立時のミッションから逸脱したかどうかが最大の争点です。

公開されたメールによると、2015年6月にAltmanがMuskに5項目の計画を提示し、安全性を最優先とするAI研究所の設立を提案しました。ガバナンスにはAltman、Musk、ビル・ゲイツ、ピエール・オミダイア、ダスティン・モスコヴィッツの5名を挙げ、Muskに1億ドルの初期出資と5年間で3000万ドルの追加寄付を求めています。Muskは「ガバナンスを議論しよう。これは極めて重要だ」と応じました。

組織名については、Muskが「Freemind」を提案し、DeepMindの中央集権的アプローチとの対比を強調しました。Altmanはアラン・チューリングにちなんだ名称を提案。12月にはMuskが主導してミッション声明とプレスリリースの原案を起草し、最終版は現在のOpenAI公式発表とほぼ一致する内容でした。

しかし2017年8月、Muskの側近シヴォン・ジリスがBrockmanとSutskeverとの会談内容をMuskに報告した際、深刻な対立が明らかになりました。両名はMuskが経営への支配権を持ちすぎることを懸念し、「一人の人間がAGIを絶対的に支配しない」ことを譲れない条件として提示。これに対しMuskは「非常に苛立つ。彼らに自分で会社を始めるよう促してくれ」と返答しています。

同時期に提示された資本構成表ではMuskが51.2%、Altman・Sutskever・Brockmanがそれぞれ約11%の持分とされていました。また、Nvidiaのジェンスン・ファンCEOがMuskの依頼に応じ、OpenAIに希少なスーパーコンピュータを優先提供していたことも判明しています。両社ともに今年中のIPOを目指しているとされ、裁判の結果がOpenAIの事業運営に影響を及ぼす可能性があります。

Oracle、OpenAIに社運賭けた巨額契約の行方

3000億ドルの賭け

OpenAI向けDC建設に430億ドル借入
伝統的DB事業からAI基盤へ全面転換
CDS市場でAIリスクの代理指標に

OpenAIの不安要素

売上・ユーザー成長の目標未達
IPO計画にも暗雲
幹部の相次ぐ離脱と経営混乱

外部リスクと成長機会

イラン戦争で資材・エネルギー高騰
ByteDanceが大口顧客に成長

Oracleが、OpenAIとの3000億ドル規模のデータセンター契約に社運を賭けています。創業者ラリー・エリソン氏の主導のもと、同社は伝統的なデータベース事業からAIインフラ事業へと大胆に舵を切りました。2026会計年度だけで430億ドルの負債を抱え、5つの大規模データセンター建設に乗り出しています。

この戦略の最大のリスクは、パートナーであるOpenAI自体の不安定さです。OpenAIは売上とユーザー成長の目標を達成できず、CFOが将来のコンピューティング契約の支払いに懸念を示していると報じられています。Stargateプロジェクトの主要幹部がMeta等に流出し、IPO計画にも不透明感が漂います。Oracleの残存履行義務5530億ドルのうち、3000億ドル超がOpenAI関連であり、同社の命運はOpenAIの経営に大きく左右されます。

外部環境もOracleに逆風を送っています。イラン戦争によるホルムズ海峡封鎖は、半導体製造に不可欠なヘリウムの供給やアルミニウム価格に影響を与え、データセンター建設コストを押し上げています。さらに、米国11州がデータセンター建設のモラトリアムを検討するなど、地域住民の反対運動も激化しています。

一方で明るい材料もあります。ByteDanceNvidiaの輸出規制を回避するためにOracleからチップを借り受け、大口顧客に成長しています。米政府との契約も増加しており、メディケア・メディケイドや空軍との案件を獲得しました。エリソン氏が描く「プライベートAI」構想では、Oracleが既に保有する企業の機密データにAIを適用し、推論サービスで収益を上げるビジョンを掲げています。

Oracleの信用リスクを示すCDSは、AI業界全体のリスク指標として注目されています。債券市場では12月にジャンク債並みの価格で取引される場面もありました。今後の焦点は、データセンター建設を予定通り完遂できるか、そしてOpenAIが契約通りの支払いを履行できるかです。エリソン氏の大胆な賭けが成功するかどうかは、AI産業全体の行方を占う試金石となるでしょう。

IBMがAIコーディング基盤Bobを全世界で提供開始

Bobの特徴と設計思想

人間承認を組み込んだ開発基盤
複数AIモデルの自動ルーティング
社内8万人超が先行利用済み
一部業務で最大70%の時短効果

競合との差別化

自律性より管理性を重視
役割ベースの段階的ワークフロー
Bobcoin従量課金で透明性確保
エンタープライズ向け一括管理対応

IBMは2026年4月28日、AIコーディングプラットフォームBobのグローバル提供を開始しました。Bobは開発ライフサイクル全体でコード生成やテストを行うAIエージェント基盤で、2025年夏に社内100名で試験導入を始め、現在は8万人超の従業員が利用しています。IBM自社のGraniteシリーズのほか、AnthropicClaude、フランスMistralなど複数モデルを切り替えて使う「マルチモデルルーティング」が特徴です。

Bobの最大の差別化ポイントは、ヒューマンチェックポイントと呼ばれる人間承認の仕組みです。AIエージェントが自律的にタスクを進める際、要所で人間の確認と承認を求めるワークフローが組み込まれています。IBM Automation and AI部門のNeal Sundaresan氏は「モデルの能力だけでは不十分で、デプロイ方法やコンテキストの構造化、人間をループに残すことが成果を左右する」と述べています。

CursorClaude Codeなどの競合ツールがユーザー主導のプロンプトチェーンを採用するのに対し、Bobは開発工程を役割ベースのステージに事前構造化します。エージェントは作業の進行中に自然なチェックポイントとして承認を求め、問題の事後対応ではなく事前防止を目指しています。Sundaresan氏はOpenClawのような完全自律型エージェントについて「最終解がそこに行き着く可能性はあるが、ゲートはゆっくり開けた方がよい」と慎重な姿勢を示しました。

料金体系は独自のBobcoin(1コイン=0.50ドル)による従量課金制です。30日無料トライアル(40コイン)から、Proプラン月額20ドル、Pro+月額60ドル、Ultra月額200ドルまで4段階のサブスクリプションが用意されています。エンタープライズ向けには個別契約でチーム一括管理やコインの組織内配分が可能です。企業のAI開発ツール選定において、自律性と管理性のバランスが次の焦点になりつつあります。

IBM、Granite 4.1の訓練手法を公開 8Bモデルが旧世代32Bに匹敵

5段階の事前学習

約15兆トークンで訓練
5段階でデータ配合を段階的に精製
最終段階で512Kコンテキスト対応

SFTとRLの後処理

LLM審査官で410万件品質管理
4段階RL:多領域、RLHF、校正、数学
GRPO+DAPO損失で安定した強化学習

成果とライセンス

8B密モデルが旧32B MoEを上回る性能
Apache 2.0で全モデル公開

IBMのGraniteチームは2026年4月29日、大規模言語モデルGranite 4.1シリーズ(3B、8B、30B)の訓練手法を詳細に公開しました。同モデルは約15兆トークンの5段階事前学習、410万件のSFTデータによる微調整、そして多段階の強化学習パイプラインを経て構築されています。注目すべきは、8Bの密モデルが前世代の32BパラメータMoEモデル(Granite 4.0-H-Small)と同等以上の性能を達成した点です。

事前学習は5つのフェーズで構成されています。第1フェーズでは10兆トークンのウェブデータ中心の汎用学習を行い、第2フェーズでコードと数学データの比率を大幅に引き上げます。第3・第4フェーズでは高品質データへの絞り込み(アニーリング)を実施し、思考連鎖や合成指示データも混合します。最終フェーズではコンテキスト長を4Kから最大512Kへ段階的に拡張しています。

SFT(教師あり微調整)では、LLM審査官フレームワークを用いて約410万件の高品質サンプルを厳選しています。幻覚や誤計算など重大な欠陥は点数に関係なく自動的に除外され、指示遵守・正確性・完全性・簡潔性・自然さ・校正の6次元で評価されます。ルールベースのフィルタリングも併用し、全判定が監査可能な設計です。

強化学習は4段階のパイプラインで実施されます。まず数学・科学・論理推論など9領域の同時訓練で汎用性を維持し、次にRLHFで会話能力を強化します。AlpacaEvalでSFTから平均18.9ポイント向上しました。その後、自己識別の校正と、RLHFで低下した数学性能の回復(GSM8Kで平均3.8ポイント、DeepMind-Mathで平均23.48ポイント改善)を行います。

全モデルはApache 2.0ライセンスで公開されており、NVIDIA GB200 NVL72クラスタ上で訓練されました。FP8量子化版も提供され、vLLMでの推論時にメモリ使用量を約50%削減できます。長い思考連鎖に依存しない設計のため、レイテンシやトークン消費が予測しやすく、企業向けワークロードでの実用性を重視した構成となっています。

企業RAGの検索再構築が本格化、ハイブリッド検索の導入意向が3倍に

検索アーキテクチャの転換

ハイブリッド検索意向が10%から33%に急増
単独ベクトルDBの採用シェア低下
カスタムスタックが35.6%に拡大
検索最適化が投資優先度の首位に

評価基準の高度化

回答正確性・検索精度・回答関連性が同率に収束
回答関連性が唯一上昇した評価指標
ロングコンテキストは15.5%から6.7%に後退
本番RAG未導入企業も22%に増加

VentureBeatの調査「VB Pulse」によると、2026年第1四半期に企業のハイブリッド検索導入意向が10.3%から33.3%へと3倍に急増しました。従業員100人以上の企業を対象に毎月45〜58件の有効回答を得た調査で、企業がRAG検索拡張生成)の検索レイヤーを追加するフェーズから、既存アーキテクチャを再構築するフェーズへ移行していることが明らかになっています。

ハイブリッド検索とは、ベクトル類似検索にキーワード検索やリランキング層を組み合わせる手法です。単一手法のRAGパイプラインでは対応しきれなかった検索精度とアクセス制御の課題を解決するもので、エージェント型AIワークロードの本番運用に不可欠とされています。一方、Weaviate・Milvus・Pinecone・Qdrantといった単独ベクトルDBは四半期を通じて採用シェアを落としました。

投資優先度にも変化が見られます。評価・関連性テストは1月の32.8%から3月の15.6%へ低下し、代わりに検索最適化が19.0%から28.9%へ上昇して初めて首位に立ちました。HyperFRAME ResearchのSteven Dickens氏は「データチームはフラグメンテーション疲れに疲弊している」と指摘し、ベクトルストア・グラフDB・リレーショナルシステムを別々に管理する運用負荷の問題を挙げています。

検索システムの評価基準も高度化しています。1月には回答正確性が67.2%で突出していましたが、3月には回答正確性・検索精度・回答関連性がいずれも53.3%で収束しました。正しい答えだけでなく、適切な文脈から検索されたかを問う段階へ企業が進んでいることを示しています。

RAGは終わった」という議論についても、調査データは明確な回答を示しています。ロングコンテキストウィンドウが検索を不要にするという見方は、1月の15.5%から2月に3.5%まで急落しました。Databricksの主任AIサイエンティストJonathan Frankle氏は、数百万件のエントリを持つベクトルDBがエージェント型メモリスタックの基盤にあり、コンテキストウィンドウだけでは置き換えられないと説明しています。RAGそのものではなく、最初に構築されたアーキテクチャが否定されているのです。

AI評価コストが新たな計算資源のボトルネックに

評価コストの急騰

HALの評価に約4万ドル投入
GAIA1回で最大2829ドル
モデル間で4桁の費用差

圧縮手法の限界

静的ベンチマークは100〜200倍圧縮可能
エージェント評価は2〜3.5倍が限界
学習込み評価は圧縮手法なし

信頼性と格差の問題

再現実験でコスト8倍に膨張
評価能力が資金力で決まる構造

AIモデルの評価コストが急騰し、新たな計算資源のボトルネックになりつつあります。EvalEval Coalitionの分析によると、プリンストン大学のHolistic Agent Leaderboard(HAL)は9モデル・9ベンチマークで2万1730回のエージェント実行に約4万ドルを費やしました。フロンティアモデルでのGAIA1回の実行コストはキャッシュなしで最大2829ドルに達します。

コスト高騰の背景には、評価対象の複雑化があります。静的なLLMベンチマークでは、Flash-HELMやtinyBenchmarksなどの手法で100〜200倍の圧縮がランキング精度を保ったまま可能でした。しかしエージェント評価では、各タスクが多ターンの実行を伴うため、圧縮率は2〜3.5倍にとどまります。さらに学習を伴う評価ベンチマークでは、汎用的な圧縮手法が存在しません。

科学計算ML分野のThe Wellでは、1アーキテクチャの評価に約960 H100時間、4モデルの完全比較に3840 H100時間を要します。PaperBenchではICML論文20本の再現評価1回に約9500ドルがかかります。これらのベンチマークでは評価コストが学習コストを上回る逆転現象が起きています。

信頼性の確保がコストをさらに押し上げます。単一実行では統計的検出力が不足するため、HALスタイルの評価を8回再実行すると費用は約32万ドルに膨らみます。τ-benchでは1回60%の精度が、8回の一貫性基準では25%まで低下する事例も報告されています。HALは信頼性向上のため新規モデル評価を一時停止しました。

この状況は、誰がAIシステムを評価できるかという公平性の問題に直結します。学術機関やAI安全機関、ジャーナリストは技術的制約より予算制約に先に直面しています。論文の著者らは、評価結果の標準フォーマットでの共有と再利用が最もコスト効率の高い対策だと提言し、Every Eval Everプロジェクトを通じた評価データの共有基盤を呼びかけています。

企業GPU稼働率わずか5%、恐怖心が最適化を阻む悪循環

調達と構造の二重のムダ

GPU稼働率わずか5%の実態
割当喪失の恐怖で過剰確保が常態化
コンテナ設計がGPU遊休時間を増大
AWSがH200予約価格を15%値上げ

改善への具体策

タイムゾーン活用のGPU共有が有効
ワークロード別のチップ選定が急務
H100やA100で40〜60%のコスト削減可能
調達と運用を一体で見直す必要性

企業のGPUフリート稼働率がわずか5%にとどまっていることが、Cast AIの2026年版Kubernetes最適化レポートで明らかになりました。これは人手による通常管理で達成できる約30%を大幅に下回る数値です。同社の共同創業者Laurent Gil氏は、クラウドGPUの調達構造そのものが問題の根源だと指摘しています。

稼働率が極端に低い原因は、調達とアーキテクチャの二重構造にあります。企業がGPUを確保する際、数週間から数カ月の待機期間を経てようやく割当を受けますが、1年または3年の契約が条件です。一度確保したGPUは、再取得の困難さから誰も手放そうとしません。手放せば稼働率は改善するが、手放した瞬間に再入手できなくなるという矛盾が、過剰確保の悪循環を生んでいます。

アーキテクチャ面でも問題は深刻です。Anyscaleの分析によると、AIワークロードはCPU処理とGPU処理を交互に行うため、1つのコンテナにまとめるとGPUが大半の時間遊休状態になります。Gartnerも同様の結論に達しており、プロジェクト横断でのGPU共有と推論の分離を推奨しています。調達の過剰確保とコンテナ設計の非効率が重なり、5%という数字が生まれているのです。

クラウド市場は二層に分裂しています。H100のオンデマンド価格は2025年9月の約7.57ドルから約3.93ドルへ下落した一方、最新のH200は需要が供給の約3倍に達し、AWSは2026年1月に予約価格を約15%値上げしました。クラウドコンピューティングが毎年安くなるという20年来の前提は、最先端チップでは崩れつつあります。

では企業は何をすべきでしょうか。まず問うべきは「本当にH200が必要か」という点です。H200は70B以上のパラメータと128K以上のコンテキストを持つ大規模モデル向けであり、多くの本番ワークロードではH100で40%、A100で60%のコスト削減が可能です。タイムゾーンを活用したGPU共有、MIGによるチップ分割、vLLMやDynamoによる推論分離など、既存リソースの活用策は存在します。調達と運用を別々の予算項目として扱うのではなく、一つのループとして一体的に最適化することが、この悪循環を断ち切る鍵となります。

OpenAI、AIサイバー防御の行動計画を公表

5つの柱と基本方針

AI防御の民主化を中核に据える
政府・産業界との連携強化
フロンティアAIの安全性確保

脅威と対策の構図

攻撃者もAIで高度化・大規模化
防御ツールへの幅広いアクセス開放
国家安全保障への貢献を明示

実装と透明性

展開時の可視性と制御を維持
ユーザー自身の防御力向上を支援

OpenAIは2026年4月29日、AIを活用したサイバー防御を広く普及させるための行動計画「Cybersecurity Action Plan」を公表しました。連邦・州政府や大手企業のサイバーセキュリティ・国家安全保障専門家との対話をもとに策定されたもので、5つの柱から構成されています。

同社は、AIが脆弱性の特定や修復の自動化、迅速な対応を可能にする一方で、悪意ある攻撃者もAIを利用して攻撃を大規模化し、参入障壁を下げ、手法を高度化させていると指摘しています。米国とその同盟国が直面するサイバー脅威は急速に変化しており、民間のイノベーターにも重要な責任があると強調しました。

行動計画の5つの柱は、サイバー防御の民主化、政府と産業界の連携、フロンティアサイバー能力の安全性強化、展開時の可視性と制御の確保、そしてユーザー自身による防御の実現です。特に中核となるのは、信頼できるアクターが防御ツールに広くアクセスできるインフラの構築です。

OpenAIは、「インテリジェンス時代」のレジリエンス構築には、民主的な制度・プロセスを通じた取り組みと、コミュニティや重要システム、国家安全保障を守る技術へのアクセス拡大の両方が必要だと述べています。計画の全文はPDFで公開されています。

元Twitter CEO創業のParallel、評価額20億ドルで1億ドル調達

急成長する資金調達

Sequoia主導で1億ドルのシリーズB
前回から5カ月で評価額約2.7倍
累計調達額は2.3億ドルに到達

AIエージェント向けAPI

Web検索・調査APIを提供
Clay・Harvey・Notionなどが顧客
10万人超開発者が利用

創業者の背景

元Twitter CEOのParag Agrawal氏が設立
Musk氏による解雇後に起業

元Twitter CEOのParag Agrawal氏が創業したAIエージェント向けツール企業Parallel Web Systemsが、Sequoia主導のシリーズBラウンドで1億ドルを調達し、評価額20億ドルに達しました。Kleiner Perkins、Index Ventures、Khosla Venturesなど既存投資家も参加しています。

今回の調達は、2026年1月に発表した7.4億ドル評価でのシリーズA(1億ドル)からわずか5カ月後のことです。評価額は約2.7倍に跳ね上がり、累計調達額は2.3億ドルとなりました。AIエージェント関連スタートアップへの投資家の強い期待がうかがえます。

Parallelは、AIエージェント専用のWeb検索・リサーチAPIを提供しています。顧客にはClay、Harvey、Notion、Opendoorのほか、銀行やヘッジファンドも含まれるとのことです。開発者の利用は10万人を超えており、AIエージェントインフラとしての存在感を高めています。

Agrawal氏にとって、この成功は格別な意味を持つでしょう。2022年にElon Musk氏がTwitterを買収した際に解雇され、1.28億ドルの退職金をめぐる訴訟に発展しました。2025年10月に非公開の条件で和解が成立しており、今回の資金調達は同氏のキャリアにおける大きな転機となっています。

Geminiがチャット上でファイル生成に対応

対応形式と機能

PDF・Word・Excelなど10形式以上に対応
プロンプト入力だけでファイル生成
端末への直接ダウンロードが可能
Google Driveへのエクスポートにも対応

想定される活用場面

予算提案書のExcel出力
アイデアの箇条書き文書化
長文の共同作業を1ページPDFに集約

Googleは4月29日、AIアシスタントGeminiのチャット上でファイルを直接生成できる新機能を発表しました。プロンプトを入力するだけで、PDF、Microsoft Word(.docx)、Excel(.xlsx)、Google Docs、Sheets、Slidesなど多数の形式のファイルを作成でき、アプリを離れることなくアイデアを完成したファイルに仕上げられます。

対応フォーマットは、Google Workspaceファイル(Docs・Sheets・Slides)に加え、PDF、.docx、.xlsx、CSV、LaTeX、プレーンテキスト、リッチテキスト(RTF)、Markdownと幅広く用意されています。生成したファイルはほとんどの形式で端末に直接ダウンロードするか、Google Driveへエクスポートすることが可能です。

具体的なユースケースとしては、予算提案書をExcelファイルとして出力する、散在するアイデアを箇条書きの下書きにまとめる、長時間の共同作業の内容を1ページのPDFやWord文書に集約するといった使い方が想定されています。コピー・ペーストや再フォーマットの手間を省き、作業効率を大幅に高められます。

本機能は全世界のGeminiアプリユーザーに向けて即日提供が開始されています。gemini.google.comにアクセスし、必要なファイルの内容を説明するだけで利用できます。

MIT、エッジ端末のAI学習を81%高速化する手法を開発

連合学習の課題を解決

メモリ使用量80%削減
通信データ量69%削減
異種デバイス混在環境に対応
非同期更新で遅延を解消

実用化への展望

医療・金融など高セキュリティ分野へ応用
途上国の低性能端末でも利用可能
大規模ネットワークで高い拡張性
精度と速度のトレードオフは許容範囲

MITの研究チームが、プライバシーを保護しながらAIモデルを学習させる連合学習(Federated Learning)の効率を大幅に改善する新手法「FTTE」(Federated Tiny Training Engine)を開発しました。従来手法と比較して学習完了までの時間を約81%短縮でき、スマートウォッチやセンサーなどの小型エッジデバイスでも高精度なAIモデルの学習が可能になります。

連合学習では、中央サーバーからAIモデルを各デバイスに配信し、端末上のローカルデータで学習したうえで更新情報をサーバーに送り返します。ユーザーデータは端末から外に出ないためプライバシーが守られますが、メモリやネットワーク接続に制約のあるデバイスでは学習の遅延や失敗が生じていました。特に性能の異なるデバイスが混在するネットワークでは、最も遅い端末がボトルネックとなる問題がありました。

FTTEは3つの技術革新でこの課題を解決します。第一に、モデル全体ではなく精度に寄与するパラメータのサブセットのみを送信し、端末のメモリ負荷を軽減します。第二に、全端末からの応答を待たず一定数の更新が集まった時点で学習を進める半非同期方式を採用します。第三に、受信時刻に基づいて更新の重み付けを行い、古い更新の影響を抑制します。

シミュレーション実験では、数百台の異種デバイスを用いたテストでメモリ使用量80%削減通信量69%削減を達成しつつ、他の手法と同等の精度を維持しました。デバイス数が増えるほど性能向上が大きくなる拡張性も確認されています。実機での小規模テストも実施済みです。

研究を主導したIrene Tenison氏は「AIを巨大サーバーだけでなく、日常的に持ち歩く小さなデバイスで動かすための重要な一歩」と述べています。今後は各デバイスでのパーソナライズ性能の向上や、より大規模な実機実験を計画しています。この成果はIEEE International Joint Conference on Neural Networksで発表予定です。

ChatGPTのDL成長鈍化、OpenAIのIPOに暗雲

ユーザー離れの実態

4月のアンインストール数が前年比132%増
月間アクティブユーザー成長率が168%から78%に低下
ClaudeのDL数は同期間に11倍増

IPOへの影響

社内のユーザー数・収益目標を未達
CFOがIPO計画に懸念を表明
将来の計算資源契約の支払いに不安
Pentagon契約後にアンインストール急増

ChatGPTのダウンロード成長が鈍化しており、OpenAIが目指すIPOに影響を及ぼす可能性が出てきました。市場調査会社Sensor Towerのデータによると、ChatGPTの4月のアンインストール数は前年比132%増加し、3月にはOpenAIの国防総省との契約を受けて前年比413%増と急増しています。

ChatGPTは依然として競合を大きく上回るユーザー基盤を持っていますが、その成長ペースは明らかに減速しています。月間アクティブユーザーの前年比成長率は、1月の168%から4月には78%まで低下しました。一方、競合のClaudeは同期間にダウンロード数が前年比11倍と急成長を遂げており、差が縮まりつつあります。

この成長鈍化はOpenAIの事業計画にとって深刻な問題です。Wall Street Journalの報道によると、OpenAIは社内で設定した新規ユーザー数と収益の目標を達成できていません。CFOのSarah Friar氏はIPO計画に対する懸念を示しているとされています。

経営陣の間では、収益の成長が十分でない場合、将来の計算資源の契約費用を賄えなくなるのではないかという懸念が広がっています。IPOを控えるOpenAIにとって、ユーザー成長の回復と収益の安定化が喫緊の課題となっています。

MITとIBMがAI・量子計算の共同研究所を設立

研究所の概要と目的

旧Watson AI Labを発展的に改組
AI・アルゴリズム・量子計算の3領域
古典計算の限界を超える手法開発

研究の重点分野

小型・高効率な言語モデル設計
量子アルゴリズムで材料・化学に応用
気象予測や金融リスク低減への波及

産学連携の実績と展望

過去に210件超の研究を支援
1500本超の査読付き論文を発表

MITIBMは2026年4月29日、AI・アルゴリズム・量子計算の3分野を統合的に研究する「MIT-IBM Computing Research Lab」の設立を発表しました。2017年に設立されたMIT-IBM Watson AI Labを発展的に改組したもので、AIが実用段階に入り量子計算が急速に進展する現在の技術環境を反映しています。両者は計算の数学的基盤そのものを再定義することを目指します。

研究所はAI、アルゴリズム、量子計算の3つの柱で構成されます。AI分野では小型で効率的なモジュール型言語モデルの設計や、信頼性と透明性を重視した企業向けAIシステムの開発に取り組みます。量子分野では材料科学・化学・生物学への応用を見据えた新しい量子アルゴリズムの開発を加速させます。

アルゴリズム分野では、機械学習数学的基盤やハミルトニアンシミュレーション、偏微分方程式の新手法を研究します。これらの成果は気象乱気流予測の精度向上、金融市場のリスク低減、タンパク質構造予測による創薬、サプライチェーンの最適化など、幅広い産業への応用が期待されています。

研究所はMIT生成AIインパクト・コンソーシアムや量子イニシアチブとも連携します。IBMは2029年までに世界初の耐故障量子コンピュータの実現を目指すロードマップを掲げており、量子コンピュータと高性能計算・AIアクセラレータを統合する「量子中心スーパーコンピューティング」の推進を研究所の柱に据えています。

前身のWatson AI Labでは150名超のMIT教員と200名超のIBM研究者が参加し、210件超の研究プロジェクトから1500本超の査読付き論文が生まれました。500名以上の学生・ポスドクへの支援実績もあり、新研究所はこの基盤の上に次世代の計算科学者の育成も継続していく方針です。

中国、Baiduロボタクシー混乱受け新規免許を凍結

免許凍結の影響

新規無人車両の追加禁止
新都市への展開も停止
新規テスト事業の開始不可

規制強化の背景

武漢で数十台が走行中に停止
北京当局が地方政府に点検指示
Baidu武漢事業は調査中で停止
Baidu関連で少なくとも2度目の介入

中国政府が自動運転車両の新規免許発行を停止したことが明らかになりました。Bloombergが関係者の話として報じたもので、先月、中国テック大手Baiduが運営するロボタクシー「Apollo Go」数十台が武漢市内の交通中に突然停止し、混乱を引き起こした事態を受けた措置です。

今回の規制により、企業は自社の無人運転車両を新たに追加すること、新しい都市へのサービス拡大、新規テストプロジェクトの開始がいずれも禁止されます。当局が免許発行を再開する時期は現時点で不明です。

Bloombergによると、武漢での事態は北京の当局に警戒感を与え、規制当局は地方政府に対して自動運転セクター全体の見直しを求めました。同様の事態が再発しないための措置とされています。

Baiduに関連した事故・障害をきっかけに規制当局が介入するのは、これが少なくとも2度目です。Baiduの武漢での事業は、地元当局の調査が続く間、引き続き停止中となっています。自動運転技術の商用化を急ぐ中国にとって、安全面での信頼回復が課題となりそうです。

Runway CEOが動画生成の先にある世界モデルを次の主戦場と宣言

世界モデルへの転換

動画生成から汎用世界モデルへ拡張
ゲーム・ロボティクスAGIへの応用視野
GoogleOpenAIと最前線で競合

Runwayの現在地

累計調達額約8.6億ドル
評価額53億ドルでの資金調達完了
リアルタイム動画生成による新領域開拓
映画産業の構造変革を提唱

AI動画生成スタートアップRunwayの共同創業者兼CEOであるCristóbal Valenzuela氏が、TechCrunchのポッドキャストに出演し、同社の今後の方向性について語りました。Valenzuela氏は、AI動画生成は通過点に過ぎず、真の目標はゲームやロボティクス、さらには汎用知能に応用可能な「世界モデル」の構築にあると明言しています。

Runwayはニューヨークに拠点を置き、これまでに約8億6,000万ドルを調達し、直近の評価額は53億ドルに達しています。同社のモデルはGoogleOpenAIといった資金力のある大手ラボと正面から競い合う位置にあります。動画生成技術にとどまらず、世界モデルという新たなカテゴリーでの差別化を図っています。

Valenzuela氏は「非線形メディア」という概念にも言及し、リアルタイムの動画生成コンテンツ制作をはるかに超える活用領域を開くと説明しています。映画産業については、1本の1億ドル大作を作る代わりに50本の映画を制作できる可能性があると述べ、技術がクリエイティブの制約を根本から変えると主張しました。

一方で、AIコンパニオンが「本質的にディストピア的だ」とする見方には反論し、技術の活用次第で多様な可能性があるとの立場を示しています。Runwayが目指す世界モデルは、単なる動画ツールから汎用AIプラットフォームへの進化を意味しており、今後の競争の行方が注目されます。

防衛AIスタートアップ2社が計1.8億ドル調達、軍用ドローン開発加速

Scout AIの自律戦闘AI

シリーズAで1億ドル調達
軍事用AIモデル「Fury」を開発
VLA技術で自律走行車両を訓練
DARPA等と1100万ドルの契約実績

Firestorm Labsの移動式工場

シリーズBで8200万ドル調達
コンテナ型ドローン製造装置「xCell
24時間以内にドローン3Dプリント製造
インド太平洋地域での実戦配備を推進

米防衛テックスタートアップScout AIFirestorm Labsが2026年4月29日、それぞれ1億ドルと8200万ドルの大型資金調達を発表しました。Scout AIはAlign VenturesとDraper Associates主導のシリーズAで、Firestorm LabsはWashington Harbour Partners主導のシリーズBで、いずれも軍用ドローン・自律兵器分野での事業拡大を目指しています。両社合計で約1億8200万ドルの調達は、米国防衛AI市場への投資家の強い関心を示しています。

Scout AIはColby Adcock氏らが2024年に設立した「防衛向けフロンティアラボ」を標榜する企業です。同社は大規模言語モデルを基盤とした軍事AIモデル「Fury」を開発し、まず兵站支援、次いで自律兵器への応用を計画しています。特に注目されるのは、Google DeepMind発のVision Language Action(VLA)モデル技術の軍事転用で、カリフォルニア州の米軍基地で自律走行ATVの実地訓練を進めています。DARPAや陸軍アプリケーション研究所との開発契約も獲得済みです。

一方のFirestorm Labsは、サンディエゴ拠点の防衛スタートアップで、累計調達額は1億5300万ドルに達しました。同社の主力製品「xCell」は、輸送コンテナに収まる移動式ドローン製造プラットフォームです。HP製産業用3Dプリンターを内蔵し、24時間以内にドローンの機体を製造できます。偵察や電子戦など任務に応じた構成が可能で、致死性のある運用にも対応しています。

両社の事業は、米国防総省が「争奪兵站」を6つの国家重要技術分野の一つに指定した流れと合致しています。Firestorm Labsは既にインド太平洋地域でxCellを運用中で、2年以内の本格配備を目指しています。Scout AIも2027年の米陸軍第1騎兵師団の海外展開に向け、技術実証を進めています。ウクライナでの戦訓を踏まえ、ドローン設計の高速反復と前線での製造能力が重視される時代に、両社は異なるアプローチで米軍の変革を支えています。

Waymo自動運転車の性能悪化、緊急対応に支障と消防・警察が訴え

規制・法務導入事例

現場からの報告

SF・Austinで性能後退を指摘
交通違反の増加傾向
消防署前の通行妨害が頻発
車両フリーズで緊急出動に遅延

規制と今後の課題

加州が30秒以内の応答義務化
手信号への反応不良が常態化
Waymoは週50万回配車へ拡大中
10都市追加とロンドン進出を計画

Waymoの自動運転車について、サンフランシスコとオースティンの緊急対応部門の責任者がNHTSAとの非公開会合で性能の悪化を訴えていたことが、WIREDが入手した録音で明らかになりました。消防・警察・救急の現場では、フリーズした車両への対応に時間を取られ、緊急出動に支障が出ているといいます。

サンフランシスコ緊急事態管理局のキャロル局長は「改善されていたことが後退している」と述べ、交通違反の増加を指摘しました。同市消防局のラビット局長も、Waymo車両が消防署の出入口を塞ぐ事例が再び増えていると報告しています。オースティン警察のホワイト中尉は、車両が警察官の手信号を認識できず「人間との接触が入った瞬間にフリーズする」と説明しました。

具体的な事例も深刻です。オースティンでは先月、銃撃事件(死者3人、負傷者14人以上)に向かう救急車をWaymo車両が2分間にわたり妨害しました。サンフランシスコでは昨年12月の大規模停電時に1,000台以上のWaymoが立ち往生し、60台以上を手動で回収する事態に。911オペレーターがWaymoのホットラインで53分間待たされたケースも報告されています。

こうした問題にもかかわらず、Waymoは積極的な拡大路線を進めています。現在アメリカ10都市で運行し、年内にロンドンを含む10都市の追加を計画。週間配車回数は50万回に達しました。一方、カリフォルニア州車両管理局は7月施行の新規制を発表し、自動運転車事業者に緊急対応者からの連絡への30秒以内の応答と、緊急エリアからの2分以内の退避を義務づけます。

Waymo側は「緊急対応者との連携を重視している」と声明を出し、全米で3万5,000人以上の緊急対応者に対面訓練を実施したと述べています。現場の担当者たちも「技術の成功を望んでいる」としつつ、安全確保の改善を強く求めています。

MIT、AIビジョンモデルのバイアス除去で新手法を開発

従来手法の課題

投影法はバイアス除去時に別のバイアスを増幅
モグラ叩きジレンマの発生
人種バイアス除去で性別バイアス悪化

WRING手法の特長

高次元空間の座標を回転させてバイアス無効化
学習済みモデルに後処理で適用可能
他の関係性を維持したまま対象バイアスを低減

今後の展望

現在はCLIPモデルに限定
生成型言語モデルへの拡張を計画

MITやウースター工科大学、Googleの研究チームが、AIビジョン言語モデル(VLM)のバイアスを効果的に除去する新手法「WRING(Weighted Rotational DebiasING)」を発表しました。この研究は2026年のICLR(国際学習表現会議)に採択されています。医療現場では皮膚病変の分類にAIが使われていますが、特定の肌色に偏ったモデルは高リスク患者を見落とす可能性があり、バイアスは安全上の重大な課題となっています。

従来広く使われてきた「投影デバイアス」手法は、モデルの埋め込み空間からバイアスに関連する部分空間を取り除くものです。しかしこの方法には「モグラ叩きジレンマ」と呼ばれる問題がありました。ある種のバイアスを除去すると、周囲の関係性が歪み、別のバイアスが増幅・生成されてしまうのです。たとえば人種バイアスを除去すると、性別バイアスが悪化するといった事態が起こります。

WRINGは、モデルの高次元空間においてバイアスの原因となる座標を異なる角度に回転させることで、特定の概念におけるグループ間の区別をモデルができなくする仕組みです。投影デバイアスのように部分空間を削除するのではなく、回転操作を行うため、他の学習済み関係性を損なわずに対象のバイアスだけを低減できます。しかも後処理として適用できるため、大規模モデルの再学習は不要です。

研究チームの実験では、WRINGはターゲットとなるバイアスを大幅に低減しつつ、他の領域でバイアスを増加させないことが確認されました。ただし現時点では、画像と言語を結びつけるCLIPモデルへの適用に限定されています。筆頭著者のWalter Gerych氏は、ChatGPTのような生成型言語モデルへの拡張が次のステップだと述べています。

MIT発スタートアップEkaがロボットの器用さを飛躍的に向上

シミュレーション学習の革新

仮想空間で数千時間の自律訓練
触覚センサー搭載の独自グリッパー開発
視覚・力覚・行動モデルの新アルゴリズム

前例のない物体操作能力

電球のねじ込みを自然な動作で実現
チキンナゲットの高速仕分け作業
未知の物体にも即座に適応
失敗からの自律的なリカバリー動作

MIT教授のPulkit Agrawal氏と元Google DeepMind研究者のTuomas Haarnoja氏が共同設立したスタートアップEkaが、ロボットの物体操作能力で注目を集めています。マサチューセッツ州ケンブリッジに拠点を置く同社のロボットは、電球をソケットにねじ込む、鍵の束をつまみ上げるといった繊細な動作を、人間のような自然さでこなします。Wired誌の記者は「10年以上ロボットを取材してきたが、これほど自然に動くものは見たことがない」と評しました。

Ekaのアプローチは、人間のデモンストレーションデータに頼る他社とは一線を画しています。同社のロボットシミュレーション環境の中で数千時間にわたり自律的に練習し、独自の解決策を編み出します。これはGoogle DeepMindのAlphaZeroがチェスで超人的な戦略を自ら発見したのと同じ原理です。かつてOpenAIがDactylプロジェクトで試みたシミュレーション学習は「行き止まり」とされましたが、Ekaはそのギャップを埋めることに成功しつつあります。

技術的な鍵は、触覚を組み込んだ独自のグリッパーと、vision-force-actionモデルと呼ばれる新しいAIアルゴリズムにあります。このモデルは関節やモーターだけでなく、質量や慣性といった物理法則もシミュレーションに取り込み、物体の重さや動きの速度が操作に与える影響を学習します。その結果、物体が滑り落ちそうになっても自律的に回復する能力を獲得しました。

特に印象的なデモは食品ハンドリングです。テーブルに散らばったチキンナゲットをベルトコンベア上の容器に素早く詰める作業で、容器が遠ざかるとナゲットを短い距離から投げ入れるという即興的な判断も見せました。食品は形状が不均一で繊細な扱いが求められるため、自動化が特に困難な領域です。

Agrawal氏は「人間と同等ではなく、超人的な操作能力が目標だ」と語っています。同じアプローチをiPhoneの組み立てのような精密作業にも適用できるとの見方を示しました。ロボット工学における「ChatGPTの瞬間」が訪れるかどうかはまだ不透明ですが、Ekaが実現しつつある触覚的・身体的知能は、汎用ロボットの実用化に向けた重要な一歩と言えるでしょう。

カナダ銃撃事件の遺族がOpenAIを提訴、通報怠慢を追及

訴訟の核心

安全チームが8か月前に危険を警告
OpenAI法執行機関への通報を拒否
アカウント停止後に再登録方法を案内

企業責任の争点

IPO準備中の評判保護が動機と主張
GPT-4oの追従的設計も訴因に
過失・幇助含む7件の訴訟を提起

OpenAIの対応

Altmanが通報しなかった判断を謝罪
再発防止と政府連携を表明

2026年4月29日、カナダ・ブリティッシュコロンビア州タンブラーリッジの学校銃撃事件で被害を受けた7家族が、米カリフォルニア州の裁判所にOpenAIとCEOサム・アルトマンを相手取り訴訟を提起しました。訴状によると、事件の約8か月前OpenAIの内部安全チームが容疑者のChatGPTアカウントを銃暴力の「信頼できる脅威」としてフラグを立て、警察への通報を勧告していました。

しかしOpenAIの経営陣は、ユーザーのプライバシーや警察との接触によるストレスを理由に通報を見送りました。Wall Street Journalの報道によれば、内部告発者は安全チームの勧告が却下された経緯を証言しています。容疑者にはすでに警察の記録があり、過去に自宅から銃が押収された前歴もありました。

さらに訴状は、OpenAIがアカウントを「禁止した」と主張しながら、実際には単に無効化しただけだったと指摘しています。その後OpenAIは容疑者に対し、別のメールアドレスで新規アカウントを作成する方法を案内したとされ、「安全策を回避した」という同社の後の説明は虚偽だと主張しています。

遺族側はまた、OpenAIが当時進めていたIPO準備に伴う企業イメージの保護が通報拒否の動機だったと訴えています。加えて、昨年「過度に追従的」として撤回されたGPT-4oのアップデートの設計上の欠陥も事件に寄与したとして、過失責任・不法行為死亡・大量殺人の幇助などを訴因に挙げています。

アルトマンCEOは先週、人口約2,000人のタンブラーリッジのコミュニティに向けて公開謝罪を行い、「6月に禁止したアカウントについて法執行機関に通報しなかったことを深くお詫びする」と述べました。今後は政府と連携して同様の悲劇を防ぐと表明しましたが、訴訟の行方はAI企業の安全責任に関する重要な判例となる可能性があります。

中東データセンターへの攻撃で大手IT企業が投資凍結

施設被害と投資判断

Pure DC、中東全投資一時停止
イラン攻撃でAWS施設3拠点が被害
構造損傷・電力障害・水損害が発生

クラウドへの波及

銀行・決済など広範囲で障害
配車アプリCareemにも影響
戦争被害は保険適用外で企業負担
湾岸DC計画の根本的見直し

ロンドン拠点のデータセンター開発企業Pure Data Centre Groupは、イランのミサイルまたはドローン攻撃により自社施設が損傷したことを受け、中東における全プロジェクトへの投資を凍結しました。同社のゲイリー・ウォイタシェクCEOはCNBCの取材に対し、「状況が落ち着くまで、誰も大規模な新規資本を投入しない」と語っています。Pure DCは欧州・中東・アジアで1ギガワット超のデータセンター容量を運営・開発しています。

今回の判断の背景には、2月28日の米国・イスラエルによるイラン攻撃を発端とするイラン戦争があります。イランはホルムズ海峡の封鎖による貿易妨害に加え、湾岸地域の米軍基地やエネルギーインフラへの攻撃で応酬しました。シリコンバレー投資家やテック企業が湾岸諸国で進めてきた数兆ドル規模のAI・クラウド向けデータセンター建設計画は、根本的な見直しを迫られています。

イランはアラブ首長国連邦のAWSデータセンター2拠点を直接攻撃したほか、バーレーンの3拠点目も自爆ドローンの至近弾で損傷させました。AWSは3月1日にサービスダッシュボードを通じて、構造的損傷、電力供給の途絶、消火システム作動による水損害が発生したと報告しています。

この被害により、銀行や決済プラットフォーム、ドバイ拠点の配車アプリCareem、データクラウドSnowflakeなど、AWSの顧客企業に広範なクラウドサービス障害が波及しました。戦争による被害は保険の適用対象外であり、データセンター開発企業が自らコストを負担せざるを得ない状況です。地政学リスクが、AIインフラの立地戦略そのものを揺るがしています。

Definity、パイプライン内蔵型AIエージェントで1200万ドル調達

実行中に障害を検知

Spark内部エージェント常駐
実行中のデータ品質をリアルタイム監視
不良データの下流伝播を未然に遮断

導入効果と資金調達

トラブル対応工数70%削減
最適化機会の33%を初週で特定
シリーズAで1200万ドル調達
GreatPoint Ventures主導で実施

外部監視との違い

JVMエージェントを1行で導入
パイプライン完了後でなく実行中に介入

データパイプライン運用のスタートアップDefinityは、Sparkパイプラインの内部にAIエージェントを組み込む独自アーキテクチャを発表しました。従来の監視ツールがジョブ完了後にメトリクスを読み取るのに対し、Definityは実行中にデータ品質の問題を検知し、不良データが下流システムに到達する前に介入できます。同社はシリーズAラウンドで1200万ドルを調達しました。

技術的な特徴は、JVMエージェントをパイプラインの実行レイヤーに直接インストールする点です。1行のコード追加で導入でき、クエリ実行の挙動やメモリ負荷、データの偏り、シャッフルパターンなどを実行中にリアルタイムで把握します。事前定義されたデータカタログは不要で、パイプラインとテーブル間のリネージを動的に推定します。

広告テクノロジー企業Nexxenは、オンプレミス環境で大規模Sparkパイプラインを運用する初期ユーザーです。導入初週に最適化機会の33%を特定し、トラブルシューティングと最適化にかかるエンジニアリング工数を70%削減しました。クラウドの弾力性がないオンプレミス環境では非効率がコストに直結するため、この効果は大きいと同社は述べています。

既存のパイプライン監視ツール、たとえばDatadog傘下のMetaplaneやDatabricksのシステムテーブル、Unravel Data、Acceldata等はいずれも実行レイヤーの外側からアプローチします。Definityの差別化要因は、障害発生後ではなく発生時に対処できる点にあります。CEOのRoy Daniel氏は「エージェント型データ運用には、リアルタイムのフルスタックコンテキスト、パイプラインの制御権、フィードバックループでの検証能力が必要だ」と語っています。

AIワークロードがデータパイプラインに依存する度合いは高まっており、パイプライン障害はダッシュボードの停止にとどまらず、AI本番システムの停止を意味するようになっています。Definityのアプローチは、データエンジニアリングチームがリアクティブな障害対応からプロアクティブな最適化へ移行するための基盤となりえます。

OpenAI Codexに「ゴブリンの話をするな」という指示が発覚

異例の禁止指示

GPT-5.5向けシステムプロンプトに記載
ゴブリンなど7種の生物への言及を禁止
旧モデル向け指示には同様の記載なし

背景と反応

GPT-5.5が無関係な会話でゴブリンに言及する問題
OpenAI社員はマーケティング施策ではないと否定
Altman CEOはジョークで反応し話題が拡散

OpenAIが公開したコーディングツール「Codex CLI」のシステムプロンプトに、最新モデルGPT-5.5に対して「ゴブリン、グレムリン、アライグマ、トロール、鬼、ハトなどの動物や生き物について、ユーザーの質問と明確に関連がない限り絶対に話すな」という異例の指示が含まれていることが明らかになりました。この禁止指示は3,500語超の基本指示の中で2回繰り返されています。

この指示は先週、OpenAIGitHubに公開したCodex CLIのオープンソースコードの中で発見されました。同じJSONファイルに含まれる旧モデル向けの指示にはこの禁止事項がなく、GPT-5.5で新たに発生した問題への対処とみられます。実際にソーシャルメディア上では、GPT-5.5が無関係な会話の中で突然ゴブリンの話題を持ち出すという報告が複数のユーザーから上がっていました。

Codex開発チームのNick Pash氏は、この指示について「GPT-5.5やCodexへの注目を集めるためのマーケティング施策ではない」とソーシャルメディアで明言しています。しかしこの話題が広まると、OpenAIの幹部たちはむしろジョークとして受け入れる姿勢を見せました。

Sam Altman CEOは「Codexが話題になっている。いや、ゴブリンが話題だった、失礼」と投稿し、話題をさらに盛り上げました。AIモデルの予期しない振る舞いが、システムプロンプトという形で可視化された珍しい事例として注目を集めています。

Gemini、英国でパーソナライズ機能を本格展開

記憶と文脈の活用

過去の会話から好みや関心を学習
ユーザーごとに最適化された応答を生成
設定でオン・オフを自由に切り替え可能

他社AIからの移行支援

メモリインポート機能の提供開始
他AIアプリの記憶をGeminiに一括移行
チャット履歴のZIPアップロードにも対応
過去の会話を引き継ぎ継続利用が可能

Googleは4月29日、AIアシスタントGeminiの新たなパーソナライズ機能を英国で提供開始すると発表しました。目玉となるのは「Memories」設定で、過去の会話からユーザーの好みや関心事を学習し、より自然で文脈に即した応答を返す仕組みです。この設定はデフォルトでオンになりますが、ユーザーはいつでもオフに切り替えられます。

具体的な活用例として、以前お気に入りの漫画について話したユーザーには、そのキャラクターをテーマにしたパーティー企画を提案したり、読書の好みを踏まえた書籍推薦を行ったりすることが可能になります。単なる汎用ツールではなく、個人の文脈を理解したパートナーのような体験を目指しています。

さらにGoogleは、競合AIサービスからの乗り換えを促進するスイッチングツールも同時に発表しました。他のAIアプリで蓄積したメモリや好みの情報を、専用プロンプトを使ってGeminiにインポートできます。設定画面からインポートオプションを選び、他のAIアプリが生成した要約をGeminiに貼り付けるだけで、好みや個人情報が即座に反映されます。

チャット履歴の移行にも対応しており、他社AIプロバイダーからエクスポートしたZIPファイルをアップロードすることで、過去の会話スレッドを検索・継続できます。メモリインポートとチャット履歴インポートの両機能は、今後数週間かけて段階的にロールアウトされる予定です。GoogleはAIアシスタント市場でのユーザー囲い込みと新規獲得の両面で攻勢を強めています。

SenseTime、高速画像生成の新モデルを公開

モデルの技術的特徴

画像テキスト変換せず直接処理
既存モデルより大幅に高速な生成
PCやスマホでも動作可能な軽量設計

中国半導体との連携

中国チップ10社が互換性を確認
オープンソースで国際連携を維持
ロボティクス分野への応用を視野

SenseTimeの戦略転換

顔認識大手から生成AIへ軸足
反復速度重視でオープンソース選択

米国の制裁対象である中国AI企業SenseTimeは4月29日、オープンソースの画像生成モデル「SenseNova U1」を公開しました。同モデルは画像をテキストに変換せず直接処理する独自技術「NEO-Unify」を採用しており、米国の競合モデルを大幅に上回る速度で画像の生成と解釈が可能だと同社は主張しています。

U1の最大の特徴は、画像をネイティブに「読む」能力にあります。従来のモデルが画像を一度テキストに変換して処理するのに対し、U1は画像のまま推論を行うことで処理速度を向上させ、必要な計算資源を削減しています。共同創業者のDahua Lin氏は「モデルの推論プロセスはもはやテキストに限定されない」と述べています。モデルはPCやスマートフォンでも動作可能な軽量設計で、幅広い活用が期待されます。

注目すべきは、U1が中国チップで動作する点です。公開日にはCambricon、Biren Technologyなど10社の中国半導体メーカーが互換性を発表しました。米国の輸出規制により最先端AI半導体へのアクセスが制限される中、中国チップへの対応は戦略的に重要な意味を持ちます。SenseTimeはHugging FaceGitHubでモデルを無料公開しており、中国企業がオープンソースAIの主要な貢献者となっている傾向をさらに強めています。

技術的な性能面では、U1は市場の全オープンソースモデルを上回る画質を実現したとSenseTimeは主張しています。AlibabaのQwenByteDanceのSeedreamといった中国のクローズドソースモデルに匹敵する一方、OpenAIGPT-Image-2.0にはまだ及ばないとされています。ただし速度面ではこれらすべてのモデルを凌駕するとのことです。

SenseTimeはかつて顔認識技術で世界をリードしていましたが、ChatGPT以降の生成AIブームでDeepSeekやMiniMaxなど新興企業に後れを取っていました。同社はオープンソース戦略により研究者からのフィードバックを得て反復速度を高める方針に転換。Lin氏は「オープンかクローズドかではなく、反復の速度こそが勝敗を分ける」と語っています。また、この技術はロボットが視覚情報を高速に処理するうえで特に有用であり、中国ヒューマノイドロボット市場への展開も見据えています。

UbuntuのAI機能追加にLinuxユーザーが反発

ユーザーの反応

AIキルスイッチの要望
旧バージョンや他ディストロへの移行示唆
WindowsのAI強制と同列視する声

Canonicalの対応方針

グローバルキルスイッチは設けない方針
AI機能はSnapで提供し削除可能
26.10でオプトインプレビュー開始
初期設定で有効化を選択可能に

派生ディストロの動向

Zorin OSは「AI中立」を表明

CanonicalがLinuxディストリビューション「Ubuntu」にAI機能を追加する計画を発表したところ、ユーザーコミュニティから強い反発が起きています。公式フォーラムでは「AIキルスイッチ」の設置を求める声や、MicrosoftWindows 11にAI機能を組み込んだことと同じ轍を踏むのではないかという懸念が相次ぎました。古いバージョンにとどまる、あるいは別のディストリビューションに乗り換えるという意見も出ています。

Canonicalのエンジニアリング担当VP、ジョン・シーガー氏は火曜日に回答し、グローバルなAIキルスイッチを設ける予定はないと明言しました。一方で、すべてのAI機能はSnapパッケージとして提供されるため、ユーザーはいつでも削除できると説明しています。計画では、Ubuntu 26.10で厳密なオプトイン方式のプレビューを導入し、その後のリリースでは初期セットアップウィザードでAI機能の有効化を選択できるようにする方針です。

追加予定のAI機能には、音声認識や音声合成などのアクセシビリティツールのほか、トラブルシューティングや自動化を支援するエージェント型AIが含まれます。Canonicalは社内エンジニアにもAI活用を推奨しており、今後1年をかけて段階的にAI機能を導入していくとしています。

AI機能を避けたいユーザーの受け皿となりうるのが、Linux MintPop!_OSZorin OSといったUbuntuベースのディストリビューションです。Zorin OSのCEOアルチョム・ゾリン氏はThe Vergeへの声明で「AI中立」の立場を表明し、ローカル音声認識など一部機能は要件を満たしうるとしつつも、実装を精査してから採用を判断すると述べました。CanonicalのAI戦略が、Linuxエコシステム全体のユーザー分布に影響を与える可能性があります。

AIで薬剤耐性菌に挑む、診断精度99%超の新手法

AI診断と創薬の進展

AI診断で精度99%超を達成
培養不要で迅速な耐性判定
NHSとDeepMindが耐性機構を48時間で解明
生成AIで自然界にない新規化合物を設計

経済モデルの課題

大手製薬が抗生物質開発から撤退
英国定額課金型の支払いモデルを試行
2050年までに耐性菌で4000万人死亡の予測

薬剤耐性菌による感染症は年間100万人以上の死亡原因となり、さらに約500万人の死に関与する深刻な公共衛生上の危機です。英インペリアル・カレッジ・ロンドンのアラ・ダルジ教授は、2026年4月のWIRED Healthカンファレンスで、AI診断がこの危機への転換点になると訴えました。従来の診断には細菌培養で2〜3日を要しますが、敗血症など一刻を争う感染症では、治療が1時間遅れるごとに死亡リスクが4〜9%上昇します。

ダルジ教授によれば、AIを活用した診断は追加の検査設備なしで99%超の精度を達成しています。これは特に、抗生物質耐性率が高い東南アジアや東地中海地域など、医療インフラが限られる地域で大きな効果が期待されます。WHOの推計では、これらの地域では報告された感染症の3分の1が耐性菌によるものでした。

英国の国民保健サービス(NHS)はGoogle DeepMindと共同でAIシステムを開発しています。デモンストレーションでは、研究者が10年かけて解明した耐性メカニズムをわずか48時間で特定しました。自動化された実験室と組み合わせることで、数百の並列実験を24時間体制で実行でき、深層学習モデルは数日で数十億の分子構造をスクリーニング可能です。生成AIは自然界に存在しない化合物の設計にも使われています。

しかし技術面の進歩だけでは解決しません。大手製薬企業は、新しい抗生物質を耐性防止のために使用制限する必要がある一方、利益は大量販売に依存するという矛盾から、抗生物質開発から撤退しています。英国は2024年に「Netflixモデル」と呼ばれる定額課金型の支払い制度を試験導入し、処方量ではなく固定年額を製薬企業に支払う仕組みを始めました。スウェーデンも同様の取り組みを進めています。

Lancet誌の2024年の報告書は、薬剤耐性感染症による死亡者数が2050年までに4000万人に達すると予測しています。ダルジ教授は「対応するツールはすでにある。問題は、私たちがこの事態を真剣に受け止める覚悟があるかどうかだ」と述べ、技術だけでなく社会全体の意思が問われていると強調しました。

DeepInfraがHugging Face推論プロバイダーに参加

統合の概要

サーバーレス推論基盤として統合
100超のモデルを低コストで提供
会話・テキスト生成タスクに対応

対応モデルと利用法

DeepSeek V4やKimi-K2.6等に対応
Python・JS両SDKから利用可能
HF経由ルーティングで追加料金なし

今後の展開

画像動画生成等も順次対応予定
PROユーザーに月2ドル分のクレジット

DeepInfraが、Hugging Face Hubの推論プロバイダーとして新たに統合されました。DeepInfraは業界でも最も低コストなトークン単価を誇るサーバーレスAI推論プラットフォームで、100以上のモデルカタログを持ち、開発者が最小限のセットアップでAI機能をアプリケーションに組み込めます。

今回の初期統合では、会話およびテキスト生成タスクをサポートしています。DeepSeek V4Kimi-K2.6、GLM-5.1など人気のオープンウェイトLLMにアクセスできるようになりました。テキストから画像動画への生成やエンベディングなど、追加タスクへの対応も順次展開される予定です。

利用方法は2つあります。ユーザーが自身のDeepInfra APIキーを設定して直接リクエストを送る方法と、Hugging Face経由でルーティングする方法です。後者の場合、プロバイダーのトークンは不要で、標準的なプロバイダー料金のみが課金されます。Hugging Face側の追加マークアップはありません。

SDKとの統合も進んでおり、Pythonのhuggingface_hubやJavaScriptの@huggingface/inferenceから簡単に利用できます。さらにPi、OpenCode、Hermes Agentsなど主要なエージェントハーネスにも統合済みで、追加のコードなしでDeepInfraホストモデルを活用可能です。PROプランのユーザーには毎月2ドル分の推論クレジットが付与され、複数プロバイダーにまたがって利用できます。

TikTokでTaylor Swiftらの偽動画広告が急増、本人は商標出願で対抗

ディープフェイク詐欺の実態

Taylor Swiftら著名人を模倣
報酬プログラムを装い個人情報を収集
赤絨毯やトーク番組の映像をAI加工
TikTok公式ロゴを無断使用

法的対抗と業界の課題

Swift、声と肖像の商標登録を出願
Metaにも詐欺広告訴訟が提起
FTC報告でSNS詐欺の被害額が急増
プラットフォーム各社の対応が追いつかず

AI検出企業Copyleaksの調査により、TikTok上でTaylor SwiftやRihanna、Kim Kardashianらの著名人を模倣したディープフェイク広告が複数確認されました。これらの広告は赤絨毯やトーク番組の実映像をAIで加工し、架空の報酬プログラム「TikTok Pay」への登録を促す内容で、クリックしたユーザーは第三者サイトに誘導され個人情報の入力を求められます。

広告ではSwiftがジミー・ファロンの番組に出演した際の映像が改変され、「動画を見て意見を送るだけで報酬がもらえる」と語る構成になっています。誘導先のサイトにはTikTokのロゴが表示されていますが、実際にはAIプラットフォームLovableで構築された無関係のページであることが判明しています。

こうした状況を受け、Swift は先週、自身の声と肖像を守るため3件の商標出願を行いました。出願対象にはエラズ・ツアーでの写真のほか、「Hey, it's Taylor Swift」「Hey, it's Taylor」という音声フレーズが含まれます。今月にはオハイオ州の男がディープフェイクを犯罪化する連邦法で初の有罪判決を受けており、法整備も進みつつあります。

ディープフェイク詐欺はTikTokに限った問題ではありません。非営利団体Consumer Federation of Americaは先週、Metaが詐欺広告の取り締まりを怠り利益を得ていると提訴しました。米連邦取引委員会(FTC)も4月28日の報告で、SNS経由の詐欺被害が急増しておりFacebookが金銭被害額で最多だと指摘しています。プラットフォーム各社は対策を強化していますが、日々巧妙化する偽コンテンツへの対応は追いついていないのが現状です。

Google Photos、AIで手持ち服のバーチャル試着機能を発表

デジタルクローゼットの仕組み

写真から衣類を自動認識しカタログ化
カテゴリ別フィルターで一覧表示
アイテムを組み合わせコーデ作成
ムードボードに保存・友人と共有

バーチャル試着と展開計画

作成したコーデを自分の姿で試着プレビュー
今夏Android版から提供開始
iOS版は順次展開予定
既存のクローゼットアプリと競合

Googleは2026年4月29日、Google PhotosにAIを活用したデジタルワードローブ機能を追加すると発表しました。この機能はユーザーのフォトライブラリに写っている衣類をAIが自動で認識し、デジタルクローゼットとして整理します。さらに手持ちの服を組み合わせたコーディネートの作成や、バーチャル試着まで可能になります。

デジタルクローゼットでは、トップス・ボトムス・ジュエリーなどカテゴリ別にフィルタリングでき、忘れていたアイテムの再発見にも役立ちます。気に入ったコーディネートはデジタルムードボードに保存でき、旅行・結婚式・仕事など用途別に整理することも可能です。友人との共有機能も備えています。

注目すべきはバーチャル試着機能です。Googleは2025年にショッピング向けのAI試着機能をすでに提供していましたが、今回は自分が所有する服を対象にした点が新しいといえます。コーディネートを選択し「Try it on」ボタンを押すだけで、着用イメージをプレビューできます。

映画「クルーレス」に登場した仮想クローゼットが現実になったとも報じられており、ファッション業界やスタートアップが長年追い求めてきたコンセプトをGoogleがAI技術で実現した形です。Acloset、Combyne、Wheringなど既存のクローゼットアプリとの競合が予想されます。

提供開始は今夏を予定しており、まずAndroidGoogle Photosから展開し、その後iOS版にも対応します。Google Photosの「コレクション」内に配置される予定です。AIが衣類をどのように認識するかの技術的詳細は明かされていませんが、全身が写った明るい写真ほど精度が高くなると見られています。

Google TVにGemini搭載の画像・動画生成機能が追加

Gemini創作機能

Nano Bananaで写真を音声加工
Veoによる動画生成が可能に
Google Photosの音声検索に対応
写真を水彩画風などにリミックス

ホーム画面の刷新

YouTube Shorts専用行を追加
ダイナミックスライドショー機能
米国のTCL対応機から順次展開
将来的に他プラットフォームも検討

Googleは2026年4月29日、Google TV向けにGeminiを活用した新機能群を発表しました。目玉は画像生成モデルNano Banana動画生成AIVeoのテレビ上での利用で、Geminiタブの「Create」ボタンから音声プロンプトで写真の加工や動画の生成が可能になります。まず米国Gemini対応TCLテレビから提供が開始されます。

Nano Bananaでは「父に変な服を着せて」といった音声指示で写真を変換でき、背景の差し替えや新しいシーンの生成にも対応します。Veoでは静止画にモーションを加えたり、テキスト指示だけでクリップを一から作成できます。Googleはこれらをリビングでの共有体験として位置づけています。

Google Photosにも複数の強化が加わります。Geminiによる音声検索で旅行や誕生日パーティーなどの写真を素早く呼び出せるほか、「リミックス」機能で水彩画や油絵風のスタイルを適用できます。さらにダイナミックスライドショーでは、アルバムをコラージュやアニメーション付きのスクリーンセーバーとして表示できます。

AI機能に加え、ホーム画面にはYouTube Shortsのパーソナライズフィード「Short videos for you」が今夏から米国で追加されます。YouTubeがモバイルでShortsの非表示オプションを導入した直後の動きですが、Googleはテレビでのショート動画需要を見込んでおり、将来的にはShorts以外のプラットフォームへの拡張も示唆しています。

Shapes、人とAI混在のグループチャットで800万ドル調達

サービスの特徴

人間とAIキャラが同一チャットで会話
ユーザー作成のAIキャラが300万体
AIが自発的に会話を開始・維持
月間アクティブユーザー40万人

狙いと成長

1対1AI依存の孤立問題に対処
年初からユーザー6倍に急成長
1日2〜4時間利用するヘビーユーザー多数
Lightspeed主導でシード資金調達

AIチャットアプリを手がけるスタートアップShapesが、シードラウンドで800万ドル(約12億円)の資金調達を実施しました。Lightspeedがリードし、AI Capital Partners、AI Grantなどが参加しています。同社は2022年設立で、人間とAIキャラクターが同じグループチャット内で会話できるアプリを開発しています。

Shapesの最大の特徴は、AIとの対話を1対1の閉じた空間ではなく、人間同士の日常的なグループチャットの中に組み込んでいる点です。AIキャラクターは「Shape」と呼ばれ、他のユーザーと同じようにグループ内で発言できます。透明性のためにAIであることは明示されますが、機能的な制限はありません。ユーザーは自分でShapeを作成し、性格を設定することも可能で、すでに300万体以上のShapeが作られています。

創業者のMittal氏とDhingra氏は、AIチャットボットとの長時間の1対1のやりとりが妄想や偏執を引き起こす「AIサイコシス」問題に対処できると考えています。AIを人間同士の会話の中に溶け込ませることで、孤立ではなくコミュニティとしてのつながりを促進する狙いです。Mittal CEOは「人間の会話が中心で、AIはその中のファシリテーター」と語っています。

成長面では、口コミを中心に年初からユーザー数が6倍に増加しました。月間アクティブユーザーは40万人を超え、数千人のユーザーが毎日2〜4時間をアプリ内で過ごしているといいます。ファンダムを軸としたサブカルチャーコミュニティが特に人気を集めており、調達資金は開発の加速とユーザー獲得に充てる方針です。