AIコーディング3製品にAPI鍵窃取の脆弱性発覚

攻撃手法と影響範囲

PR題名への命令注入で秘密鍵を窃取
Claude CodeGemini CLI・Copilotが対象
CVSS 9.4のCritical評価

ベンダー対応と構造的課題

3社とも修正済みだがCVE未発行
システムカードの開示水準に大差
エージェント実行時の権限管理が盲点
CI/CD環境の秘密鍵管理見直しが急務

ジョンズ・ホプキンス大学の研究者らが、AIコーディングエージェント3製品にプロンプトインジェクションによる秘密鍵窃取の脆弱性を発見し、「Comment and Control」として公開しました。GitHubのプルリクエスト題名に悪意ある命令を埋め込むだけで、AnthropicClaude Code Security Review、GoogleGemini CLI Action、GitHubCopilot Agentがそれぞれ自身のAPIキーをPRコメントとして投稿してしまう問題です。

攻撃の核心は、AIエージェントがPR題名やコメントなどの未信頼入力を命令として解釈する点にあります。エージェントコードレビュー用途にもかかわらずbash実行やAPI書き込み権限を持っており、環境変数から読み取った秘密鍵をGitHub API経由で外部に送信できました。外部の攻撃インフラは一切不要で、GitHubのプラットフォーム自体がデータ流出経路となりました。

AnthropicCVSS 9.4 Criticalと分類し100ドルの報奨金を支払い、Googleは1,337ドル、GitHubは500ドルを支払いました。3社とも修正パッチを適用しましたが、いずれもCVEを発行しておらず、セキュリティアドバイザリも公開していません。脆弱性スキャナやSIEMには何も検出されない状態が続いています。

記事は各社のシステムカードの開示水準を比較しています。Anthropicは232ページにわたり注入耐性の定量データを公開する一方、OpenAIはモデル層の評価のみでエージェント実行時の耐性データを未公開Googleは数ページの概要にとどまります。モデルの安全性フィルタはテキスト生成を制御しますが、bash実行やAPIコールといったエージェント操作は評価対象外です。

セキュリティ専門家は、CI/CD環境でのAIエージェント権限の最小化、短命OIDCトークンへの移行、サプライチェーンリスク台帳への「AIエージェント実行時」カテゴリ追加を推奨しています。特定ベンダーではなくエージェント設計全体に共通するリスクであり、EU AI法の高リスク準拠期限である2026年8月までに、各社の注入耐性データの開示を求めるべきだと指摘しています。

AmazonがAnthropicに50億ドル追加出資

出資と計算資源の規模

累計130億ドル投資額に到達
最大200億ドルの追加出資も合意
最大5GW相当のAIチップ確保へ
2026年末までに約1GW供給予定

背景にあるClaude需要急増

有料会員数が急増しインフラ逼迫
ピーク時の性能低下や障害が頻発
3カ月以内に計算資源の改善着手

Amazonは2026年4月、AIスタートアップAnthropicに50億ドルの追加出資を行いました。これによりAmazonの累計投資額は130億ドルに達し、さらに商業上のマイルストーン達成を条件に最大200億ドルの追加コミットメントも合意されています。Wall Street Journalが報じました。

この出資を通じ、AnthropicAmazon製AIチップを最大5ギガワット分確保する見通しです。Claudeモデルの訓練と推論に必要な計算資源を大幅に拡充する狙いがあります。Anthropicによると、2026年末までに約1ギガワットの供給が実現し、3カ月以内にも計算能力の改善が始まるとのことです。

大規模投資の背景には、Claude有料会員の急増とそれに伴うインフラへの負荷があります。2026年初頭からClaude関連サービスの有料利用者が急増し、既存のクラウド基盤では処理しきれない状況が生じていました。

Anthropicは公式発表で、無料・Pro・Max・Teamユーザーすべてにおいてピーク時の信頼性やパフォーマンスに影響が出ていたことを認めています。今回のAmazonとの提携強化により、急成長するユーザー基盤を支えるインフラの安定化を目指します。

Vercel侵害、AI拡張機能のOAuth経由で発生

侵害の経緯と影響

社員のAIツール導入が起点
OAuth権限で本番環境に侵入
情報窃取マルウェアが認証情報奪取
滞留期間は約1カ月に及ぶ

企業が学ぶべき教訓

AI製品のOAuth権限を棚卸し必須
環境変数の機密設定を既定化
サプライチェーン攻撃の検知体制構築
ベンダー通知条項の契約明記

Next.jsの開発元であるクラウドプラットフォームVercelが、2026年4月20日に内部システムへの不正アクセスを公表しました。原因は、同社社員がAIツール「Context.ai」のブラウザ拡張機能をインストールし、企業用Google Workspaceアカウントで広範なOAuth権限を付与していたことです。Context.ai側の侵害を通じて、攻撃者はVercelの本番環境にアクセスしました。

侵害の起点は、Context.aiの従業員のマシンが2026年2月に情報窃取マルウェア「Lumma Stealer」に感染したことでした。セキュリティ企業Hudson Rockの調査によると、この従業員はRobloxのチートスクリプトをダウンロードしており、Google Workspace認証情報やSupabase鍵などが窃取されました。攻撃者はこれらの認証情報でContext.aiのAWS環境に侵入し、OAuthトークンを経由してVercel社員のWorkspaceへと横展開しました。

Vercelでは環境変数に「機密」と非機密の区分があり、非機密の変数はダッシュボードやAPIから平文でアクセス可能でした。攻撃者はこの非機密変数を権限昇格の経路として利用し、顧客の認証情報にアクセスしました。Vercelはこの事態を受け、新規環境変数の既定値を「機密」に変更しています。

今回の侵害は、AI製品のOAuth連携が新たな攻撃面を生み出していることを示す事例です。CrowdStrikeの2026年版脅威レポートによると、eCrime攻撃者の平均ブレイクアウト時間は29分で、2024年比65%の高速化が見られます。セキュリティ責任者には、AI関連のOAuth権限の棚卸し、情報窃取マルウェア情報の活用、ベンダー契約への72時間通知条項の追加が求められています。

Google、調査AI Deep Research Maxを公開

2段階構成と主要機能

速度重視と品質重視の2種類を提供
Gemini 3.1 Pro基盤で推論性能が大幅向上
MCP対応で社内データとWeb検索を統合
レポート内にチャートを自動生成

企業向け展開と競合状況

FactSet・S&P;・PitchBookと連携推進
金融・創薬・市場調査での活用を想定
DeepSearchQAで93.3%を達成
OpenAIPerplexityと競争激化

Googleは2026年4月21日、自律型調査エージェントDeep ResearchDeep Research Maxの2種類を、Gemini APIの有料枠でパブリックプレビューとして公開しました。エージェントGemini 3.1 Proを基盤とし、単一のAPI呼び出しでウェブと企業内データを横断した調査レポートを自動生成します。速度重視のDeep Researchと、拡張推論で網羅性を高めたMaxという二段構成です。

最大の特徴はModel Context Protocol(MCP)への対応です。これにより、開発者社内データベースや金融データ端末などの独自データソースDeep Researchに接続し、公開情報と非公開情報を組み合わせた分析が可能になります。Googleはすでに金融データ大手のFactSet、S&P; Global、PitchBookとMCPサーバー設計で協業しています。

もう一つの注目点は、レポート内へのチャートやインフォグラフィックのネイティブ生成機能です。従来はテキストのみの出力でしたが、HTMLやNano Banana形式で高品質な図表を直接埋め込めるようになりました。さらに、調査計画の事前レビュー機能やリアルタイムストリーミングも追加されています。

性能面では、Deep Research MaxがDeepSearchQAベンチマークで93.3%(2025年12月時点の66.1%から大幅向上)、Humanity's Last Examで54.6%を達成しました。GoogleはこのエージェントGeminiアプリ、NotebookLMGoogle検索Google Financeと同一基盤で動作する開発者向けプラットフォームとして位置づけています。

一方で、新エージェントはAPI経由でのみ利用可能で、Geminiアプリの一般消費者には未提供という点に批判も出ています。Google Cloudでのエンタープライズ向け提供は近日中に開始予定です。

企業の72%がAIガバナンスに重大な欠陥

ガバナンスの蜃気楼

72%が複数AIを「主力」と称する矛盾
3割が不正検知の仕組みなし
責任所在の不明確さが最大障壁

ベンダー依存の構造問題

リスク元のベンダーに安全策を委ねる皮肉
管理型エージェントがロックインを深化
統一制御プレーンの不在が根本課題

処方箋と現実解

AI版Dynatraceの必要性を現場が提唱
独立した制御プレーンの自社構築が急務

VentureBeatが2026年第1四半期に実施した企業調査によると、72%の組織が2つ以上のAIプラットフォームを「主力」と位置づけていることが判明しました。この複数プラットフォームの併存は、セキュリティの攻撃面を拡大し、ガバナンスの空白を生んでいます。調査対象は従業員100名以上の企業40〜70社で、統計的有意性には限界があるものの、業界の方向性を示す結果となっています。

56%の回答者がAIモデルの異常を検知できると「非常に自信がある」と答えた一方、約3分の1は監査やユーザー報告まで問題を検知する体系的仕組みを持っていませんでした。ガバナンスの最大障壁は「ベンダーの不透明性」で、次いで「責任ある担当チームの不在」が29%で続きます。この2つの要因は相互に作用し、問題を深刻化させています。

マサチューセッツ最大の雇用主であるMass General Brigham病院は、この矛盾を象徴する事例です。同病院はMicrosoft Copilotの安全性の不足を補うため、PHI(個人健康情報)漏洩を防ぐ独自のラッパーを構築せざるを得ませんでした。さらにEpic、Workday、ServiceNowの各社が独自のAIエージェントを提供するため、それらを統合する制御プレーンへの投資も必要になっています。

調査で最も注目すべき発見は「セキュリティの皮肉」です。企業のAIリスクを生み出しているベンダーが、そのリスク管理にも使われています。回答者の26%がOpenAIを主要なセキュリティソリューションとして利用していました。AnthropicGoogleも含め、ハイパースケーラーのセキュリティ機能は既存プラットフォームとの統合の手軽さで選ばれていますが、単一ベンダーへの依存リスクを高めています。

Mass General BrighamのCTOは、業界に「AI版Dynatrace」と呼べる統合監視基盤の必要性を訴えています。モデルドリフトの検知、エージェント行動分析、権限昇格アラート、フォレンジックログを一元管理し、緊急停止ボタンを備えた制御プレーンが不可欠だと主張しています。OWASPもエージェント型アプリケーションのセキュリティフレームワークとしてキルスイッチを推奨しています。

調査結果は、企業がベンダーに制御プレーンの主導権を渡すことに抵抗している現状を示しています。最も多い構成は「ハイブリッド制御プレーン」で、34.3%の企業がベンダー提供ツールと外部ツールを併用しています。最良のモデルを持つ企業ではなく、モデル横断で統一的な管理を実現できる企業が、AI競争の勝者になる可能性が示唆されています。

MozillaがMythosでFirefoxの脆弱性271件を発見

Mythosの脆弱性発見力

Firefox 150で271件検出
従来モデルOpus 4.6は22件のみ
ソースコード解析でゼロデイ特定

ソフトウェア業界への波及

全ソフトウェアに脆弱性洗い出しが必要
オープンソース保守者の負担増大
大企業は数千人規模で対応開始

業界の評価と対立

Altman氏が「恐怖マーケティング」と批判
Anthropicは限定公開で慎重姿勢

Mozillaは2026年4月21日、Anthropicのサイバーセキュリティ特化AIモデル「Mythos Preview」を活用し、今週リリースのFirefox 150に潜む271件のゼロデイ脆弱性を事前に発見・修正したと発表しました。FirefoxのCTOであるBobby Holley氏は「防御側がついに決定的に勝てる可能性が出てきた」と述べています。

この成果は従来のAIモデルと比較して際立っています。先月、AnthropicOpus 4.6がFirefox 148を解析した際に見つけたセキュリティ関連バグはわずか22件でした。Mythosはソースコードを直接解析することで、従来は「エリートセキュリティ研究者」が数カ月かけて見つけていたような脆弱性を自動的に検出できます。Holley氏は、すべてのソフトウェアがこの「移行期」を経なければならないと指摘しています。

一方で、オープンソースプロジェクトへの影響が懸念されています。大企業は数千人のエンジニアを投入して対応できますが、ボランティアが維持する小規模プロジェクトにはリソースが不足しています。MozillaのCTO Raffi Krikorian氏は「最も価値あるソフトウェアインフラは無償で働く人々が維持しているが、その上で利益を得る企業は保守費用を負担してこなかった」と経済構造の問題を指摘しました。

こうした動きに対し、OpenAISam Altman CEOはAnthropicの手法を「恐怖に基づくマーケティング」と批判しました。「爆弾を作った、頭の上に落とす、1億ドルでシェルターを売る」と揶揄し、AIを少数のエリートだけに留めようとする動きだと主張しています。ただし、AI業界全体が誇大な脅威論を利用してきた側面もあり、Altman氏自身も過去にAIのリスクを強調してきた経緯があります。

Kimi K2.6が数日間稼働するAIエージェントを実現

長時間エージェントの実力

最長5日間の自律稼働を実証
300サブエージェント・4000ステップ同時実行
SySYコンパイラを10時間で構築
8年物のOSSコードを13時間で刷新

オーケストレーションの課題

既存フレームワークは短時間前提の設計
状態管理とロールバックが未整備
ガバナンスが導入速度に追いつかず
エージェント専用インフラの概念が未成熟

中国のAIスタートアップMoonshot AIは2026年4月、新モデルKimi K2.6を発表しました。同モデルは長時間にわたり自律的に稼働するAIエージェントを想定して設計されており、社内テストでは最長5日間の連続実行に成功しています。モデルはHugging Face、API、Kimi Codeなどを通じて公開されました。

Kimi K2.6の特徴は、独自の「Agent Swarms」アーキテクチャにあります。最大300のサブエージェントが4000ステップを同時に処理でき、事前定義された役割ではなくモデル自身がオーケストレーションを判断します。AnthropicClaude CodeOpenAICodexも長時間エージェントを模索していますが、K2.6はより動的な制御を目指しています。

実証実験では、SySYコンパイラを10時間で一から構築し、140件の機能テストをすべて通過しました。Moonshot AIはこれを「エンジニア4人が2カ月かかる作業に相当する」と説明しています。また、8年間運用されたオープンソースの金融マッチングエンジンの改修では、13時間で12の最適化戦略を試行し、1000回以上のツール呼び出しで4000行超のコードを修正しました。

一方、長時間稼働するエージェントは既存のオーケストレーション基盤の限界を露呈させています。大半のフレームワークは数秒から数分の実行を前提に設計されており、環境変化に応じた状態管理や障害時のロールバックが十分に整備されていません。専門家は「エージェントランタイム」「エージェントゲートウェイ」「エージェントメッシュ」といった新たなインフラ概念の必要性を指摘しています。

セキュリティ企業ArmorCodeのMark Lambert氏は、AIエージェントがコードやシステム変更を生成する速度が組織のレビュー能力を超えつつあると警告しています。F5のKunal Anand氏も、エージェントが「永続的インフラ」として機能する時代に入ったと述べ、APIゲートウェイのパターン自体が目標やワークフローを理解する形へ進化する必要があると指摘しました。

Apple新CEO テルナス氏、AI戦略立て直しが最大の課題に

テルナス氏が継ぐ経営課題

9月1日付でCEO交代
ハードウェア畑出身の25年選手
独禁法訴訟中国リスクも継承

AI分野での出遅れ

Siri刷新が繰り返し延期
GoogleOpenAI外部モデルに依存
AI責任者の相次ぐ退任

サービス事業と次の一手

サービス売上が年間1090億ドル
Apple Silicon移行の実行力に期待

Appleは2026年4月20日、ティム・クック氏が9月1日付でCEOを退任し、エグゼクティブ・チェアマンに就任すると発表しました。後任には、ハードウェアエンジニアリング担当上級副社長のジョン・テルナス氏が就きます。テルナス氏は入社25年のベテランで、iPad全モデルやiPhone、AirPodsなどの開発を統括してきた人物です。

テルナス氏が直面する最大の課題はAI戦略の立て直しです。Appleは2024年に「Apple Intelligence」を発表しましたが、AI強化版Siriの提供は繰り返し延期されています。AI責任者のジョン・ジャナンドレア氏は退任し、ソフトウェア責任者のクレイグ・フェデリギ氏がSiri開発を引き継いだとされます。現状ではGoogleGeminiOpenAIChatGPTなど外部モデルへの依存が続いており、自社のAI能力をどう高めるかが問われています。

一方、クック時代に大きく成長したサービス事業もテルナス氏の重要な資産です。2025年度のサービス売上は1090億ドルを超え、Mac・iPad・Apple Watchなどの合計を上回る規模に達しました。この収益基盤の上にAIをどう組み込むかが、次の成長の鍵となります。

テルナス氏にとって追い風となるのは、IntelからApple SiliconへのMac移行を成功させた実績です。著名アナリストのミンチー・クオ氏は、この移行を「脳の移植手術」と表現し、高い実行力と部門横断的な調整力を評価しています。ただし、独禁法訴訟やインドでの380億ドル規模の制裁金リスク中国市場への依存など、クック氏から引き継ぐ経営リスクも山積しています。AIエージェントApp Storeの収益モデル自体を脅かす可能性も指摘されており、テルナス氏の舵取りに注目が集まっています。

OpenAIがChatGPT Images 2.0を公開、推論と多言語テキスト生成を統合

推論統合による画像生成

Oシリーズ推論機能を統合
Web検索で最新情報を反映
1プロンプト最大8枚同時生成
キャラクターの一貫性を維持

テキスト描画と多言語対応

英語テキストの高精度レンダリング
日中韓含む非ラテン文字に対応
インフォグラフィックや漫画を生成
2K解像度と柔軟なアスペクト比

提供体系と競争環境

全ユーザーに基本機能を無料開放
有料プランでThinking機能を提供
GoogleMicrosoftとの競争が激化

OpenAIは2026年4月21日、ChatGPT Images 2.0を全世界のChatGPTおよびCodexユーザー向けに公開しました。今回のアップデートでは、同社のOシリーズ推論機能が画像生成に統合され、プロンプトに対してモデルがWeb検索やレイアウト設計を行ったうえで画像を生成する「エージェント型」のアプローチが導入されています。知識のカットオフは2025年12月に更新されました。

最大の技術的進歩は、テキスト描画の精度向上です。かつてAI画像生成の弱点とされていた文字の崩れが大幅に改善され、メニューや雑誌の表紙、科学図表など密度の高い構成でも正確な文字を生成できるようになりました。さらに日本語、韓国語、中国語、ヒンディー語、ベンガル語など非ラテン文字の描画にも対応しています。ただし非英語言語では一部不正確な出力も報告されており、今後の改善が期待されます。

機能面では、1つのプロンプトから最大8枚の画像を同時に生成でき、キャラクターやオブジェクトの一貫性を保持したまま漫画のシーケンスやソーシャルメディア用グラフィックの作成が可能です。解像度は最大2Kに対応し、アスペクト比は横長の3:1から縦長の1:3まで柔軟に設定できます。アーキテクチャは「ゼロから刷新」されたとのことですが、拡散モデルか自己回帰モデルかは非公開です。

提供体系は3層構造で、無料ユーザーには基本モデルを開放し、PlusおよびProユーザーにはWeb検索や複数画像生成を含むThinking機能を提供します。API向けにはgpt-image-2モデルが公開され、4K解像度のベータ版も用意されています。前モデルのGPT-Image-1.5はデフォルトから外れましたが、APIでのレガシーサポートは継続します。

競合環境では、GoogleNano Banana 2MicrosoftのMAI-Image-2がすでに市場に投入されており、画像生成AIの性能競争は一段と激しさを増しています。OpenAIは安全対策として、AI生成画像への透かし付与や選挙干渉防止のポリシーを堅持する姿勢を示しました。企業ユーザーにとっては、単なる画像生成ツールから「視覚的な情報整理システム」への転換点となる可能性があります。

OpenAI、Codex Labs設立で企業導入を加速

急拡大する利用実績

週間利用者が4百万人突破
Virgin AtlanticやCiscoなど大手が採用
コーディング以外の業務にも用途拡大

企業展開の新体制

Codex Labs設立で導入支援を本格化
Accentureら大手SIer7社と提携
パイロットから本番運用への移行を支援

OpenAIは2026年4月21日、コーディングエージェントCodex」の企業導入を加速するため、新プログラム「Codex Labs」を立ち上げたと発表しました。あわせて大手グローバルシステムインテグレーター(GSI)7社との提携も公表し、世界中の企業へのCodex展開を本格化します。

Codexの週間利用者数は4月初旬の300万人から、わずか2週間で400万人超に急増しています。個人開発者だけでなく、Virgin Atlanticはテストカバレッジ向上と技術的負債の削減に、Rampはコードレビューの高速化に、Ciscoは大規模リポジトリの横断的な分析にCodexを活用しています。さらにNotionは新機能開発、Rakutenはインシデント対応にも導入しています。

Codex Labsは、OpenAI専門家が企業に直接入り込み、ハンズオンワークショップや実務セッションを通じてCodexの導入を支援するプログラムです。どの業務にCodexが適合するかの特定から、既存ワークフローへの統合、反復的な運用体制の構築までをカバーします。

提携先のGSIにはAccenture、Capgemini、CGI、Cognizant、Infosys、PwC、TCSの7社が名を連ねています。各社はCodexの高価値なユースケースの特定とデプロイを支援し、パイロットから本番環境への移行を後押しします。GSI各社自身もCodexを社内で活用し、顧客への展開ノウハウを蓄積しています。

Codexの用途はコーディングにとどまらず、ブラウザ操作やドキュメント作成、複数ツール横断の情報整理といったナレッジワーク領域にも広がっています。OpenAIエンジニアリング部門だけでなく、あらゆる部門の生産性向上を見据えた企業全体での活用を推進する方針です。

Meta、従業員の操作記録でAIエージェント訓練へ

データ収集の仕組み

マウス・キーボード操作を記録
業務アプリとWebサイトが対象
定期スクリーンショットも活用
人事評価には使用しないと説明

法的リスクと背景

米国従業員が対象、欧州は法規制で除外
EU圏ではAI訓練のオプトアウト問題も
AIエージェントのUI操作精度向上が目的

Meta米国従業員のマウス操作、クリック、キーストロークを記録し、AIエージェント訓練用の高品質データを生成する計画を発表しました。Reutersが内部メモを入手して報じたもので、Meta Superintelligence Labsチームが主導する「Model Capability Initiative」と呼ばれるプログラムの一環です。業務用アプリやWebサイト上での操作が対象となり、定期的なスクリーンショットも文脈情報として活用されます。

Meta広報のAndy Stone氏はReutersに対し、収集データはマウス移動やボタンクリック、ドロップダウンメニューの操作など、AIエージェントが苦手とするタスクの改善に使うと説明しました。「人々が日常的にコンピュータを使う実例が必要だ」と述べ、データが従業員の人事評価に用いられることはないと強調しています。

一方、欧州の従業員は対象外です。EU各国の従業員監視に関する法規制に抵触する可能性が高いためです。Metaはすでに欧州でSNSユーザーのコンテンツをAI訓練に使う際のオプトアウト方式をめぐり法的問題に直面しており、従業員データの収集はさらに厳しい制約を受けるとみられます。

今回の施策は、AIエージェントがGUI操作を正確にこなすための実データ確保を狙ったものです。大規模言語モデルのテキスト処理能力が向上する一方、実際の画面操作はまだ課題が多く、人間の操作パターンを直接学習させるアプローチとして注目されます。

Hugging Faceがオープン性こそAIサイバー防御の鍵と主張

Mythos後のAI防御戦略

オープンなツールが防御側の能力格差を縮小
AI脆弱性発見はモデル単体でなくシステム全体に依存
閉鎖的コードは単一障害点になるリスク

半自律エージェントの活用

人間が制御を保つ半自律型が最適解
オープンな構成要素で監査可能性を確保
組織内インフラでの自社運用を推奨

リスク組織への提言

オープンな脅威モデル共有が防御力を底上げ
孤立した独自防御は攻撃者に対抗不能

Hugging Faceは2026年4月21日、AIサイバーセキュリティにおけるオープン性の重要性を訴えるブログ記事を公開しました。AnthropicMythosがFirefoxの脆弱性を大量に発見した事例を受け、AI防御の在り方を論じています。同社はMargaret Mitchell氏、Yacine Jernite氏、CEO Clem氏の連名で、オープンなエコシステムが防御側に構造的優位をもたらすと主張しています。

記事の核心は、Mythosの成果がモデル単体ではなく大規模計算資源・専用スキャフォールディング・自律的動作を組み合わせたシステム全体によるものだという分析です。同様のシステムは小規模モデルでも構築可能であり、深いセキュリティ専門知識と十分な計算資源があれば、より安価に同等の成果を出せる可能性があるとしています。

オープンソースの利点として、脆弱性の検出・検証・調整・パッチ配布の4段階をコミュニティ全体に分散できる点を挙げています。一方、閉鎖的なコードベースは単一組織だけが修正可能な単一障害点となり、AIコーディングツールの不適切な導入がかえって脆弱性を増やすリスクもあると警告しています。

防御策として推奨されているのは半自律型AIエージェントです。完全自律ではなく、実行可能なアクションを事前に指定し、重要な判断には人間の承認を求める方式が、効果とリスクのバランスに優れるとしています。オープンなエージェント基盤・ルールエンジン・監査可能なログにより、人間がループ内で実質的に機能できる透明性が確保されます。

リスク組織に対しては、オープンで監査可能な基盤から始めることを提言しています。自社のセキュリティチームが監視の仕組みを直接検証でき、自社データでの微調整や自社インフラ内での運用が可能になるためです。今後のAIサイバーセキュリティはモデル単体ではなく周辺エコシステムによって決まるとし、オープンなセキュリティレビュー・脅威モデル公開・脆弱性データベース共有が防御の要になると結論づけています。

AI反発が米中間選挙の争点に浮上

世論と政治の動き

国民の6割超がAI規制を支持
データセンター反対で640億ドルの開発停滞
AI問題に党派を超えた関心の高まり
候補者支援に巨額PAC資金が流入

雇用喪失と今後の展開

AI起因の米国内失業11万人超を記録
Oracle単独で3万人削減の衝撃
夏以降に雇用問題が争点化する予測
業界ロビー団体間の資金競争が激化

米国AI技術への反発が中間選挙の争点として急速に浮上しています。Ipsos調査によると、共和・民主両党の6割以上がAI規制と開発減速に賛成しており、データセンター建設への反対運動は全米で640億ドル相当の開発を阻止・遅延させています。サム・アルトマン氏の自宅への攻撃事件も発生し、市民の不満が表面化しています。

政治資金の面では、OpenAI幹部らが支援するLeading the Futureが1億4000万ドルを調達する一方、Anthropicが2000万ドルを拠出したPublic First Actionは5000万ドルの資金を確保し、AI規制推進派の候補者を支援しています。両陣営のPACがすでに各地の選挙戦に資金を投入しており、ニューヨーク州のAI安全法案を共同提出した議員の選挙戦にも波及しています。

雇用面では、AI起因の米国内失業が11万人を超えOracleだけで3万人が削減されました。Alliance for Secure AIの代表は、法務や事務職への影響が広がるこの夏以降、AI雇用問題が全国的な選挙争点になると予測しています。Z世代にとっても雇用への影響は重要な関心事です。

ただし現時点では経済や移民が有権者の最大関心事であり、AIが自発的に想起される争点にはなっていません。専門家は、AI問題が急速に注目度を上げている一方、候補者間のAI政策の差別化が不十分なため、投票行動に直結するにはまだ時間がかかるとの見方を示しています。

Von、複数AIモデル自動選択で営業分析を革新

技術と仕組み

企業データからコンテキストグラフ構築
Claude・GPT・Gemini用途別に自動選択
CRMと通話記録の矛盾を自動検出

事業展開と評価

8週間で売上50万ドル突破
Sequoia等の大手VCが出資
週1万件超の営業タスク処理
人員追加に代わる存在と評価

Salesforce連携ツールRattleの開発元が、営業組織向けAIプラットフォームVonを発表しました。Vonは企業のCRM、通話録音、メール、社内文書を取り込んで独自の「コンテキストグラフ」を構築し、営業データを横断的に分析します。CEOのSahil Aggarwal氏は「AIは開発者ワークフローを変革したが、営業担当者には同等の変革がなかった」と開発動機を語っています。

技術面の特徴は複数AIモデルの自動使い分けです。高度な推論にはAnthropicClaude、大量データ処理にはChatGPT、レポートやプレゼン生成にはGoogleGeminiを配置します。これにより、性能とコストの最適化を図っています。通話記録とCRMの記載を照合し、失注理由の食い違いや案件リスクを自動で検出する機能も備えています。

デモでは101件のSMBアカウントの解約リスク分析を約3分で完了しました。人間のアナリストなら1〜2週間かかる作業です。プリコールの文脈資料作成、勝敗分析、Salesforce管理業務の自動化など、RevOps全般をカバーします。

事業面では、ローンチから8週間で売上50万ドルを超え、初年度1,000万ドルの見通しを示しています。Sequoia Capital、Lightspeed、Insight Partners、GV(Google Ventures)が出資しています。料金体系はCRO向け月額1,000ドルから個人営業向け月額20ドルまでのハイブリッド課金モデルを採用しています。

初期ユーザーからは「フルタイムのアナリスト1人分の仕事をこなす」「汎用AIと違い実用的」との声が上がっています。Aggarwal氏は「ポイントソリューションの時代は終わった」と述べ、Vonを「次のSalesforce」と位置づけています。案件結果の予測精度95%を維持できれば、営業担当者の役割は関係構築へとシフトすると同社は見込んでいます。

Clarifai、OkCupid提供の顔写真300万枚を削除

FTC調査と和解の経緯

2014年にOkCupidが写真提供
2019年NYT報道で調査開始
2026年3月にFTCと和解成立

削除と今後の規制

Clarifaiが写真と学習モデルを削除
Match Groupにデータ共有の永久禁止命令
初回違反のため罰金は科されず

AI企業Clarifaiは、出会い系アプリOkCupidから提供を受けた約300万枚のユーザー写真と、そのデータで訓練した顔認識AIモデルをすべて削除したことが明らかになりました。Reutersの報道によるもので、米連邦取引委員会(FTC)の調査を受けた対応です。

事の発端は2014年に遡ります。Clarifaiの創業者兼CEOであるMatthew Zeiler氏が、OkCupid共同創業者のMaxwell Krohn氏にデータ提供を依頼しました。OkCupidは写真に加え、ユーザーの人口統計データや位置情報も提供しましたが、これは同社自身のプライバシーポリシーに違反する行為でした。

この問題が表面化したのは2019年のことです。New York Timesの記事でClarifaiがOkCupidの画像を使い、顔から年齢・性別・人種を推定するAIツールを構築していたことが報じられ、FTCが調査を開始しました。FTCは、Match GroupとOkCupidが2014年以降この行為を意図的に隠蔽し、調査妨害を試みたと主張しています。

2026年3月、FTCとOkCupidの親会社Match Groupは和解に至りました。Match Group側は不正行為を認めていませんが、Clarifaiがデータ削除を確認したことで写真提供の事実が裏付けられた形です。和解条件として、OkCupidとMatch Groupはデータ収集・共有に関する虚偽説明を永久に禁止されました。ただし初回違反のため、FTCは罰金を科すことができませんでした。

NeoCognition、自己学習型AIエージェントで4000万ドル調達

資金調達の全容

シード4000万ドルを調達
Cambium CapitalとWalden Catalyst共同リード
Intel CEO・Databricks共同創業者も出資
Vista Equity経由で企業顧客網を確保

自律特化する技術思想

現行エージェント成功率は約50%
人間の専門化プロセスを模倣した設計
汎用基盤から任意領域に自律特化
企業・SaaS向けに製品化を計画

オハイオ州立大学教授のYu Su氏が創業したAIスタートアップNeoCognitionが、ステルスモードから姿を現し、シードラウンドで4000万ドル(約60億円)資金調達を発表しました。Cambium CapitalとWalden Catalyst Venturesが共同でリードし、Vista Equity Partners、Intel CEOのLip-Bu Tan氏、Databricks共同創業者のIon Stoica氏らがエンジェル投資家として参加しています。

Su氏によれば、Claude CodePerplexityなど現行のAIエージェントはタスク成功率が約50%にとどまり、独立した作業者として信頼するには不十分です。同氏はAIエージェント研究を率いてきた研究者で、基盤モデルの進歩によりエージェントの真のパーソナライズが可能になると判断し、起業に踏み切りました。

NeoCognitionのアプローチは、人間が新しい環境や職業に適応する過程に着想を得ています。人間の知性は幅広いものの、真の強みは急速に専門化できる能力にあるとSu氏は主張します。エージェントも任意の「マイクロワールド」について自律的に学習し、独自のワールドモデルを構築することで専門家になるべきだという考え方です。

既存のアプローチでは自律タスク向けエージェントを特定の業種ごとにカスタム設計する必要がありました。NeoCognition汎用的でありながら自己学習で任意ドメインに特化できる点で差別化を図っています。主なターゲットは企業顧客やSaaS企業で、エージェントワーカーの構築や既存製品へのAI統合に活用される想定です。

Vista Equity Partnersからの出資は、ソフトウェア分野最大級のプライベートエクイティとして膨大なポートフォリオ企業への直接アクセスを提供し、販路拡大の足がかりとなります。現在の従業員数は約15名で、その大半が博士号保持者という研究志向の組織です。

NVIDIA、韓国人口統計に基づく合成ペルソナ600万件を公開

データセットの特徴

韓国統計庁等の公的データに基づく生成
600万件の合成ペルソナ、個人情報なし
26フィールド、全17道府県をカバー
CC BY 4.0ライセンスで公開

AIエージェントへの応用

ペルソナでエージェント韓国文化を付与
敬語体系や地域職業分布を反映
医療や金融など多領域に適用可能

NVIDIAは2026年4月21日、韓国の人口統計データに基づく合成ペルソナデータセット「Nemotron-Personas-Korea」をHugging Faceで公開しました韓国統計情報サービス(KOSIS)や大法院、国民健康保険公団などの公的統計をもとに、600万件の合成ペルソナを生成しています。NAVER Cloudがシードデータとドメイン知識で協力しました。

各ペルソナは26のフィールドを持ち、名前、地域、職業、スキルなどの属性が含まれます。韓国全17道府県・25地区をカバーし、2,000以上の職業カテゴリを網羅しています。韓国個人情報保護法(PIPA)を考慮した設計で、個人を特定できる情報は一切含まれていません

このデータセットの主な用途は、AIエージェント韓国の文化的コンテキストを付与することです。現在のAIエージェントの多くは英語ウェブデータで訓練されており、韓国語の敬語体系や地域ごとの職業分布、文化的文脈を反映できていません。ペルソナをシステムプロンプトに組み込むことで、韓国専門家として適切に応答するエージェントを構築できます。

チュートリアルでは、公衆衛生相談エージェントの構築例が示されています。ペルソナから抽出した属性をシステムプロンプトに反映し、NVIDIA APIやNIM、NemoClawなど複数の推論基盤で展開できます。金融、教育、行政など他分野への応用も容易です。

Nemotron-Personasコレクションは韓国のほか、米国日本インド、シンガポール、ブラジル、フランスもカバーしています。NVIDIAは同日からソウルで「Nemotron Developer Days」を開催し、このデータセットを使ったハッカソンも実施しています。

Starbucks ChatGPT注文、実用性に疑問符

注文体験の実態

通常アプリより操作手順が増加
カスタマイズに都度手動選択が必要
無料枠の制限で注文途中に機能低下
位置情報エラーで店舗選択不能

AI注文の構造的課題

会話型UIが定型注文に不向き
想定ユーザー像と実需のずれ
トランザクション処理に対話は非効率

Starbucksが先週公開したChatGPTとの注文連携機能について、The VergeのDavid Pierce記者が実際に試用し、既存アプリより大幅に手間がかかる体験だったと報じました。ChatGPTで「@Starbucks」とメンションして注文を入力する仕組みですが、メニュー選択やカスタマイズに複数のスクロールとタップが必要で、通常アプリの4タップと比べて明らかに非効率でした。

試用中には無料版ChatGPTのメッセージ上限に到達し、5時間のリセット待ちを求められる場面もありました。さらに位置情報の取得に失敗して最寄り店舗が表示されず、地図表示でもエラーが発生しています。ダウングレードされたモデルではStarbucks連携機能自体が利用できなくなり、注文を完了できませんでした。

Starbucks側は「服の雰囲気に合うドリンクを提案」といった創造的な使い方を想定していますが、記者はこうしたユースケースが実際の消費者行動と乖離していると指摘しています。コーヒー注文は会話ではなくトランザクションであり、対話型AIを挟むことで不要な複雑さが生まれているとの見解です。

記事はGoogle AssistantやAlexaの時代から続くAI注文の課題にも触れ、真に有用なAIエージェントはユーザーの好みを記憶して自動処理するものだと述べています。チャット形式のインターフェースは定型的な購買行動には適さず、現時点ではAI統合が顧客体験を改善するどころか悪化させている状況です。

YelpがAIチャットボットを大幅刷新し予約や注文を統合

機能強化の全体像

アプリ中核にAIアシスタント配置
全カテゴリへの対応拡大
会話型で検索から行動まで完結

外部連携と今後

DoorDash等でデリバリー注文可能
Vagaro・Zocdoc経由で予約対応
Calendly連携やウェイトリスト対応も予定

米口コミプラットフォームYelpは2026年4月21日、AIチャットボットYelp Assistant」の大幅なアップグレードを発表しました。質問応答やレコメンデーションに加え、予約・注文までを一つの会話内で完結できる「デジタルコンシェルジュ」へと進化させる狙いです。アプリ内に新設される「Assistant」タブから全カテゴリにアクセスできるようになります。

今回の刷新で注目されるのは外部サービスとの統合です。DoorDashやGrubhubを通じたデリバリー注文、VagaroやZocdocを介した美容・医療の予約、さらに自動車整備やペットケアなどの見積もり依頼にも対応します。今後はCalendly連携やYelp Waitlist対応も追加される予定です。

Yelp Assistantは2024年にサービス専門家の雇用支援ツールとして登場しましたが、今回の更新で対象範囲が大きく広がりました。同社の最高プロダクト責任者Craig Saldanha氏は「最も重要なAIプロダクトの進化」と位置づけています。

この動きは、ユーザー生成データという資産を活用しAIを実用的なツールへ転換する業界トレンドの一環です。「検索を減らし、行動を増やす」というコンセプトのもと、Yelpは消費者向けAIの新たな方向性を示しています。

AI生成の偽MAGA女性がSNSで横行

偽インフルエンサーの手口

Gemini助言で保守層狙い
AI生成の白人女性像を量産
月数千ドルの収益を獲得
Fanvueで課金コンテンツ販売

拡散の構造的要因

怒りの反応も拡散に寄与
プラットフォーム側の検知不足
AI開示義務の形骸化
デジタルリテラシー格差を悪用

インド在住の医学生Google Geminiの助言を受けてAI生成の保守派女性インフルエンサーを作成し、InstagramやFanvueで数千ドルの収益を上げていたことがWIREDの取材で明らかになりました。Geminiは保守層を「高い可処分所得と高い忠誠心を持つ層」と分析し、MAGA系ニッチを「チートコード」と表現したといいます。

作成された「Emily Hart」は看護師を名乗る金髪の白人女性で、銃や釣り、反移民・反中絶といったMAGA的価値観を前面に出した投稿を行いました。1つのリール動画で300万〜1000万回の再生を記録し、1カ月で1万人以上のフォロワーを獲得しています。ファンはFanvueで課金コンテンツを購入し、作成者はほぼ労力なく収益を得ていました。

こうした偽アカウントはEmily Hartだけではありません。100万人以上のフォロワーを集めた「Jessica Foster」など、白人・金髪・緊急対応職という共通テンプレートを持つAI生成MAGA女性インフルエンサーがSNS上に多数存在しています。ブルッキングス研究所の研究者は、AI技術が偽プロフィールの信憑性を高めていると指摘します。

プラットフォーム側はAI生成コンテンツの開示を義務付けていますが、実効的な検知・執行は追いついていませんMetaはEmily Hartのアカウントを「詐欺的活動」として最終的に停止しましたが、Facebook上のアカウントは残存しています。OnlyFansはID認証を求めるため、規制の緩いFanvueなどの競合プラットフォームに流れる構図が生まれています。

専門家は、フォロワーの多くがAI生成であることを認識しつつも「感情に共感できればよい」と考えている点を問題視しています。政治的に過激なコンテンツほどアルゴリズムに優遇される仕組みと、デジタルリテラシーの格差が、この現象を拡大させる構造的要因となっています。

GoogleがDESIGN.md仕様をオープンソース化

仕様の概要と狙い

デザインルールの共通言語を標準化
AIがブランド意図を正確に理解可能に
WCAGアクセシビリティ検証にも対応

実用面と展開

Stitch間のプロジェクト移行が容易に
単一ツールに限らずクロスプラットフォーム対応
GitHubでコミュニティ貢献を受付中

Google Labsは2026年4月21日、AIデザインツールStitchで使われるDESIGN.mdフォーマットのドラフト仕様をオープンソースとして公開しました。DESIGN.mdはデザインシステムのルールや意図を構造化して記述するファイル形式で、プロジェクト間でのエクスポートやインポートを可能にします。

この仕様の最大の特徴は、特定のツールやプラットフォームに依存しない点です。AIエージェントデザインの意図を推測するのではなく、色の用途やコンポーネントの役割を明示的に理解できるようになります。さらに、WCAGアクセシビリティ基準に照らした自動検証も可能です。

開発者デザイナーは、Stitchで自分のDESIGN.mdファイルを生成できるほか、GitHubリポジトリを通じて仕様策定への貢献が可能です。Google LabsのDavid East氏が解説動画も公開しており、具体的な活用方法を確認できます。

AI駆動のUI生成が普及する中、デザインルールの標準フォーマットが存在しないことは大きな課題でした。DESIGN.mdはこのデザインとAIの橋渡しとなる共通規格を目指しています。

フロリダ州がChatGPTの銃撃事件関与を調査

州当局の調査姿勢

フロリダ州が銃乱射事件でのChatGPT利用を調査
利益優先なら責任追及の方針
政府介入は重大被害時のみとの立場

OpenAIの反論と対応

公開情報の提供に過ぎないと主張
違法行為の助長や促進は否定
容疑者アカウントを自主的に捜査機関へ共有
安全策の継続的強化を表明

米フロリダ州が、銃乱射事件の容疑者がChatGPTを利用していた問題について本格的な調査を開始しました。州のウスマイアー首席補佐官は、OpenAI経営陣が犯罪行為を認識しながら利益を優先していた場合、「責任を問う必要がある」と明言しています。同氏は限定的な政府介入の信条を持ちつつも、今回は「国民への重大な被害がある事案」だと位置づけました。

OpenAIの広報担当ウォーターズ氏は、同社が捜査に全面的に協力していると説明しました。容疑者のものとみられるChatGPTアカウントを早期に特定し、法執行機関に自主的に情報提供したと述べています。

OpenAI側は、ChatGPTが提供したのはインターネット上で広く入手可能な事実情報に過ぎず、自殺や殺人を促したとされる他の訴訟とは異なり、違法・有害な行動を奨励していないと反論しています。一方で、ウスマイアー氏によれば、OpenAIは改善の必要性を認め追加措置を講じる意向を示しました。

ウォーターズ氏は容疑者の利用が典型的なものではないと強調し、ChatGPTは毎日数億人が正当な目的で使う汎用ツールだと述べました。同社は有害な意図の検出やセーフガードの強化を継続的に進めているとしています。この事案は、AIチャットボットの安全責任の範囲をめぐる議論を一段と加速させる可能性があります。

YouTubeがAI偽動画の検出対象を著名人に拡大

肖像検出の仕組みと経緯

Content IDと同様の顔照合技術
クリエイターから政治家を経て芸能界へ段階拡大
YouTubeアカウント不要で利用可能

削除と収益化の展望

パロディや風刺は削除対象外
将来は音声の検出にも対応予定
NO FAKES法による連邦規制も推進
肖像の商業ライセンス化が業界の潮流

YouTubeは2026年4月21日、AI生成のディープフェイク動画を検出する「肖像検出」機能の対象をエンターテインメント業界の著名人に拡大したと発表しました。CAA、UTA、WMEなど大手タレントエージェンシーの協力を得て、俳優やアーティストがYouTubeアカウントを持っていなくても自身のAI偽動画を監視できるようになります。

この技術はYouTubeの既存のContent IDシステムと同様の仕組みで、登録者の顔とAI生成コンテンツを照合します。対象者はID写真と自撮り動画を提出し、検出された動画についてプライバシーポリシー違反に基づく削除申請や著作権侵害の報告が可能です。ただしパロディや風刺は保護対象として残されます。

肖像検出機能は2025年秋にクリエイター向けパイロットとして開始され、2026年3月に政治家やジャーナリストへ拡大、今回の著名人対応で第3段階に入りました。YouTubeはこれまでの削除件数は「非常に少ない」としていますが、詐欺広告に著名人の顔が無断使用されるケースが急増しており、業界の要望に応えた形です。

将来的にはYouTube音声の検出にも対応する計画です。連邦レベルではAIによる無断の音声・肖像再現を規制するNO FAKES法を支持しており、法整備とプラットフォーム対策の両面で保護を強化する方針です。業界ではCAA主導の生体データベースやTikTokスターの肖像権商業化など、AI時代の肖像管理が新たなビジネス領域として注目されています。

アラビア語LLM評価基盤QIMMAが公開

品質検証を先行する新手法

評価前にベンチマーク品質を検証
2つのLLMと人間レビューの多段階審査
109サブセット・5.2万サンプル統合
既存ベンチマークの体系的欠陥を発見

初のコード評価と透明性

アラビア語初のコード生成評価を搭載
全サンプルの推論出力を公開
99%がネイティブアラビア語コンテンツ
7ドメイン・46モデルを網羅的に評価

UAE Technology Innovation Institute(TII)の研究チームは2026年4月21日、アラビア語LLMの評価基盤「QIMMA」をHugging Face上で公開しました。QIMMAはアラビア語で「頂上」を意味し、既存ベンチマークの品質を検証してからモデル評価を行う「品質第一」のアプローチを採用しています。14のソースベンチマークから109サブセット、5万2000以上のサンプルを統合した包括的な評価スイートです。

従来のアラビア語ベンチマークには、英語からの翻訳による文化的不整合、アノテーションの不一致、誤った正解ラベルなどの体系的な品質問題が存在していました。QIMMAでは評価の前段階として、Qwen3-235BとDeepSeek-V3の2つの大規模モデルによる自動審査と、ネイティブ話者による人間レビューを組み合わせた多段階検証パイプラインを構築しています。

検証の結果、ArabicMMLUでは3.1%、MizanQAでは2.3%のサンプルが品質基準を満たさず除外されました。コードベンチマークでは、HumanEval+の88%、MBPP+の81%のアラビア語問題文に修正が必要と判明し、既存評価の信頼性に疑問を投げかけています。

リーダーボードの初期結果では、Qwen3.5-397Bが平均68.06点で首位、アラビア語特化のKarnakが66.20点で2位、Jais-2-70Bが65.81点で3位となりました。注目すべきは、モデルサイズと性能が必ずしも比例しない点で、32Bパラメータのモデルが70B以上のモデルを特定ドメインで上回るケースが確認されています。

QIMMAはオープンソース、ネイティブアラビア語コンテンツ、品質検証、コード評価、推論出力公開の5要素を兼ね備えた唯一のプラットフォームです。アラビア語は4億人以上の話者を持ちながらNLP評価の整備が遅れており、信頼性の高い評価基盤の登場は、同言語圏でのLLM開発・選定に大きな影響を与えると見られます。

AI Dungeon開発元がRPG制作基盤Voyageを公開

Voyageの特徴

AIが全NPCの会話を動的生成
プレイヤーが自由にゲーム世界を設計
5年開発のWorld Engineが中核
キャラの記憶と関係性が持続

事業展開と提携

Google AI Futures Fundと提携
元Roblox幹部が取締役に就任
月額15〜50ドルのサブスク予定
16万超のAIキャラが生成済み

AI Dungeonで知られるLatitude社が、AIを活用したRPG制作プラットフォーム「Voyage」を発表しました。プレイヤーは地域や都市、クエスト、敵キャラなどを記述するだけで、AIがゲーム世界のコードを自動生成します。テキストベースのRPGで、NPCとの会話はすべてAIによるリアルタイム生成であり、固定スクリプトは存在しません。

Voyageの中核技術は、開発に5年を要した独自の「World Engine」です。複数のAIシステムが連携し、ナレーション、ゲームプレイ管理、キャラクターの記憶や関係性の追跡を担います。たとえばプレイヤーがあるキャラクターを裏切れば、そのキャラは以降の場面で敵対的に振る舞うなど、文脈を保った反応が実現されています。

ビジネス面では、GoogleのAI Futures Fundとの提携を発表し、自社モデルに加えてGemini FlashやGemmaなどのサードパーティモデルも組み合わせて活用します。元Roblox最高事業責任者のCraig Donato氏が投資家兼取締役として参画し、Album VC、Griffin Gaming Partners、Midjourney、NFXなども出資しています。

現在は拡張ベータテスト中で、オープンベータは年内を予定しています。基本プレイは無料で、月額15ドル・30ドル・50ドルのサブスクリプションプランを導入予定です。すでに16万以上のユニークなAIキャラクターが生成され、平均プレイヤーは約3,000回のゲーム内選択を行っています。

AI活用の新SNS「Bond」が正式公開

脱スクロール設計

投稿を基にAIが外出先を提案
フィード廃止しクラスタ型UIを採用
24時間後に非公開保存される記憶機能

収益モデルと課題

ユーザーがデータをAI学習用に販売可能に
EC連携による商品推薦も構想
広告非掲載だが暗号化は今後対応

新たなSNS「Bond」が2026年4月21日に正式ローンチしました。共同創業者兼CEOのDino Becirovic氏は、AIを活用して利用者のドゥームスクロール習慣を断ち切ることを目指すと説明しています。TikTokやTwitter、Facebookの開発経験者がチームに参加しており、Google Geminiのユーザーシグナル統合を共同で率いた研究者も名を連ねます。

Bondでは利用者が写真・動画音声で日常の体験を「メモリー」として投稿します。蓄積されたメモリーをAIが分析し、好みに合ったレストランやライブなどリアルな体験を提案する仕組みです。投稿が増えるほど推薦精度が向上するため、アプリを閉じて外出する動機づけになると同社は主張しています。

UIはInstagramに似ていますが、従来型のフィードは存在しません。ユーザープロフィールはクラスタ形式で表示され、ストーリーは24時間後に公開プロフィールから消えてプライベートアーカイブに保存されます。利用者は自分の記憶アーカイブを自由に検索できます。

収益面では広告を一切排除し、将来的に利用者が自身のデータをAI学習用としてライセンス販売できるモデルを構想しています。Bond側はライセンス料として少額の手数料を受け取る形です。EC連携による商品推薦での収益化も視野に入れています。

プライバシーについては、データの広告目的での販売は行わず、メモリーの削除やアカウント削除も可能としています。ただしエンドツーエンド暗号化はローンチ時点では未実装で、近い将来の優先事項と位置づけています。現時点ではマネタイズより利用者体験の構築を重視する方針です。

Google Ads Advisor、安全性強化の3新機能を発表

ポリシー違反の自動検知

リアルタイムポリシー審査導入
違反の特定から修正確認まで自動化
複雑な違反も能動的にスキャン

セキュリティ認証の効率化

24時間体制でアカウント監視
セキュリティダッシュボード新設
認証申請を数週間から即時承認へ短縮
パスキー対応でパスワード不要に

Googleは2026年4月21日、広告プラットフォームGoogle AdsのAIエージェントAds Advisor」に、安全性と効率性を高める3つの新機能を追加すると発表しました。マーケターがキャンペーン管理に費やす時間を削減し、ビジネス成長に集中できる環境を整えることが狙いです。

第1の機能は「リアルタイムポリシー審査」です。キャンペーンの作成・編集中にポリシー違反を即座に検知し、修正方法を提示します。さらにAds Advisorがアカウントとウェブサイトを能動的にスキャンし、複雑な違反についても原因の特定から修正確認、申し立てまでを一貫して支援します。

第2の機能は24時間365日のセキュリティ監視です。アカウント内のユーザー監査を自動化し、不審なドメインや休眠ユーザーなどを検出してパーソナライズされた改善提案を行います。新設のセキュリティダッシュボードで対策状況を可視化できるほか、パスキーにも対応しパスワードレス認証を実現します。

第3の機能は認証プロセスの自動化です。従来は数週間かかっていた認証申請を、Geminiの能力を活用して即時承認に変えます。Ads Advisorが業種や国に基づき認証の必要性を判断し、自動付与または1クリックでの申請提出を支援します。すべての操作はユーザーの承認を経てから実行されます。

これらの機能は今後数カ月以内にAds Advisorに順次実装される予定です。現在Ads Advisorは全世界の英語アカウントで利用可能で、対応言語は順次拡大中です。Googleは5月20日のGoogle Marketing Liveでさらなる発表を予定しています。

Google、AI販促ツールPomelliを欧州展開

Pomelliの機能

サイト解析でブランド要素を自動把握
キャンペーン案の提案と共同編集
SNS・広告用素材を一括生成・編集

欧州展開の概要

EU・英国・スイスなど英語版で提供開始
Google Labs実験としてDeepMindと共同開発
中小企業のマーケティング内製化を支援

Googleは2026年4月21日、AI搭載マーケティングツールPomelliの英語版をEU、アイスランド、リヒテンシュタイン、ノルウェー、スイス、英国中小企業向けに提供開始しました。PomelliはGoogle LabsがGoogle DeepMindと共同で開発した実験的プロダクトで、中小企業ブランドに沿った高品質なマーケティング素材を手軽に作成できるよう設計されています。

Pomelliの仕組みは3ステップで構成されます。まず「解析」フェーズで、ユーザーのウェブサイトをスキャンし、ブランドの声やフォント、カラーといったブランドアイデンティティを自動的に把握します。次に「発想」フェーズで、把握したブランド情報をもとにカスタムキャンペーン案を提案し、ユーザー自身のプロンプトによる共同作業も可能です。

最後の「制作」フェーズでは、SNS投稿やウェブ広告向けの高品質なビジュアル素材をAIが生成します。生成された素材はツール内で直接編集・ダウンロードでき、外部ツールを介さずに完結します。

今回の欧州展開は、これまでAIクリエイティブツールへのアクセスが限られていた中小企業のマーケティング内製化を後押しする動きです。デザイナーや代理店に依頼せずとも、ブランド一貫性のある販促素材を迅速に用意できる点が訴求ポイントとなっています。

Gemini for Homeに連続会話機能が追加

連続会話の仕組み

初回呼びかけ後にマイク待機継続
会話文脈を記憶し復唱不要
多言語・全地域対応

検知精度と利便性

雑談と指示をAIが自動判別
家族やゲスト全員が利用可能
Google Homeアプリから有効化

Googleは2026年4月21日、スマートスピーカー向け音声アシスタントGemini for Home」に、ユーザーから要望の多かった連続会話(Continued Conversation)機能を追加したと発表しました。初回の「Hey Google」の後、Geminiが応答を返した後もマイクが数秒間オンのまま維持され、再度ウェイクワードを言わずに会話を続けられます。

従来のGoogle Assistantとは異なり、Geminiは会話の文脈を保持するため、前の発言内容を繰り返す必要がありません。これにより料理中や手がふさがっている場面でも、自然なやり取りが可能になります。また、家庭内の雑談とコマンドをAIが高精度で判別し、誤反応を低減する改善も施されています。

対応範囲も大幅に広がりました。旧バージョンは米国英語のみでしたが、今回のアップグレードでは全サポート言語・地域で利用可能です。さらに、家庭内の全員(ゲスト含む)が一度の設定で連続会話を使える「Whole-home access」にも対応しています。

有効化はGoogle Homeアプリの「Home Settings」から「Gemini for Home voice assistant」、「Continued Conversation」の順に進むだけです。早期アクセス開始以降、数百万人のユーザーがGemini for Homeの改善に参加しており、今回の機能追加はそのフィードバックを反映した成果となっています。