Anthropic、Firefoxの脆弱性22件をAIで2週間で発見

発見の成果

高深刻度14件含む22件発見
Firefox 148で大半を修正済み
C++ファイル約6,000件を走査
報告総数は112件に到達

攻撃検証の限界

エクスプロイト成功はわずか2件
検証に約4,000ドルのAPI費用
発見能力と悪用能力に大きな差

防御者への提言

タスク検証器で精度向上
最小テストケースの添付を推奨

Anthropicは2026年3月、Mozillaとの協力のもとClaude Opus 4.6を用いてFirefoxの脆弱性調査を実施し、2週間で22件の脆弱性を発見しました。うち14件は高深刻度に分類され、2025年に修正された高深刻度脆弱性の約5分の1に相当します。

調査はFirefoxのJavaScriptエンジンから開始されました。わずか20分の探索で、攻撃者が任意のデータを上書きできるUse After Free型のメモリ脆弱性が報告されています。その後ブラウザ全体に範囲を拡大し、約6,000のC++ファイルを走査して合計112件の報告を提出しました。

一方でAIの悪用能力には明確な限界がありました。Anthropicは約4,000ドルのAPIクレジットを費やしてエクスプロイト作成を試みましたが、実際に成功したのは2件のみです。しかもサンドボックスなどのセキュリティ機能を意図的に無効化したテスト環境での成功にすぎません。

Anthropicは効果的な脆弱性発見の鍵としてタスク検証器の活用を提唱しています。エージェントが自らの出力を検証できるツールを組み合わせることで、パッチの品質が大幅に向上するとしています。報告時には最小テストケース、概念実証、候補パッチの添付が信頼性向上に不可欠です。

Anthropicは今後、Linuxカーネルなど他の重要プロジェクトでも脆弱性調査を拡大する方針です。現時点ではAIの発見能力が悪用能力を大きく上回っており、防御者に有利な状況にあるとしつつも、将来的にこの差が縮まる可能性を警告し、開発者セキュリティ強化を急ぐよう呼びかけています。

Anthropic、Claude搭載ツールのマーケットプレイスを開設

マーケットプレイス概要

既存契約の一部で外部ツール購入可
GitLab・Harvey・Replitなど6社が参加
請求一元化で調達を簡素化
限定プレビューとして提供開始

競合と戦略的意義

OpenAIChatGPTアプリで先行
SaaS不要論への逆張り戦略
専門ツールの独自価値を強調
企業のAI調達の中心を目指す

Anthropicは、企業向けに「Claude Marketplace」を発表しました。これは既存のAnthropic支出契約の一部を使い、外部パートナーが提供するClaude搭載ツールを購入できる新サービスです。現在、限定プレビューとして提供が始まっています。

参加パートナーにはGitLabHarvey、Lovable、Replit、Rogo、Snowflakeの6社が名を連ねています。企業はパートナーごとに個別の請求処理を行う必要がなく、Anthropicが一括して請求管理を担うため、調達プロセスが大幅に簡素化されます。

注目すべきは、この動きがSaaS不要論と逆行する点です。Claude CodeClaude Coworkの登場で、企業は既存SaaSを自社開発に置き換えられるとの期待が広がり、SaaS株の大幅下落を招いた経緯があります。マーケットプレイスは、専門ツールの価値を改めて認める戦略といえます。

Anthropicの広報担当者は「Claude知能レイヤーであり、パートナーが製品レイヤーを担う」と説明しています。Harveyの法務特化プラットフォームやRogoの金融分析など、各社が長年かけて構築した業界固有の専門性Claude単体では再現できないと強調しました。

一方、OpenAIは2025年12月にChatGPTアプリディレクトリを開設済みで、Lightning AIやSalesforceも類似のAIマーケットプレイスを展開しています。Anthropicの最大の課題は導入促進です。多くのパートナー企業は既にAPI接続やMCP経由で顧客を持っており、企業ユーザーが既存の連携からマーケットプレイスへ移行するかが成否を分けることになります。

MIT発、LLMメモリを50分の1に圧縮する新手法が登場

KVキャッシュの課題

KVキャッシュが長文処理の最大障壁
従来の圧縮は高圧縮率で精度急落
テキスト要約は重要情報を喪失
勾配ベース手法は数時間のGPU計算が必要

Attention Matchingの革新

50倍圧縮でも精度維持を実現
代数的手法で数秒の高速処理
参照クエリで圧縮品質を担保
オープンウェイトモデルが利用条件

MITの研究チームが、大規模言語モデル(LLM)の推論時メモリであるKVキャッシュを最大50分の1に圧縮する新手法「Attention Matching」を発表しました。精度をほぼ維持したまま数秒で処理が完了する点が最大の特徴です。

LLMはトークンを逐次生成する際、過去の全トークンのキー・バリュー対をKVキャッシュに保持します。長文の法務文書分析や自律型コーディングエージェントなどの企業用途では、1リクエストで数GBに膨張し、同時処理数やバッチサイズを大幅に制限する深刻なボトルネックとなっていました。

従来の対処法には、重要度の低いトークンの削除やトークン統合がありますが、高圧縮率では精度が急激に低下します。テキスト要約による代替も、医療記録のような情報密度の高い文書ではコンテキストなしと同等の精度まで劣化することが実験で確認されました。勾配ベースの「Cartridges」手法は高品質ですが、1コンテキストの圧縮に数時間を要し実用性に欠けていました。

Attention Matchingは、圧縮後のメモリが元のメモリと同じ「注意出力」と「注意質量」を再現するよう設計されています。事前に生成した参照クエリを用いて保持すべきキーを選択し、通常最小二乗法などの代数的手法で値を算出します。勾配降下を完全に回避することで、処理速度が桁違いに高速化されました。チャンク単位の分割処理により長文への対応も実現しています。

Llama 3.1やQwen-3を用いた実験では、読解ベンチマーク「QuALITY」と6万トークンの医療記録データセット「LongHealth」の両方で有効性が確認されました。テキスト要約との組み合わせでは200倍圧縮も達成しています。数学推論テスト「AIME」では、メモリ上限に達するたびに50%圧縮を最大6回繰り返しても、無制限メモリと同等の性能を維持しました。

ただし、この手法の導入にはモデルの重みへのアクセスが必要であり、クローズドAPIのみを利用する企業は自社実装ができません。また、既存の推論エンジンへの統合にはプレフィックスキャッシュや可変長メモリパッキングとの調整が必要です。研究チームはコードを公開済みで、大規模なツール出力や長文文書の取り込み直後の圧縮が有望なユースケースだと述べています。

OpenAI、コード脆弱性を自動検出するCodex Securityを公開

製品の特徴と精度

脅威モデル自動生成と編集機能
サンドボックスで検証し誤検知削減
修正パッチ文脈付きで提案
フィードバック学習で精度向上

OSS貢献と実績

14件のCVEをOSSで発見・報告
OpenSSH・GnuTLS等の重大脆弱性修正
誤検知率50%以上削減を達成
OSS支援プログラムを無償提供

OpenAIは2026年3月、アプリケーションセキュリティエージェントCodex Security」のリサーチプレビューを開始しました。ChatGPT Pro・Enterprise・Business・Edu顧客向けに、初月は無料で提供されます。

Codex Securityは旧名「Aardvark」として昨年からプライベートベータを実施してきました。ベータ期間中にSSRFやクロステナント認証バイパスなどの重大脆弱性を発見し、セキュリティチームが数時間以内にパッチを適用した実績があります。

同ツールの最大の特徴は、リポジトリを分析して脅威モデルを自動生成し、プロジェクト固有の文脈に基づいて脆弱性を優先順位付けする点です。サンドボックス環境での自動検証により、誤検知率を50%以上削減し、重要度の過大報告も90%以上減少させました。

OSSコミュニティへの貢献も注目されます。OpenSSH、GnuTLS、GOGS、Chromiumなど広く使われるプロジェクトで14件のCVEを報告しました。過去30日間で外部リポジトリの120万コミット以上をスキャンし、792件の重大・1万561件の高深刻度の脆弱性を検出しています。

OpenAIはOSSメンテナー向けに「Codex for OSS」プログラムも開始し、無償のChatGPT ProアカウントやCodex Securityを提供します。vLLMなどのプロジェクトが既に活用を開始しており、今後数週間で対象を拡大する予定です。

MS・Google・AWS、Anthropic Claudeの非防衛顧客向け提供継続を表明

クラウド3社の対応

Microsoftが提供継続を最初に表明
Google Cloudも非防衛用途での利用を保証
AWS顧客も非防衛業務で継続利用可能
国防総省との直接契約のみが制限対象

Pentagon指定の影響

Anthropicサプライチェーンリスクに指定
自律兵器・大規模監視への無制限アクセスを拒否
ChatGPTアンインストールが295%急増
Anthropicは法廷で指定取消を争う方針

米国防総省Anthropicをサプライチェーンリスクに正式指定したことを受け、MicrosoftGoogleAWSの3社は非防衛顧客向けにClaudeの提供を継続すると相次いで表明しました。

Microsoftは最初に声明を発表し、M365GitHub、AI Foundryなどのプラットフォームを通じてAnthropic製品を引き続き利用可能とする方針を示しました。同社の法務チームは指定内容を精査し、国防総省以外の顧客への提供に問題がないと結論づけています。

GoogleGoogle Cloudを通じたClaude提供の継続を確認しました。CNBCの報道によれば、AWSの顧客やパートナーも非防衛関連の業務でClaude を引き続き利用できます。

この問題の発端は、Anthropic大規模監視や完全自律型兵器への無制限アクセスを拒否したことにあります。国防総省は通常、外国の敵対勢力に対して適用するサプライチェーンリスク指定を米国のAIスタートアップに初めて適用し、業界に衝撃を与えました。

Anthropicダリオ・アモデイCEOは法廷で指定の取消を求める意向を表明しています。一方、国防総省がOpenAIと契約を結んだ後、ChatGPTのアンインストール数が295%急増するなど、軍事AI利用をめぐる消費者の反発も顕在化しています。

Google、ベクトルDB不要の常時稼働メモリエージェントをOSS公開

アーキテクチャの特徴

ベクトルDB・埋め込み不要の設計
SQLiteで構造化メモリを保存
30分間隔で自動メモリ統合
テキスト・画像音声動画に対応

経済性と技術基盤

Gemini 3.1 Flash-Liteで低コスト運用
入力100万トークンあたり0.25ドル
ADKフレームワークで構築

企業導入の課題

記憶のガバナンスが最大の論点
ドリフトとループの運用コスト懸念

GoogleのシニアAIプロダクトマネージャーShubham Saboo氏が、エージェントの永続メモリ問題に取り組むオープンソースプロジェクト「Always On Memory Agent」をGoogle Cloud PlatformGitHubMITライセンスで公開しました。従来のベクトルデータベースに依存しない新しいアプローチが注目を集めています。

このエージェントGoogle ADK(Agent Development Kit)と低コストモデルGemini 3.1 Flash-Liteを基盤に構築されています。常時稼働で情報を取り込み、SQLiteに構造化メモリとして保存し、30分ごとにバックグラウンドでメモリ統合を実行します。ベクトル検索の代わりにLLM自体がメモリの整理・更新を担う設計です。

Flash-Liteは入力100万トークンあたり0.25ドル、出力100万トークンあたり1.50ドルという低価格で、Gemini 2.5 Flashと比較して初回トークン生成速度が2.5倍、出力速度が45%向上しています。24時間稼働するメモリエージェントの経済的実現可能性を支える重要な要素となっています。

一方で、エンタープライズ導入に向けたガバナンス面の課題が識者から指摘されています。エージェントがバックグラウンドでメモリを統合・交差させる仕組みは「コンプライアンス上の悪夢」になりうるとの警告や、常時稼働エージェントの真のコストはトークンではなく「ドリフトとループ」だという意見が寄せられています。

現時点では、決定論的なポリシー境界、保持保証、監査ワークフローといった企業向けコンプライアンス制御は未実装です。しかし、単発アシスタントから長期記憶を持つシステムへの移行が進む中、このプロジェクトは次世代エージェント基盤の具体的なリファレンス実装として位置づけられます。記憶能力そのものより、記憶を安全に管理できるかが企業採用の鍵となるでしょう。

GitHub Security Lab、AI脆弱性スキャンの自動化フレームワークを公開

フレームワークの仕組み

YAMLベースのタスクフロー設計
脅威モデリングで誤検知を抑制
リポジトリを機能別コンポーネントに分割
エントリポイントと権限境界を自動分析
提案→監査の2段階で精度向上

発見された重大脆弱性

Outlineで権限昇格の認可バグ
WooCommerce等ECサイトで個人情報漏洩
Rocket.Chatで任意パスワード認証突破

実績と知見

40超リポジトリで80件以上報告
ロジック系バグの検出に特に有効
偽陽性率22%と低水準を実現

GitHub Security Labは、LLMを活用してオープンソースプロジェクトの脆弱性を自動検出するフレームワーク「seclab-taskflows」を公開しました。YAMLで定義したタスクフローをGitHub Copilotと連携して実行し、これまでに80件以上の脆弱性を報告しています。

フレームワークの核心は脅威モデリング段階にあります。リポジトリを機能別コンポーネントに分割し、エントリポイントや権限境界を分析した上で、LLMに脆弱性候補を提案させます。その後、別タスクで厳格な基準に基づき監査することで、幻覚や誤検知を大幅に抑制する設計です。

代表的な発見例として、コラボレーションツールOutlineでの権限昇格バグがあります。ドキュメントのグループ管理APIが弱い権限チェックしか行わず、一般ユーザーが管理者権限を付与できる深刻な問題をLLMが初回実行で特定しました。

Rocket.Chatでは、bcrypt比較関数のPromiseをawaitせずに評価していたため、任意のパスワードでログインできる致命的なバグが見つかりました。ECサイトでもWooCommerceやSpreeで顧客の個人情報が漏洩する認可バグが連鎖的に発覚しています。

40以上のリポジトリを対象とした分析では、LLMが提案した1003件のうち139件を脆弱性と判定し、手動検証後に19件を重大脆弱性として報告しました。特にIDORやビジネスロジック系の論理バグ検出に強みを発揮し、従来の静的解析ツールでは困難だった認可ロジックの欠陥を高精度で発見できることが実証されています。

マスク氏のxAI、加州データ開示法の差し止め請求を棄却される

裁判所の判断

営業秘密の主張を否定
データセットの独自性立証不足
憲法修正第5条の勝訴見込みなし
言論の自由の主張も退ける

Grokの問題と影響

反ユダヤ的発言が国際的批判
CSAM生成問題で加州が調査
州は出力規制の意図否定
公益性を裁判所が認定

イーロン・マスクが率いるxAIは、カリフォルニア州のAI訓練データ開示法の差し止めを求めていましたが、連邦裁判所のバーナル判事は2026年3月にこの請求を棄却しました。xAIは同法が営業秘密を侵害すると主張していました。

裁判所は、xAIがデータセットの独自性を十分に立証できていないと指摘しました。具体的には、競合他社と比較して独自のデータセットを使用していることや、データのクリーニング手法が独特であることを証明していないと判断しました。

xAI合衆国憲法修正第1条に基づき、同法がデータソースの公開を強制することで言論の自由を侵害すると主張しました。また、カリフォルニア州がチャットボットGrokの出力内容に影響を与えようとしていると訴えましたが、裁判所はこれも退けました。

Grokは過去1年間で反ユダヤ的な暴言や同意のない親密な画像の生成、さらには児童性的虐待素材(CSAM)の生成が発覚し、国際的な批判を浴びています。カリフォルニア州司法長官はxAIに対し停止命令書を送付しています。

バーナル判事は、法律の条文にはAIモデルの出力を規制する意図は一切含まれていないと明言しました。さらに、訓練データの開示に対する公共の利益は確かに存在すると述べ、xAIの「公衆は関心を持たない」との主張を明確に否定しました。

Descript、OpenAI推論モデルで多言語吹替を大幅改善

吹替の課題と解決策

言語間の発話時間差が課題
従来は意味優先でタイミング後補正
音声が不自然に加速・減速
GPT-5で音節計算が安定化

新パイプラインの成果

吹替動画書出し15%増加
尺遵守率が13〜43ポイント改善
意味忠実度85.5%が4以上評価
自動評価で継続的改善可能に

Descriptは、OpenAI推論モデルを活用して多言語動画吹替パイプラインを刷新しました。導入から30日間で吹替動画の書き出しが15%増加し、尺遵守率が言語により13〜43ポイント改善されています。

吹替における最大の課題は、言語ごとに同じ内容を表現する時間が異なる点でした。例えばドイツ語は英語より長くなる傾向があり、固定の映像区間に収めるため音声を不自然に加速・減速させる必要がありました。AI製品責任者のミストラトフ氏は「チップマンクか眠そうな巨人のような音声になっていた」と振り返ります。

従来のアプローチでは意味の忠実度を最優先し、タイミングは事後補正していました。しかし以前のモデルでは音節数の正確な計算ができず、尺制約を満たせないケースが頻発していました。GPT-5シリーズの推論一貫性の向上により、音節計算と制約追跡が信頼できる水準に達しました。

新パイプラインでは、トランスクリプトを文境界や自然な間でチャンク分割し、各チャンクの音節数から目標尺を算出します。モデルは尺遵守と意味保持の両方を同時に最適化し、前後のチャンクも文脈として参照します。その結果、許容範囲内の尺に収まるセグメントが従来の40〜60%から73〜83%に向上しました。

今後は音声・映像・テキストを統合したマルチモーダル処理により、声のトーンや強調といった非言語的特徴の保持を目指します。CEOのバークハウザー氏は、企業向けに動画ライブラリ全体を一括翻訳・リップシンクする機能を構築中であると述べています。

Google、Workspace CLIを公開しAIエージェント連携を強化

CLIツールの概要

Workspace全製品のAPI統合
Gmail・Drive・Calendar対応
40以上エージェントスキル搭載
構造化JSON出力に対応

利用上の注意点

Google非公式サポート製品
機能の大幅変更の可能性あり
既存ワークフロー破損リスクあり

Googleは、同社のWorkspace製品群のAPIを統合した新しいコマンドラインツール「Google Workspace CLI」をGitHub上で公開しました。Gmail、Drive、Calendarなど主要サービスのAPIを一つのパッケージにまとめ、OpenClawを含む多様なAIツールとの連携を容易にします。

このツールは人間とAIエージェントの双方が利用できる設計で、構造化JSON出力に対応しています。Google CloudディレクターのAddy Osmani氏によると、40以上のエージェントスキルが搭載されており、コマンドライン入力の生成とJSON出力の直接解析が可能です。

具体的な機能として、Driveファイルの読み込み・作成、メール送信、Calendarの予定の作成・編集、チャットメッセージの送信など、Workspace製品の幅広い操作をコマンドラインから実行できます。AIエージェントによる自動化を強く意識した設計となっています。

ただし重要な注意点として、このプロジェクトはGoogle公式サポート製品ではありません。利用者は自己責任での使用が求められ、問題が発生した場合もGoogleからのサポートは受けられません。

さらにGoogle Workspace CLIは開発初期段階にあり、機能が大幅に変更される可能性があります。そのため、構築したワークフローが将来的に動作しなくなるリスクを理解した上で、AI自動化の実験に関心のあるエンジニア開発者にとっては有用なツールといえます。

Grammarly、著名人の名前を無断でAI機能に使用

無断利用の実態

専門家レビュー機能で名前使用
The Verge編集長ら複数記者が対象
故人の教授名も許可なく掲載
肩書きに不正確な情報含む

品質と倫理の問題

出典リンクがスパムサイトに遷移
別人の著作に基づく誤った助言
実際の編集者と異なる提案内容
親会社は公開著作を根拠に正当化

Grammarly(親会社Superhuman)のAI機能「Expert Review」が、著名なジャーナリストや学者の名前を無断で使用していることが2026年3月にWiredの報道で明らかになりました。対象にはThe Vergeの編集長を含む複数のメディア関係者が含まれています。

この機能は2025年8月に提供を開始し、ユーザーの文章を「業界の専門家の視点」で分析するとうたっています。スティーブン・キングやニール・ドグラース・タイソンなど著名人に加え、テック系メディアの記者多数がリストに含まれており、いずれも本人の許可を得ていません

Superhuman側は「専門家推薦や直接的な参加を主張するものではなく、公開された著作に着想を得た提案である」と釈明しました。しかし許可を取らなかった理由については「公開著作は広く引用されているため」と述べるにとどまり、倫理的な説明責任を果たしていません。

機能の品質にも深刻な問題があります。出典として表示されるリンクがスパムサイトや無関係のページに遷移するケースが確認されました。さらに、ある専門家の名前で表示される提案が実際には別人の著作に基づいている可能性も指摘されています。

実際にThe Vergeの記者が検証したところ、AIが提案した編集内容は本人の編集スタイルと正反対でした。大量の文章を学習しても執筆スタイルの模倣と編集判断の再現は本質的に異なり、名前の無断使用に加えて誤解を招く表示方法が問題視されています。

Block社ドーシーCEO、AI理由に従業員半数を解雇

大規模レイオフの背景

従業員約5000人を一斉解雇
AI進化で企業構造の抜本改革が必要と主張
12月のOpus 4.6やCodex 5.3が転機
過剰採用ではなく先手の判断と説明

AI中心の新企業像

管理階層を撤廃し知能層を構築
会社全体をミニAGI化する構想
顧客が自ら製品をバイブコーディング
1〜2年で対応しなければ存亡の危機

X・分散化・政治への見解

Xのアルゴリズム選択に改善余地
Blueskyもイデオロギー偏向と批判
政府と民間企業の分離が必要

Block(旧Square)のジャック・ドーシーCEOは、約1万人の従業員のうちほぼ半数を解雇したことを明らかにしました。同社は直近四半期に約30億ドルの利益を計上し、時価総額390億ドルの好業績下での決断です。

ドーシー氏は解雇の理由について、2025年12月にAnthropicOpus 4.6OpenAICodex 5.3などのAIツールが大規模コードベースへの対応力を劇的に向上させたことを挙げました。これにより企業の構造そのものを根本から見直す必要が生じたと説明しています。

同氏が描く新たな企業像は、従来の管理階層を完全に撤廃し、会社全体に知能レイヤーを構築する「ミニAGI」型の組織です。全社員がこの知能層に問いかけ、意図を組み込み、顧客向けの機能を迅速にスケールできる体制を目指しています。

イーロン・マスク氏が率いるX(旧Twitter)については、私企業化とビジネスモデル変革を評価しつつも、アルゴリズムによるフィルターバブルやイデオロギー的分断を批判しました。自身が創設に関わったBlueskyについても、VC投資を受けて普通の企業化した点に失望を表明しています。

ドーシー氏は、AIに対応しない企業は1〜2年以内に存亡の危機に直面すると警告しました。政治については「超混乱している」と述べ、テクノロジー企業と政府の分離の重要性を強調。AI企業間のモデル切り替えコストがほぼゼロである点にも言及し、業界の競争構造への懸念を示しました。

Meta、ブラジルでもWhatsApp上の他社AIチャットボットを有料開放

規制当局の判断

ブラジルCADEMeta控訴を棄却
第三者AI排除は競争阻害と認定
欧州に続きブラジルでも開放義務

Metaの対応と課題

Business API経由で有料提供開始
非テンプレメッセージ1通0.0625ドル
開発者高価格に懸念表明
申立企業Zapiaは判決を歓迎

背景と今後

昨年10月の利用規約変更が発端
自社Meta AIとの公平性が争点

Metaは2026年3月6日、ブラジルのユーザー向けに競合AI企業のチャットボットWhatsApp上で有料提供することを発表しました。欧州での同様の決定に続く対応で、ブラジルの独占禁止当局CADEの命令に従ったものです。

ブラジルの競争規制当局CADEは、Metaが第三者AIチャットボットWhatsAppから排除する方針の停止命令に対する控訴を棄却しました。CADEは、ブラジルのインスタントメッセージ市場におけるWhatsAppの支配的地位を考慮し、排除措置は「均衡を欠く」と判断しています。

Metaは法的に義務付けられる地域において、WhatsApp Business APIを通じて第三者AIチャットボットの利用を認める方針を示しました。ブラジルでは3月11日から非テンプレートメッセージ1通あたり0.0625ドルの料金を課す予定です。

一方、開発者からはMetaが設定した料金体系が高額であるとの懸念が寄せられています。サービス再開に二の足を踏む企業もあり、実質的な市場開放につながるかは不透明です。CADEへの申立企業Zapiaは判決を歓迎し、中南米全域での規制拡大を目指すと表明しました。

この問題は2025年10月にMetaWhatsApp利用規約を変更し、汎用チャットボットの排除を打ち出したことに端を発します。Meta自身がWhatsApp内でMeta AIを提供していることから、競争上の公平性が各国で問われており、今後も規制の波及が見込まれます。

Amazon Alexa+、生成AI搭載も基本機能の信頼性に深刻な課題

音声操作の不具合

楽曲リクエストが別アーティストに
冗長な指示でないと意図を理解せず
YouTube検索結果を表示し放置
動画再生の成功率が極めて低い

AI応答の問題点

再生していないのに再生中と虚偽回答
HBO Max操作はログイン画面止まり
競合他社のAIエージェントに大きく後れ

Amazonが2025年に刷新した音声アシスタントAlexa+について、米メディアWIREDの記者が約1カ月間にわたるEcho Show 15での使用体験を報告しました。生成AIを中核に据えた新バージョンは、現在全米のPrime会員に提供されています。

最大の問題は音楽再生の精度です。Charli XCXをリクエストすると別アーティストの楽曲が再生され、The Black Keysの代わりにAlabama Shakesが流れるなど、基本的な楽曲検索が正常に機能しない事例が多発しています。

生成AIの売りである自然言語理解も期待を下回りました。「Lucy Dacusの曲をかけて」という簡潔な指示は失敗し、アーティスト名・曲名・プラットフォームを冗長に指定して初めて成功するなど、従来のコマンド型より使い勝手が悪化しています。

動画アプリとの連携にも深刻な不具合があります。HBO Maxでの番組再生を依頼すると「誰が見ていますか」画面で停止し、AIは実際には再生していないにもかかわらず再生中だと虚偽の応答を繰り返すなど、信頼性を損なう挙動が確認されました。

GoogleAnthropicOpenAIなど競合各社がアプリ操作やウェブ自動化で着実に進歩する中、AmazonAlexa+は大きく後れを取っている状況です。記者は「お金を払う価値のないサービス」と結論づけ、Echo Show 15の壁掛け撤去を決めたと報じています。

Replitが動画生成機能を正式公開、数分で製品紹介映像を作成可能に

機能の特徴

自然言語動画を指示
モーション制作会社が不要
アプリと同じワークスペースで制作
数分で初版を生成可能

開発経緯と実績

社内デザイン実験から製品化
Fast Mode紹介動画100万imp達成
Gemini 3.1 Pro基盤で正式提供
社内でも外注より内製を選択

Replitは、開発環境内でモーションスタイルの製品紹介動画を自然言語の指示だけで生成できる新機能「Replit Animation」を正式に公開しました。従来は専門のモーショングラフィックス制作会社に依頼していた作業を、開発者自身が数分で完了できるようになります。

この機能はプロダクトデザイナーのSamuel氏による社内実験から生まれました。Replit Design上でサイトやスライドを生成する仕組みをアニメーションに応用できないかと試したところ、わずか30分でスタジオ品質の動画が完成したといいます。

その直後、Fast Modeのローンチ動画が急遽必要になり、Samuel氏が実験的に作成した動画をそのまま公開したところ、オーガニックで100万インプレッションを超える反響を得ました。モーションデザイナーでない同氏がわずか数ドルのコストで制作した動画がこの成果を上げたことで、社内での活用が本格化しました。

Replit AnimationはVeoSoraのようなAI動画生成とは異なり、モーショングラフィックススタジオを開発環境に組み込んだような位置づけです。ユーザーはローンチ対象や想定顧客、雰囲気を自然言語で伝えるだけで、絵コンテやコードを書く必要がありません。従来は数千ドルと数週間を要していた工程を大幅に短縮できます。

実践的なワークフローとしては、ビルドタイプをanimationに設定し、プロンプト最適化機能でシーン構成を自動生成した後、複数タブで並行生成して最良の要素を組み合わせる手法が推奨されています。特定シーンの修正も「イントロを変更」「トランジションを強く」といった対話的な指示で調整でき、ゼロからやり直す必要はありません。

都市監視AI「City Detect」が約20億円のシリーズA調達

サービスの仕組み

ごみ収集車にカメラ搭載
走行中に建物画像自動撮影
コンピュータビジョンで違反検出
人力比で数十倍の処理能力

プライバシーと展開

顔・ナンバープレートを自動ぼかし
落書きとストリートアートを識別
全米17都市以上で導入済
嵐被害の構造診断にも対応

City Detectは2026年3月、Prudence Venture Capital主導で1300万ドル(約20億円)のシリーズA資金調達を完了しました。同社はビジョンAIを活用し、地方自治体の建物・街区の健全性監視を支援するスタートアップです。

同社の技術は、ごみ収集車や道路清掃車などの公共車両にカメラを搭載し、走行中に周囲の建物を撮影するものです。取得した画像コンピュータビジョンで解析し、建築基準への適合状況を自動的に判定します。

検出対象はグラフィティ、不法投棄、路上のごみなど多岐にわたります。CEO のGavin Baum-Blake氏によれば、人手では週50件程度の点検が限界ですが、同社のシステムでは週数千件の処理が可能とのことです。

プライバシー保護にも配慮しており、顔やナンバープレートは常にぼかし処理が施されます。また、ストリートアートと落書きを区別する機能や、屋根の構造的問題や嵐による被害を検出する機能も備えています。

同社はダラスやマイアミなど17以上の都市で導入されており、SOC 2 Type II認証を取得済みです。調達資金はエンジニアの増員と嵐被害検出技術の強化、全米展開の加速に充てられる予定です。

Vercelが開発者向けAI・ビルド機能を一斉強化

AI Gateway刷新

Responses APIに対応
テキスト生成・ツール呼出し対応
構造化出力推論制御を追加
Chat SDKにテーブル描画機能

ビルド・API改善

デプロイが平均15%高速化
Bunモノレポの差分ビルドに対応
v0 APIがカスタムMCPサーバー対応
SDK経由でサーバー登録が可能

Vercel開発者プラットフォームの複数機能を同時にアップデートしました。AI GatewayOpenAIのResponses APIに対応し、Chat SDKにはテーブル描画とストリーミングMarkdown変換が追加されています。ビルド性能やモノレポ対応も改善されました。

AI GatewayのResponses API対応により、開発者OpenAI SDKのベースURLをAI Gatewayに向けるだけで、テキスト生成・ストリーミング・ツール呼び出し・構造化出力推論レベル制御といった機能を利用できます。TypeScriptとPythonの両方に対応しています。

Chat SDKの新しいTable()コンポーネントは、Slack・Teams・DiscordGoogle Chatなど各プラットフォームに最適なフォーマットでテーブルを自動変換します。ストリーミング時のMarkdownレンダリングも改善され、リアルタイムで書式が反映されるようになりました。

ビルド性能の面では、認証情報のプロビジョニング最適化によりデプロイが平均1.2秒短縮されました。複雑なプロジェクトでは最大3.7秒の改善が見られます。また、Bunのロックファイル検出に対応し、モノレポ内の影響のないプロジェクトのビルドをスキップできるようになりました。

v0 APIはカスタムMCPサーバーへの接続をサポートしました。チームはSDK経由でエンドポイントと認証情報を設定し、チャットセッション内でカスタムサーバーを直接利用できます。開発ワークフロー自動化と拡張性が大幅に向上しています。

Google、野生動物AI識別モデルSpeciesNetをオープンソース公開

SpeciesNetの概要

約2500種の哺乳類・鳥類・爬虫類を自動識別
2019年からWildlife Insightsで運用実績
無料オープンソースとして1年前に公開

世界各地での活用事例

セレンゲティで1100万枚を数日で処理
コロンビアで全国規模のカメラトラップ網構築
アイダホ州が数百台のカメラで野生動物管理に活用
豪州では固有種向けに独自学習を実施

Googleは、カメラトラップで撮影された野生動物の画像を自動識別するAIモデル「SpeciesNet」をオープンソースとして公開しました。約2500種の哺乳類・鳥類・爬虫類を認識でき、世界各地の保全活動で活用が進んでいます。

アフリカでは、タンザニアのセレンゲティ国立公園で運用される「Snapshot Serengeti」プロジェクトが、SpeciesNetを使って1100万枚の未処理写真を数日間で分析しました。従来はオンラインボランティアが分類していましたが、画像数が膨大すぎて対応しきれなくなっていました。

南米コロンビアでは、フンボルト研究所がWildlife Insightsの一環としてSpeciesNetを活用しています。全国規模のカメラトラップネットワーク「Red Otus」を立ち上げ、数万枚の画像を分析した結果、一部の哺乳類が夜行性化している兆候や、開発地域での鳥類の行動変化が確認されました。

北米では、アイダホ州魚類鳥獣局が州内数百台のカメラトラップ画像の分類にSpeciesNetを導入しています。専門家による最終確認の前段階でAIが種別に仕分けることで、年間数百万枚の画像処理が大幅に効率化されています。

オーストラリアでは、Wildlife Observatory of Australiaがオープンソースのモデルを基に地域固有種を識別できるよう追加学習を実施しました。他地域には生息しない希少種の監視・保全に特化したモデルとして運用され、絶滅危惧種の個体群維持に役立てられています。

AI盗聴防止ジャマー「Spectre I」が話題も実現性に疑問

製品概要と反響

Deveillance社が卓上型妨害装置発表
超音波とAIで音声録音を阻止
価格は1,199ドル、2026年後半発売
SNSで賛否両論の大きな反響

技術的課題と批判

物理法則の壁を指摘する専門家
RF検出によるマイク発見に懐疑的見解
ペットへの超音波影響が未検証
有効性の十分な証拠が未提示

プライバシー意識の高まり

常時録音型AIデバイスへの対抗手段
Ring社の監視カメラCMに消費者が反発
EFFプライバシー保護技術に期待

Deveillance社は、常時録音型AIウェアラブル音声キャプチャを妨害する卓上型デバイス「Spectre I」を発表しました。ハーバード大学卒業生のAida Baradari氏が開発し、超音波とAIを組み合わせた小型ポータブル設計で、2026年後半に1,199ドルでの販売を予定しています。

従来の超音波マイクジャマーは冷戦以前から存在しますが、十分な出力を確保すると大型化し、小型化すると性能が不足するという物理的制約がありました。Spectre IはAI生成の打ち消し信号で自動音声認識(ASR)を欺く方式を採用し、単なるノイズ壁ではなく音声の再構成自体を不可能にすると主張しています。

しかし専門家からは厳しい指摘が相次いでいます。シカゴ大学の言語学教授は人間の声の多様性を考慮すると特定信号での妨害は困難と述べ、エンジニアのDave Jones氏はRF検出によるマイク発見の主張を「Bluetooth機器のスキャンに過ぎない」と批判しました。YouTuberのBenn Jordan氏も「物理法則に逆らっている」と懸念を示しています。

この製品が注目を集めた背景には、プライバシー意識の急速な高まりがあります。米国ではICEによる監視体制の拡大が進み、Ring社のスーパーボウルCMが近隣監視への懸念から炎上し撤回に追い込まれるなど、消費者の常時録音デバイスへの反発が強まっています。Amazon傘下のBee AIブレスレットやFriendペンダントなど、AI時代の常時聴取デバイスが急増していることも不安を増幅させています。

サイバーセキュリティ研究者のJohn Scott-Railton氏は、技術的な課題を認めつつも「消費者の態度が録音デバイスに対して急速に変化していることの表れ」と評価しました。電子フロンティア財団(EFF)のCooper Quintin氏も「データ抽出ではなくプライバシー保護のための製品開発は歓迎すべき」と述べており、技術の実現性とは別に、規制やデバイスレベルの制御の必要性が改めて浮き彫りになっています。

AIスタートアップHayden AIが前CEOを提訴、41GBのデータ持ち出しを主張

訴訟の主な争点

前CEO、41GBのメール持ち出し疑惑
取締役会署名の偽造を主張
未承認の株式売却が発覚
経歴詐称の疑いも浮上

両社の動向

前CEOは競合EchoTwin AIを設立
Hayden AIの企業価値は4.64億ドル
裁判所にデータの返却・破棄を請求
EchoTwin側は報復への対抗と主張

サンフランシスコの空間分析AIスタートアップHayden AIが、共同創業者で前CEOのクリス・カーソン氏を提訴しました。2024年9月の解任直前に大量の機密情報を持ち出したと主張しており、サンフランシスコ上級裁判所に訴状が提出されています。

訴状によると、カーソン氏は41GBに及ぶメールデータの不正持ち出しに加え、取締役会の署名偽造、未承認の株式売却、個人的な経費の不正計上など「多数の詐欺的行為」を行ったとされています。さらに履歴書への虚偽記載も指摘されています。

カーソン氏はその後、オークランドに競合企業EchoTwin AIを設立しました。訴状に引用された同氏のメールによれば、同社は「Hayden取締役会からの報復に対する直接的な対応」として創業されたと説明しています。

Hayden AIはPitchBookによる推定企業価値が約4億6400万ドル(約700億円)に達する企業で、都市向けの空間分析ツールを提供しています。直近ではカリフォルニア州サンタモニカでAI搭載の駐車カメラを自転車レーン保護に展開するなど事業を拡大中です。

Hayden AIは裁判所に対し、カーソン氏が持ち出したとされるデータの返却もしくは破棄を命じる仮差止命令を求めています。カーソン氏はメディアの取材に応じておらず、EchoTwin AIのオフィスへの訪問にも応答がなかったと報じられています。

生成AIドキュメンタリー映画、業界首脳へのアクセスを活かせず

映画の構成と問題点

4幕構成で監督の心境変化を追う
悲観論者と楽観論者を対比する構成
誇張的言説への批判的検証が不足
AI業界への広告的内容に終始

評価できる点と限界

第3幕でLLMの本質に言及
低賃金労働や環境負荷の実害に触れる
映画制作への影響を問わない矛盾
公開時点で内容が陳腐化する構造的弱点

Focus Featuresが配給する生成AIドキュメンタリー映画『The AI Doc』が2026年3月27日に米国で劇場公開されます。共同監督のダニエル・ローアー氏とチャーリー・タイレル氏が、生成AIの台頭を多角的に描こうと試みた作品です。

本作は研究者、開発者、AI企業CEOへの豊富なアクセスを確保しながらも、それを効果的に活用できていないと批判されています。ローアー監督は自身の父親になる不安を軸に、AIの脅威と可能性を探る個人的な旅として映画を構成しています。

前半ではCenter for Humane Technologyの共同創設者らAI悲観論者が人類滅亡シナリオを語り、後半ではAnthropic社長のダニエラ・アモデイ氏やリンクトイン共同創設者リード・ホフマン氏がAIの楽観的未来を提示します。しかし双方の誇張的主張に対する批判的検証が欠如しています。

第3幕ではジャーナリストのカレン・ハオ氏や内部告発者が登場し、LLMがパターン認識機械に過ぎないことや、データセット処理に低賃金労働者が搾取されている実態に触れます。しかし各テーマの掘り下げが浅く、最も鋭い指摘が十分に強調されていません。

特に問題視されているのは、OpenAIのアルトマンCEOやAnthropicのアモデイCEOへのインタビューが、国防総省との契約問題やイラン関連のAI使用といった公開時の最新情勢を踏まえると表面的に映る点です。AI技術の社会的影響を深く理解するための入門書が求められる時代に、本作はその期待に応えられていないと評されています。

Google I/O 2026の事前パズルにGemini活用のAIゲーム5種

AIゲームの全容

Gemini活用の5種類のゲーム公開
声で操作する横スクロール型ゲーム
AIキャディが助言するミニゴルフ
動的生成されるロジックパズル

開発者向け設計

AI Studioでプロトタイプ開発
ゲームコードの改変・再利用が可能
全完了で仮想Chrome Dinoを獲得
5月19〜20日に本編開催予定

Googleは2026年5月19〜20日にマウンテンビューのショアライン・アンフィシアターで開催するGoogle I/O 2026に先立ち、Geminiを活用した5種類のAIゲームからなる恒例の事前パズル体験を公開しました。

5つのゲームはそれぞれ異なるジャンルで、Geminiがゲーム設計に与える多様な影響を示しています。「Supersonic Bot」では声の音量でAndroid Botの飛行を操作し、「Hole in one」ではAIキャディがショットに応じたリアルタイムの助言を生成します。

ロジックパズル「Nonogram」では最初のレベルは固定ですが、レベル2と3はGeminiが動的に生成するため、プレイするたびに新しい挑戦が楽しめます。5つのゲームをすべてクリアすると、固有の性格を持つ仮想Chrome Dinoペットが報酬として付与されます。

開発チームはGoogle AI Studioのサンドボックスでクリエイター開発者が協力し、多数のゲームアイデアを高速にプロトタイピングしました。Geminiが生成したコードの多くはそのまま本番環境で使用可能だったと担当者は述べています。

このプロジェクトの核となる特徴は、開発者AI Studio上でコードを探索・改変し、自分だけのゲームを構築できる点です。Googleはこの体験を通じ、AIが創作プロセスと最終的な体験の両方にシームレスに組み込めることを示す狙いがあると説明しています。