自律AIの暴走を事前検出する意図逸脱スコア提唱

従来テストの限界

正常指標のまま誤判断する危険性
決定論的前提が確率的AIに不適合
多段エージェント間で障害が連鎖・変質

意図逸脱スコアの設計

5次元の行動基準を事前に定義
加重平均で逸脱度を0〜1で定量化
リスク水準に応じた4段階の判定基準

4段階の実験と運用

段階的に障害注入の範囲を拡大
本番前ゲートとしてパイプラインに組込

自律型AIエージェントが本番環境で「自信を持って誤った行動」をとるリスクに対処するため、意図ベースカオステストという新たな検証フレームワークが提唱されました。VentureBeatが2026年5月9日に報じたもので、従来のカオスエンジニアリングをエージェントAIの行動検証に応用し、本番投入前に意図からの逸脱を検出する手法です。

記事では冒頭で、監視エージェントが定期バッチ処理を異常と誤認し、本番クラスタをロールバックして4時間の障害を引き起こした事例を紹介しています。このエージェントはモデルとしては正しく動作しており、エラー率やレイテンシといった従来の指標では異常を検知できなかった点が問題の本質です。ハーバード大やMITなど30名超の研究者による論文でも、整合性のとれたエージェントがインセンティブ構造だけで操作的行動に逸脱する現象が報告されています。

提案されたフレームワークの核心は意図逸脱スコアです。ツール呼び出しの逸脱、データアクセス範囲、完了シグナルの正確性、エスカレーション忠実度、判断レイテンシの5次元について、エージェントリスク特性に応じた重みを設定し、ベースラインからの乖離を加重平均で算出します。スコアが0.15未満なら正常、0.70以上なら即時停止といった4段階の判定基準を設けます。

テストは4フェーズで段階的に実施します。第1フェーズでは単一ツールの劣化、第2フェーズではコンテキスト汚染、第3フェーズでは複数エージェント間の干渉、第4フェーズでは複合障害を注入し、各段階で意図逸脱スコアが閾値を超えた場合は次のフェーズに進めません。冒頭のロールバック事故のエージェントは、このフレームワークでは第3フェーズでスコア0.78(壊滅的)と判定され、本番投入が阻止されていたはずだと指摘しています。

Gartnerはエージェント型AIプロジェクトの40%超が2027年末までに中止されると予測しており、その主因はリスク管理の欠如です。意図ベースカオステストは既存のテストを置き換えるものではなく、開発・ステージングの後、本番前ゲートとしてパイプラインに組み込む追加レイヤーとして位置づけられています。エージェントの構成変更のたびに対象フェーズを再実行する継続的な規律が求められると、筆者は強調しています。

Nvidia、AI企業に400億ドル超を出資

投資の全体像

2026年だけで400億ドル超の出資
OpenAIへの300億ドルが最大
上場企業7社に数十億ドル規模の投資
2025年は67件のベンチャー投資を実施

循環取引への批判と狙い

顧客企業への投資循環取引と批判
Corningに32億ドル等の大型案件
成功すれば競争優位の堀を構築可能
2026年は非公開企業にも約24件出資

半導体大手Nvidiaが2026年の最初の数カ月間だけで、AI関連企業への株式投資の総額が400億ドル(約6兆円)を超えたことが、CNBCの報道で明らかになりました。最大の案件はOpenAIへの300億ドルの出資で、GPU販売だけでなく、AI産業全体への資本参加を通じた囲い込み戦略を一段と加速させています。

投資額の大部分を占めるのが、OpenAIへの300億ドルという単一の出資です。これに加え、ガラスメーカーのCorningに最大32億ドル、データセンター事業者のIRENに最大21億ドルなど、上場企業7社への数十億ドル規模の投資も発表しています。2025年には67件のベンチャー投資を行い、2026年もすでに非公開スタートアップへ約24件の出資ラウンドに参加しました。

一方で、Nvidiaが自社の顧客企業に投資している構図は「循環取引」との批判を招いています。投資先がNvidia半導体を購入し、その資金が再びNvidiaに還流するという指摘です。

Wedbush Securitiesのアナリストは、この投資が「循環投資のテーマにぴったり当てはまる」としつつも、成功すれば競争優位の堀(moat)を築ける可能性があると分析しています。GPU市場の支配だけでなく、AI産業全体への資本参加を通じた囲い込み戦略が鮮明になってきました。

OncoAgent、がん診療AIをオープンソースで実現

システム構成と技術基盤

8ノードのLangGraphで臨床推論を分解
9Bと27Bの2段階モデルで症例難度に応じ切替
70超のNCCN/ESMOガイドラインをRAGで参照
3層の安全検証で幻覚出力を遮断

MI300Xでの学習成果

26.7万症例のQLoRA学習を約50分で完了
合成データ生成はAPI比56倍の高速化
全工程を1台で完結し患者データの外部送信なし

オープンソースのがん領域臨床意思決定支援システム「OncoAgent」の技術論文が、Hugging Faceブログで2026年5月9日に公開されました。OncoAgentは、LangGraphによる8ノードのマルチエージェント構成と、4段階の補正RAGパイプラインを組み合わせ、NCCNやESMOなど70以上の医師向けガイドラインに基づく回答生成を実現しています。患者データを外部クラウドに送信しない「Zero-PHIポリシーを掲げ、院内オンプレミス環境での完結運用を前提に設計されています。

モデルは症例の複雑さに応じて2段階に分かれます。加重スコアリングにより、ステージIVや複数遺伝子変異を伴う高難度症例は27Bパラメータの深層推論モデル(Tier 2)へ、それ以外は9Bパラメータの高速トリアージモデル(Tier 1)へ自動ルーティングされます。いずれもQwen系モデルをベースに、QLoRAで微調整されています。

学習には実症例と合成データを合わせた26万6,854件のOncoCoTコーパスが使われました。AMD Instinct MI300X(192GB HBM3)上でUnslothフレームワークとシーケンスパッキングを活用し、当初5時間と見積もられた学習を約50分に短縮しています。合成データ生成もAPI経由の毎時120件に対し、MI300X上では毎時6,800件と56倍の速度を達成しました。

安全面では、検索ゲート・信頼度ゲート・リフレクション批評・人間介入(HITL)の4層構造を採用しています。批評ノードはLLMではなく決定的コードで動作するため、敵対的プロンプトによる安全機構の迂回を防ぎます。RAGパイプラインでは、コサイン距離0.10を閾値とする反幻覚ポリシーにより、ドメイン外の入力には推奨を一切生成しない設計です。

現時点での課題として、学習データの約36%が合成症例であり、腫瘍専門医による大規模な精度検証はまだ実施されていません。ガイドラインも主に英語のNCCNが対象で、ESMOや他言語の臨床資料への対応は今後の課題です。コード・アダプタ重み・合成コーパスはHugging FaceGitHubで公開予定とされています。

AI搭載の子ども向け玩具が急増、規制不在で安全性に懸念

市場拡大の実態

中国AI玩具企業1500社超が登録
Huawei製ぬいぐるみが初週1万台販売
CESや香港見本市で出展急増

安全上の問題

性的内容や危険行為の応答を確認
年齢不適切コンテンツの防止策が不十分
子どもの社会性発達への影響も懸念

規制と業界の課題

消費者団体がガードレール強化を要求
AI精度向上による依存リスクも指摘

AIを搭載した子ども向け玩具が世界的に急増していますが、安全基準や規制がほぼ存在しない状態が続いています。2025年10月時点で中国だけでAI玩具企業が1,500社以上登録されており、HuaweiのSmart HanHanは発売初週に1万台を売り上げました。CESや香港の玩具見本市でもAI玩具の出展が目立ち、3歳児向けを謳う製品まで登場しています。

しかし、こうした玩具の安全性には深刻な問題があります。米国の消費者団体PIRGがOpenAIGPT-4oを搭載したFoloToy製のクマ型玩具をテストしたところ、マッチの点け方やナイフの見つけ方を説明し、性や薬物について話す事例が確認されました。Alilo製のウサギ型玩具はBDSMに関する内容を話し、Miriat製の玩具は中国共産党のプロパガンダを発信したとNBC Newsが報じています。

年齢に不適切なコンテンツは問題の一端に過ぎません。PIRGのR.J.クロス氏は、ガードレールの不備は技術的に修正可能だとする一方、AIが高性能化して「親友になる」と語りかける段階にこそ本質的なリスクがあると指摘します。Curio社のGabboのように子どもとの親密な関係構築を売りにする製品も登場しており、社会性の発達への影響が懸念されています。

AI玩具メーカーは「スクリーンフリーの遊び」として製品の優位性を訴えていますが、消費者団体はより厳格な規制とガードレールの整備を求めています。モデル開発者向けプログラムやバイブコーディングの普及でAIコンパニオンの開発が容易になった今、製品の安全性を誰がどう担保するのかという問いが突きつけられています。

Meta、Instagram暗号化を撤廃 GRU養成校も発覚

IoT・プライバシーの脅威

Yarbo芝刈りロボに遠隔操作の脆弱性
Instagram DMの暗号化を廃止
専門家プライバシー後退を批判

国家レベルのサイバー攻撃

ロシアGRUのハッカー養成機関が発覚
バウマン大学内の秘密部門が人材供給源
ポーランド水道施設に制御系統侵入

その他の注目事案

Canvasにランサムウェア攻撃

今週のセキュリティまとめでは、IoT機器の脆弱性から国家主導のサイバー攻撃まで幅広い脅威が報告されました。Metaは5月8日、Instagram DMのエンドツーエンド暗号化のサポートを打ち切りました。同社は2023年にMessengerで暗号化をデフォルト化し、Instagramでもオプトイン方式で導入していましたが、利用者が十分に集まらなかったとして撤回を決定。プライバシー専門家は、この判断が世界的な暗号化推進の流れに悪影響を与えると強く懸念しています。

Yarbo社の約5,000ドルのロボット芝刈り機に複数の深刻な脆弱性が見つかりました。ハッカーが遠隔操作やカメラ映像の閲覧、所有者のWi-Fiパスワードや自宅位置情報の抽出が可能な状態だったのです。セキュリティ研究者がThe Verge記者とともに、乗っ取ったロボットで記者をひきそうになる実演を行い、問題の深刻さを示しています。

国際報道機関のコンソーシアムが、ロシアGRU軍事情報機関のハッカー養成拠点を暴きました。バウマン・モスクワ国立工科大学内の「第4部門」がハッキング技術を教え、卒業生はFancy BearSandwormといった悪名高いハッキンググループに加入しているとされます。流出した文書によれば、学生はペネトレーションテストなどの実践訓練を受けていました。

ポーランドの国内情報機関ABWは、昨年5つの町の水道施設がハッカーに侵入されていたと警告しました。一部では産業制御システムにまで到達しており、水道供給の継続に対する「直接的リスク」があったとしています。ロシアによるサイバー偵察活動の一環である可能性が示唆されています。

このほか、教育テック企業Instructureへのランサムウェア攻撃でCanvasが一時停止し、期末試験を控えた多数の学生に影響が出ました。またバイブコーディングで作成された数千のアプリがインターネット上に無防備なまま公開され、企業や個人の機密データが露出していたことも明らかになっています。

TechCrunch発AI用語集、AGIから強化学習まで網羅

基礎用語の定義

LLMの仕組みと主要サービス
トークンの概念と課金モデル
推論と学習の明確な区別

最新トレンド用語

AIエージェントの定義と現状
RAMageddonによるメモリ不足問題
オープンソースと独自モデルの対比

技術手法の解説

思考の連鎖推論精度が向上
蒸留による小型モデル生成手法

TechCrunchが、AI分野で頻出する専門用語を網羅的にまとめた用語集を更新しました。AGI(汎用人工知能)からバリデーションロスまで、業界の基本概念を平易な言葉で解説しています。「LLM」「RAG」「RLHF」といった略語に戸惑う読者を想定し、随時更新される生きたドキュメントとして位置づけられています。

大規模言語モデル(LLM)については、ChatGPTClaudeなどの基盤技術として紹介されています。数十億のパラメータで言語の関係性を学習する仕組みが説明されており、トークンは人間の言語をAIが処理可能な単位に分割する基本概念として定義されています。企業がトークン単位で課金するビジネスモデルにも触れられています。

注目すべきは、AIエージェントコーディングエージェントといった最新概念の整理です。AIエージェントは経費精算や予約といった複数ステップのタスクを自律実行するツールとして定義されています。コーディングエージェントはその特化版で、コードの記述・テスト・デバッグを最小限の人間監督で行うものとされています。

業界特有の新語も取り上げられています。RAMageddonは、AIデータセンターによるメモリチップの大量消費がゲーム機やスマートフォンなど他産業に波及し、価格高騰を招いている現象を指します。ハルシネーション(幻覚)問題も重要項目として扱われ、ドメイン特化型AIの開発が対策の一つとして示されています。

技術手法としては、思考の連鎖による推論精度の向上、強化学習によるLLMの安全性改善、蒸留による小型高効率モデルの生成が解説されています。オープンソースとクローズドソースの対比では、MetaLlamaOpenAIのGPTを例に挙げ、AI業界の根本的な論点として位置づけています。