Claude Code流出コードにマルウェア混入、GitHubで拡散

流出と悪用の経緯

Anthropicがソースコードを誤公開
GitHub上に8000超のリポジトリ複製
情報窃取マルウェアを埋め込み再配布
著作権侵害通知で96件に対応絞り込み

過去の類似手口

Google広告で偽インストール誘導の前例
ターミナル不慣れな初心者が標的
正規ガイド装いマルウェア配布の手口

対策の現状

Anthropic著作権通知で削除を推進

Anthropicが自社の人気バイブコーディングツール「Claude Code」のソースコードを誤って公開したことが、今週セキュリティ研究者によって報告されました。この流出を受け、多数のユーザーがGitHub上にコードを再投稿する動きが広がっています。

しかしBleepingComputerの報道によると、再投稿されたリポジトリの一部には情報窃取型マルウェアが密かに埋め込まれていることが判明しました。攻撃者は流出コードへの関心を悪用し、ダウンロードしたユーザーの個人情報を盗み取ろうとしています。

Anthropicは当初GitHub上の8000件以上のリポジトリに対して著作権侵害による削除申請を行いましたが、最終的に対象を96件のコピーおよび派生物に絞り込みました。Wall Street Journalがこの対応の経緯を報じています。

Claude Codeを狙った攻撃はこれが初めてではありません。3月には404 Mediaが、Google検索広告を利用して偽のClaude Codeインストールガイドへ誘導する手口を報告しています。ターミナル操作に不慣れなユーザーが特に狙われやすい状況です。

こうした攻撃手法は、正規のインストール手順を装ってマルウェアを実行させるソーシャルエンジニアリングの典型例です。オープンソースリポジトリを利用する際は、提供元の信頼性を慎重に確認することが求められています。

Anthropic、サブスクでの外部エージェント利用を制限

制限の背景と内容

サブスクでの第三者ハーネス利用停止
OpenClawを皮切りに全外部ツールへ拡大
従量課金の「Extra Usage」への移行を要求
計算負荷とキャッシュ効率の低さが原因

業界の反応と影響

OpenClaw創設者が反オープンソースと批判
1日あたり最大5千ドルのAPI費用負担
OpenAIが受け皿として存在感
月額相当の一時クレジットで離脱防止策

Anthropicは2026年4月4日、Claude ProおよびMaxのサブスクリプション契約者がOpenClawなどの第三者AIエージェントツールで利用枠を消費することを禁止すると発表しました。今後は従量課金の「Extra Usage」またはAPIへの移行が必要となります。

Claude Code責任者のBoris Cherny氏はX上で、サブスクリプションは第三者ツールの使用パターンを想定して設計されていないと説明しました。自社ツールはプロンプトキャッシュのヒット率を最適化しているのに対し、外部ハーネスはこの効率化を迂回しており持続可能な提供が困難だとしています。

移行の緩和策として、Anthropicは既存契約者に月額プラン相当の一時クレジットを4月17日まで提供するほか、Extra Usageバンドルの事前購入で最大30%の割引を用意しています。

一方、OpenClaw創設者でOpenAIに移籍したPeter Steinberger氏は「自社ハーネスに人気機能を取り込んだ後にオープンソースを締め出している」と批判しました。同氏はAnthropicとの交渉で施行を1週間遅らせるのが限界だったと明かしています。

開発者コミュニティからは、OpenClawエージェント1台で1日あたり1,000〜5,000ドルのAPI費用がかかるとの試算が示され、小規模ユーザーが他モデルへの乗り換えを検討する声も上がっています。AnthropicUI層の主導権を確保する一方、パワーユーザーの離反リスクが指摘されています。

サイバーセキュリティ共通言語OCSFが業界標準に急成長

OCSFの概要と急拡大

ベンダー中立のオープンソーススキーマ
参加組織が17社から200超に拡大
2024年11月にLinux Foundation加入
AWS・Splunk・CrowdStrikeなど主要製品が対応

AI時代の新たな役割

AIエージェントの行動追跡に共通スキーマが不可欠
バージョン1.5〜1.7でAI関連イベント対応
1.8.0でLLMのトークン異常検知を計画
SOCのデータ統合コストを大幅削減

Open Cybersecurity Schema Framework(OCSF)は、セキュリティイベントデータの記述方法を統一するオープンソースフレームワークです。2022年にAWS・Splunkが発表し、現在は900人超の貢献者を擁する業界標準へと成長しています。

セキュリティ運用の現場では、異なるツールが同じ概念を別々のフィールド名や構造で表現するため、データの正規化に膨大な時間がかかります。OCSFはベンダー中立の共通データモデルを提供し、SIEM・データレイク・分析パイプライン間の変換コストを削減します。

AWS Security LakeやSplunk、CrowdStrike Falcon、Palo Alto Networksなど主要セキュリティ製品がOCSFに対応済みです。抽象的な標準規格から実運用のインフラへと移行した点が、従来の業界標準との大きな違いです。

AI基盤の普及により、LLMゲートウェイエージェント実行環境、ベクトルストアなど新たなテレメトリ源が増加しています。AIアシスタントが誤ったツールを呼び出したり機密データにアクセスしたりするセキュリティイベントを、システム横断で把握する必要性が高まっています。

OCSFはバージョン1.5.0から1.7.0でAI関連の異常行動検知やツール呼び出しの追跡機能を追加しました。開発中の1.8.0では、トークン数の急増からプロンプトインジェクション情報漏洩の兆候を検知する仕組みが計画されています。

フォーク歌手、AI偽造曲と著作権悪用の標的に

AIカバーの無断配信

Spotify上にAI生成の偽楽曲が本人名義で出現
本人が抗議し大半は削除も一部は別名義で残存
Spotifyがアーティスト承認制をテスト中

パブリックドメイン曲の権利詐称

配信業者Vydia経由で著作権侵害の虚偽申立
対象は1870年代からの伝統曲で本来は公有
YouTube Content IDが虚偽申立を受理
Vydia側は申立者をプラットフォームから追放

複合的な制度の脆弱性

AI生成・音楽配信・著作権の各制度に悪用の余地

フォーク歌手のマーフィー・キャンベル氏が、自身のSpotifyプロフィール上にAI生成と見られる偽の楽曲が無断で掲載されていたことを2026年1月に発見しました。YouTubeに投稿した演奏をもとにAIカバーが作成され、本人名義で配信されていたとみられます。

キャンベル氏の抗議により大半の偽楽曲はYouTube MusicやApple Musicから削除されましたが、Spotifyでは別アーティスト名義で同名の楽曲が残存しています。Spotifyは楽曲の事前承認機能をテスト中ですが、同氏は大手プラットフォームの対応に懐疑的な姿勢を示しています。

さらに音楽配信業者Vydiaを経由した著作権の虚偽申立YouTubeのContent IDシステムを通じて行われました。対象は「In the Pines」など1870年代から存在するパブリックドメイン楽曲で、本来は誰もが自由に演奏できる作品です。

Vydiaは虚偽申立を取り下げ、申立者をプラットフォームから追放しました。同社は600万件超の申立のうち無効はわずか0.02%と説明しましたが、AI偽造との関連は否定しています。

キャンベル氏は、生成AI・音楽配信・著作権制度の各段階に悪用可能な構造的脆弱性があると指摘しています。個別のプラットフォームだけでなく、業界全体の仕組みに根深い問題があるとの見解を示しました。

NVIDIA、ロボティクス週間で物理AI技術を紹介

物理AIの技術基盤

シミュレーションから実環境への展開加速
合成データによるロボット学習の効率化
認識・推論・行動を統合する基盤モデル

産業応用の広がり

農業・製造・エネルギー分野での導入拡大
仮想環境での訓練から実世界配備への移行
開発者向けプラットフォームの整備

NVIDIAは全米ロボティクス週間に合わせ、AIを物理世界に応用する「物理AI」分野の最新技術と成果を公開しました。農業、製造、エネルギーなど幅広い産業でロボット活用が進んでいる現状を紹介しています。

同社が注力するのは、ロボットの学習・シミュレーション基盤モデルの3領域です。これらの技術進歩により、仮想環境での訓練から実世界への展開がこれまでにない速度で可能になっていると説明しています。

NVIDIAシミュレーション合成データ生成、AI駆動のロボット学習の各プラットフォームを開発者に提供しています。これにより複雑な環境下で認識・推論・行動できるロボットの構築が可能になります。

同社は全米ロボティクス週間を通じて、物理AI技術に関する最新情報を継続的に発信する方針を示しており、今後の具体的な技術発表にも注目が集まっています。

「AI不使用」認証の統一規格を求めるクリエイターたち

乱立する認証の現状

12種以上のAI不使用ラベルが乱立
検証方法は手作業確認からブロックチェーンまで多様
C2PAのAIラベル規格は実効性を欠く状態

統一規格への課題

「人間制作」の定義自体が曖昧
不正使用を完全に防ぐ手段がない
政府・規制当局との連携が不足
フェアトレードのような世界共通認証が理想

AI生成コンテンツが急増する中、人間のクリエイターが自身の作品を区別するための「AI不使用」認証ラベルの統一規格を求める動きが広がっています。The Vergeの調査によると、現在少なくとも12種類の認証サービスが乱立しています。

Instagramアダム・モッセーリ氏は、AI技術の進化に伴い「偽物より本物のメディアに指紋をつける方が現実的だ」と指摘しています。業界標準として期待されたC2PAは、AIコンテンツ側が出自の開示を避けるため実効性を発揮できていません。

認証サービスの検証方法には大きなばらつきがあります。Made by Humanは信頼ベースでバッジを配布し、No-AI-IconはAI検出ツールで審査します。最も信頼性が高いのはスケッチや草稿を人間の監査員に提示する手作業確認ですが、極めて手間がかかります。

人間制作」の定義も課題です。UCバークレーの研究者は、LLMとアイデアを議論してから手動で制作した場合もAI使用に該当するのかと問題提起しています。Not by AIは作品の90%以上が人間による制作であれば認証する基準を採用しています。

ブロックチェーン技術を活用したProof I Did Itなどのサービスは、改ざん不可能なデジタル証明書で人間の制作履歴を証明する手法を提案しています。カリフォルニア大学の専門家は、これにより真正性を数学的に保証できると評価しています。

Proudly HumanのCEOは、認証マークの不正利用を完全に防ぐことは難しいと認めつつ、消費者が容易に検証できる仕組みを整備していると説明しています。政府や規制当局との正式な統一規格の交渉はまだほとんど進んでいない状況です。

フェアトレードやオーガニック認証のような世界共通の統一規格を実現するには、クリエイター・プラットフォーム・各国政府が協調して一つのアプローチに集約する必要があります。AI技術の進化速度が規制の対応を上回る中、早期の合意形成が求められています。