企業AI防衛に死角、端末推論とデータドリフト

端末上の影のAI利用

開発者がローカルで未承認モデルを実行
ネットワーク監視では検知不能
コード汚染やライセンス違反の温床

データドリフトの脅威

訓練時と異なるデータで精度が低下
攻撃者がモデルの盲点を悪用
予測信頼度の低下が早期警告に

対策の方向性

端末レベルのガバナンス強化が急務
社内モデルハブで安全な選択肢を提供
詳細を読む

企業のAIセキュリティに新たな死角が生まれています。従来のセキュリティ対策はクラウドAPIへのデータ流出を監視する方針でしたが、開発者が高性能ノートパソコン上でオープンウェイトの大規模言語モデルをローカル実行する「Shadow AI 2.0」とも呼ばれる現象が広がり、ネットワーク監視では捕捉できないリスクが顕在化しています。同時に、セキュリティ機械学習モデルの入力データが時間とともに変質する「データドリフト」も、防御力を静かに蝕んでいます。

端末上でのAI推論が実用的になった背景には、3つの技術的変化があります。64GBメモリ搭載のMacBook Proで700億パラメータ級モデルが動作可能になったこと、量子化技術の普及、そしてOllamaなどのツールによる導入の容易さです。開発者はWi-Fiを切った状態でソースコードレビューや機密文書の要約を行えるため、プロキシログやクラウド監査証跡が一切残りません。

ローカル推論がもたらすリスクは3種類に分類されます。第一に、未検証モデルが生成したコードがセキュリティ脆弱性を含んだまま本番環境に混入する「整合性リスクです。第二に、非商用ライセンスのモデルで業務コードを生成してしまう「コンプライアンスリスク」があります。第三に、Pickle形式のPyTorchファイルなど悪意あるペイロードを含みうるモデルファイルをダウンロードしてしまう「サプライチェーンリスク」です。

一方、データドリフトの問題も深刻です。機械学習モデルは過去のデータのスナップショットで訓練されるため、現在の攻撃パターンと乖離すると検知精度が低下します。2024年にはエコースプーフィング手法でメール保護サービスのML分類器が突破される事例も発生しました。性能指標の急落、統計分布の変化、予測挙動の変動、信頼度スコアの低下、特徴量間の相関変化が、ドリフト発生の5つの兆候です。

対策としては、ネットワーク監視だけでなくエンドポイントレベルでのガバナンス強化が不可欠です。MDMやEDRを活用して未承認の推論ランタイムを検知し、社内にライセンス検証済みのモデルカタログを整備することが推奨されています。データドリフトに対しては、KS検定やPSIによる継続的な分布監視と、最新データによるモデル再訓練が基本的な対処法です。AIセキュリティの境界線はクラウドから端末へと回帰しつつあり、企業は両面からの防御態勢を構築する必要があります。