カナダ銃撃事件の遺族がOpenAIを提訴、通報怠慢を追及
詳細を読む
2026年4月29日、カナダ・ブリティッシュコロンビア州タンブラーリッジの学校銃撃事件で被害を受けた7家族が、米カリフォルニア州の裁判所にOpenAIとCEOサム・アルトマンを相手取り訴訟を提起しました。訴状によると、事件の約8か月前にOpenAIの内部安全チームが容疑者のChatGPTアカウントを銃暴力の「信頼できる脅威」としてフラグを立て、警察への通報を勧告していました。
しかしOpenAIの経営陣は、ユーザーのプライバシーや警察との接触によるストレスを理由に通報を見送りました。Wall Street Journalの報道によれば、内部告発者は安全チームの勧告が却下された経緯を証言しています。容疑者にはすでに警察の記録があり、過去に自宅から銃が押収された前歴もありました。
さらに訴状は、OpenAIがアカウントを「禁止した」と主張しながら、実際には単に無効化しただけだったと指摘しています。その後OpenAIは容疑者に対し、別のメールアドレスで新規アカウントを作成する方法を案内したとされ、「安全策を回避した」という同社の後の説明は虚偽だと主張しています。
遺族側はまた、OpenAIが当時進めていたIPO準備に伴う企業イメージの保護が通報拒否の動機だったと訴えています。加えて、昨年「過度に追従的」として撤回されたGPT-4oのアップデートの設計上の欠陥も事件に寄与したとして、過失責任・不法行為死亡・大量殺人の幇助などを訴因に挙げています。
アルトマンCEOは先週、人口約2,000人のタンブラーリッジのコミュニティに向けて公開謝罪を行い、「6月に禁止したアカウントについて法執行機関に通報しなかったことを深くお詫びする」と述べました。今後は政府と連携して同様の悲劇を防ぐと表明しましたが、訴訟の行方はAI企業の安全責任に関する重要な判例となる可能性があります。