DeepMind、英国AI研究所と安全性研究で提携拡大

提携拡大の背景と概要

英国AISIと新たな覚書を締結
モデルテストから基礎研究へ拡大
独自データやアイデアを共有

重点研究領域

思考の連鎖の監視技術開発
人間の幸福との不整合を調査
労働市場への経済的影響予測
詳細を読む

2025年12月11日、Google DeepMind英国AIセーフティ研究所(AISI)とのパートナーシップ拡大を発表しました。新たな覚書を締結し、従来のモデル評価だけでなく、AIの安全性を担保するための基礎研究へと協力範囲を広げます。高度なAIがもたらすリスクを科学的に解明し、開発プロセスの中核に安全性を据えることで、社会全体の利益最大化を目指します。

今回の提携では、DeepMindが保有するプロプライエタリなモデルやデータへのアクセスを共有します。両者の専門家が連携して共同レポートを作成し、技術的な議論を深めることで、複雑化する安全上の課題解決を加速させます。

具体的な研究テーマとして、AIの「思考の連鎖CoT)」モニタリングに取り組みます。AIが回答に至るプロセスを可視化・監視する技術を開発し、ブラックボックス化しやすいAIの挙動に対する解釈可能性を高めます。

また、AIが指示通りに動作しても人間の幸福を損なう「社会情動的な不整合」のリスクも調査対象です。技術的な正確さだけでなく、倫理的な側面からもAIの振る舞いを検証し、意図せぬ悪影響を防ぎます。

さらに、AIが経済システムに与える影響のシミュレーションも行います。多様な環境下でのタスク遂行をモデル化し、労働市場への長期的な波及効果を予測することで、将来的なリスクへの備えを強化します。