DeepMind系AIが「公平ゲーム」で敗北する構造的欠陥が判明

AI活用

研究の背景と発見

AlphaGo系の訓練手法に限界
囲碁で初心者に敗北する事例
Nimなど公平ゲームで体系的失敗

公平ゲームの特性

両者が同一駒・同一ルールで対戦
Nimが全公平ゲームの代表例
AI安全性向上への示唆
訓練手法の盲点解明が目的
詳細を読む

Google DeepMindのAlphaシリーズが採用する自己対戦型の訓練手法が、「公平ゲーム」と呼ばれるカテゴリ全体で機能しないことが、Machine Learning誌に掲載された最新の研究論文で明らかになりました。

AlphaGoやAlphaChessはチェス囲碁を自己対戦で習得し、人間の世界チャンピオンを破る実力を示してきました。しかし近年、囲碁の特定の局面でアマチュア棋士にも敗北する弱点が相次いで報告されています。

研究者らが検証に用いたNimは、ピラミッド状に並べたマッチ棒を交互に取り除く単純なゲームです。子供でも学べるルールですが、AIの訓練手法の根本的な問題を浮き彫りにする重要な題材となりました。

Nimは「公平ゲーム」の代表例です。チェスのように各プレイヤーが固有の駒を持つのではなく、両者が同一の駒と同一のルールで対戦する点が特徴です。数学的定理により、あらゆる公平ゲームの局面はNimの配置で表現可能とされています。

ボードゲームでAIに勝つこと自体は些末に見えますが、この研究はAIの失敗モードを特定する手がかりとなります。AIの判断への依存が広がるなか、訓練段階での盲点を事前に防ぐことが安全性確保の鍵になると研究者らは指摘しています。