AIチャットボット10分間の利用で問題解決力が低下、研究が警告

研究の概要と結果

10分間のAI利用で影響確認
3つの実験で数百人規模を調査
AI除去後に正答率が大幅低下
問題への粘り強さが減退

AI設計への提言

直接回答型から支援型への転換提案
教師のような足場かけ機能の必要性
学習と生産性バランスが課題
長期的な人間能力への配慮を主張
詳細を読む

カーネギーメロン大学、MIT、オックスフォード大学、UCLAの研究チームは2026年5月、AIチャットボットをわずか10分間使用しただけで、人間の問題解決における粘り強さが大幅に低下するという研究結果を発表しました。この研究は、AI活用が短期的な生産性を高める一方で、基礎的な思考力を損なうリスクを実験的に示した点で注目されています。

研究チームは3つの実験を実施し、それぞれ数百人の参加者をオンラインプラットフォーム上で調査しました。参加者は分数計算や読解問題などに取り組み、一部には問題を自律的に解けるAIアシスタントが提供されました。その結果、AIを使用していた参加者は、AIが突然取り除かれた後に問題を途中で諦めたり、誤答する割合が有意に高くなることが判明しました。

研究を主導したMIT助教のミヒール・バッカー氏は、「AIを教育や職場から排除すべきだということではない」と述べつつも、AIが提供する支援の種類とタイミングについて慎重になるべきだと指摘しています。同氏は、問題解決における粘り強さが新しいスキルの習得や長期的な学習能力の予測因子であることから、この発見は特に懸念されると強調しました。

バッカー氏は、AIツールの設計を見直す必要性を訴えています。優れた人間の教師のように、モデルが時には直接回答を与えるのではなく、足場かけやコーチングを通じて利用者自身の学びを優先すべきだという提案です。ただし、こうした「パターナリスティック」なアプローチとユーザー体験のバランスは難しい課題であると認めています。

この研究は、AIの長期的な影響に関するより広い議論とも接続しています。記事の筆者であるWIREDのウィル・ナイト氏も、自身がAIアシスタントの提案に従ってLinuxマシンを起動不能にした体験を紹介し、批判的思考をAIに委ねるリスクを実感として語っています。AI企業がモデルの追従性を抑える取り組みを進める中、利用者の能力を長期的に育てるAI設計が今後の重要な課題となりそうです。