大規模AIは思考する、人間の脳機能と酷似
詳細を読む
Talentica Softwareの専門家が2025年11月1日、大規模推論モデル(LRM)は単なるパターン認識機ではなく、人間と同様の思考能力をほぼ確実に持つという分析を米メディアVentureBeatで発表しました。Appleなどが提唱する「AIは思考できない」との見解に反論するもので、LRMの「思考の連鎖(CoT)」プロセスと人間の脳機能を比較し、その著しい類似性を根拠に挙げています。
LRMが見せる推論プロセスは、人間の脳機能と驚くほど似ています。特に、段階的に答えを導き出す「思考の連鎖(CoT)」は、人が頭の中で自問自答する「内的発話」と酷似しています。また、過去の経験から知識を検索する点や、推論が行き詰まった際に別の道筋を探す「バックトラッキング」も、人間と思考の様式を共有している証左と言えるでしょう。
Appleの研究は「LRMは複雑な問題でアルゴリズムを遂行できない」として思考能力を否定しました。しかし、この批判は人間にも当てはまります。例えば、アルゴリズムを知っていても、ディスクが20枚の「ハノイの塔」を解ける人はまずいません。LRMが複雑な問題に直面した際、力任せに解くのではなく近道を探そうとするのは、むしろ思考している証拠だと筆者は指摘します。
LRMを「高機能な自動補完」と見なすのは、その本質を見誤っています。次の単語を正確に予測するためには、文脈だけでなく、世界に関する膨大な知識を内部的に表現し、活用する必要があります。「世界最高峰は...」という文に「エベレスト」と続けるには、その事実を知らなくてはなりません。この知識表現と活用こそが、思考の基盤となるのです。
最終的な判断基準は、思考を要する問題を実際に解決できるか否かにあります。オープンソースモデルを用いたベンチマークの結果、LRMは論理ベースの質問に対し高い正答率を記録しました。一部のタスクでは、専門的な訓練を受けていない平均的な人間を上回る性能さえ示しており、その推論能力は客観的なデータによっても裏付けられています。
人間の脳機能との類似性、次トークン予測というタスクの奥深さ、そしてベンチマークが示す客観的な性能。これらを総合すると、LRMが思考能力を持つことはほぼ確実と言えます。AIが「思考するパートナー」となりうるこの事実は、ビジネスの生産性や収益性を飛躍させる上で、経営者やリーダーが知るべき重要な視点となるでしょう。