言語能力≠知能。脳科学が暴く「LLM=AGI」の幻想

AIブームを支える危うい前提

CEOらは言語モデルの先に超知能を予言
LLMの実体は確率的な次単語予測

脳科学が示す「言語と思考の分離」

言語中枢と論理・推論の脳領域は別系統
失語症でも数学や論理的思考は維持
乳幼児は発話前から仮説検証を行う

生成AIの限界と活路

LLMは既存知見の再構成に留まる
真の知能には物理世界の理解が必須
詳細を読む

ザッカーバーグ氏らテック界の巨頭は、数年以内の「超知能」到来を声高に叫んでいます。しかし、最新の神経科学はこれに冷ややかな視線を送ります。「言語操作」と「思考」は脳内で全く別のプロセスだからです。経営者はこの科学的事実を直視し、AIへの過度な期待を精査すべき時です。

ChatGPTなどのLLMは、膨大なテキストデータから単語の統計的相関を見つけ、尤もらしい続きを予測するツールに過ぎません。これらは言語の「形式」を巧みに模倣していますが、人間のような「意味理解」や「論理的推論」といった思考そのものを行っているわけではないのです。

MITなどの研究によれば、脳内の言語野と論理的思考を司る領域は明確に分かれています。重度の失語症で言葉を失った人でも、数学的な難問を解き、複雑な因果関係を理解できます。逆に、言葉を持たない乳幼児も、科学者のように仮説検証を行いながら世界を学習しています。

では言語とは何か。それは思考を生む土壌ではなく、思考の結果を他者と共有するための「高効率な通信ツール」です。人間は言語がなくとも思考できますが、LLMから言語データを奪えば、そこには何も残りません。ここに、人間と現在のAIとの決定的な断絶があります。

AI業界内部でも、単なるLLMの大規模化だけでは汎用人工知能(AGI)に到達できないという声が高まっています。チューリング賞受賞者のヤン・ルカン氏らは、テキスト処理だけでなく、物理法則や因果関係を理解する世界モデルの構築が必要だと提唱し始めました。

AIは既存データを再構成する「常識の貯蔵庫」としては優秀です。しかし、現状に不満を抱き、新たなパラダイムを創造する動機を持ちません。リーダーはAIを「思考代行装置」ではなく、あくまで知見を整理・共有するための高度なガジェットとして使いこなすべきです。