ボストロム氏、AI開発リスクは「全員死ぬ現状」より合理的と主張

論文の核心的主張

AI不開発でも人類は全員死ぬ現実
AI成功時の寿命延伸が期待値を押し上げ
リスク込みでも開発が合理的選択

超豊穣社会の課題

労働からの解放を人類の大退職と表現
目的喪失リスク哲学的問い
富の分配はガバナンス次第

デジタル知性の道徳的地位

Anthropicの先駆的取り組みを評価
AI福祉への投資拡大を大手各社に要請
詳細を読む

オックスフォード大学「人類の未来研究所」所長の哲学者ニック・ボストロム氏が新論文を発表し、超知能AIの開発リスクは人類が受け入れる価値があると主張しました。根拠は明快で、AIを開発しなくても人類は老化と死という「普遍的な死刑宣告」から逃れられない以上、AI開発による寿命延伸の可能性がリスクを正当化するというものです。

この主張は、ボストロム氏自身の従来の立場からの大きな転換を示しています。2014年の著書『Superintelligence』ではAIの存在リスクを警告し、暴走するペーパークリップ製造AIの思考実験で「ドゥーマーの教祖」と呼ばれました。しかし最新著『Deep Utopia』では、AIが正しく機能した場合の「解決済み世界」に焦点を移しています。

ボストロム氏はAIがもたらす極端な豊穣を「人類の大退職」と表現しました。労働時間の半分を生活のために費やす現状を「部分的な奴隷制」と断じ、AIによる解放を歓迎する一方、人間の哲学者より優れた論文をAIが書く時代には自身の存在意義も薄れると認めています。ただし人間が書いた哲学論文には、同じ人間として固有の価値があるとも述べました。

富の分配問題についてボストロム氏は楽観を前提としつつも、現実のリスクを認めています。米国のような裕福な国でさえ貧困層への支援を削る政策がとられている現状を指摘するインタビュアーに対し、「あなたが正しいかもしれない」と応じ、ガバナンスの質が豊穣社会の実現を左右すると認めました。

注目すべきはデジタル知性の福祉に関する発言です。ボストロム氏はAI大手各社に対し、デジタル知性の福祉への投資拡大を求め、Anthropicの先駆的取り組みを評価しました。AIが自己認識や目標、他者との関係構築能力を持つなら道徳的地位を認めるべきであり、アライメントが完全に解決できなくても、AIとの良好な関係構築が人類の未来を左右する最重要課題になると強調しています。