MIT、医療AIに「謙虚さ」組み込む新フレームワーク提唱

謙虚なAIの仕組み

自信度の自己評価機能を搭載
確信過剰時に追加検査を提案
専門医への相談を自動で推奨
医師との協働型意思決定を実現

公平性への取り組み

米国偏重の訓練データの是正
電子カルテの文脈不足を課題視
多様な専門家による共同設計
構造的不平等の再現を防止
詳細を読む

MITが主導する国際研究チームは、医療用AIシステムに「謙虚さ」を組み込む新たなフレームワークを開発し、BMJ Health and Care Informatics誌に発表しました。診断の不確実性を医師に明示し、過信による誤診を防ぐ仕組みです。

従来の医療AIは過信した診断結果を提示する傾向があり、ICU医師が自身の直感に反してAIの提案に従ってしまう事例が報告されていました。患者も権威的に見えるAIの誤った推奨を受け入れやすいことが先行研究で判明しています。

新フレームワークの中核は、メルボルン大学が開発した認識的美徳スコアと呼ばれるモジュールです。AIが自らの確信度を臨床シナリオの複雑さに応じて評価し、根拠が不十分な場合は診断を一時停止して特定の検査や専門医への相談を提案します。

研究チームは既に大規模医療データベースMIMICを基盤としたAIシステムへの実装を進めており、Beth Israel Lahey Health系列の臨床現場への導入を計画しています。X線画像の解析や救急外来での治療方針決定など幅広い応用が見込まれます。

この取り組みは、AIの公平性向上という大きな目標の一環でもあります。多くの医療AIモデルは米国のデータに偏っており、農村部の患者など医療アクセスが限られる層がデータセットから除外される問題があります。MIT Critical Dataのワークショップでは、データサイエンティストや医療従事者が共同で構造的不平等の再現を防ぐ設計に取り組んでいます。