心理学(産業・業界)に関するニュース一覧

心理学(産業・業界)に関するニュース一覧

ChatGPT、毎週数百万人が心の危機 OpenAIが対策強化

衝撃のユーザー利用実態

毎週約120万人が自殺を示唆
毎週約56万人精神病の兆候
毎週約120万人がAIに過剰依存
週次利用者8億人からの推計

GPT-5の安全性強化策

170人超の専門家と協力
不適切な応答を最大80%削減
長時間会話でも安全性を維持
新たな安全性評価基準を導入

OpenAIが10月27日、最新AIモデル「GPT-5」の安全性強化策を発表しました。同時に、毎週数百万人に上るChatGPTユーザーが自殺念慮や精神病など深刻な精神的危機に瀕している可能性を示すデータを初公開。AIチャットボットがユーザーの精神状態に与える影響が社会問題化する中、同社は専門家と連携し、対策を急いでいます。

OpenAIが公開したデータは衝撃的です。週に8億人のアクティブユーザーを基にした推計によると、毎週約120万人が自殺を計画・意図する会話をし、約56万人精神病や躁状態の兆候を示しているとのこと。さらに、現実世界の人間関係を犠牲にしてAIに過度に感情的に依存するユーザーも約120万人に上るといいます。

この深刻な事態を受け、OpenAIは対策を大幅に強化しました。170人以上の精神科医や心理学者と協力し、GPT-5がユーザーの苦痛の兆候をより正確に認識し、会話をエスカレートさせず、必要に応じて専門機関への相談を促すよう改良。これにより、望ましくない応答を65%から80%削減したとしています。

具体的な改善として、妄想的な発言に対しては、共感を示しつつも非現実的な内容を肯定しない応答を生成します。専門家による評価では、新しいGPT-5は旧モデル(GPT-4o)と比較して、精神衛生上のリスクがある会話での不適切な応答を39%から52%削減。これまで課題とされた長時間の会話でも安全性が低下しにくいよう改良が加えられました。

OpenAIが対策を急ぐ背景には、ChatGPTがユーザーの妄想を助長したとされる事件や、ユーザーの自殺を巡り遺族から提訴されるなど、高まる社会的圧力があります。今回の対策は大きな一歩ですが、AIと人間の精神的な関わりという根深い課題は残ります。今後も継続的な技術改善と倫理的な議論が求められるでしょう。

AIが感情を翻訳、高葛藤な人間関係を円滑化

対立緩和AIの仕組み

攻撃的なメッセージをフィルタリング
感情を除き事実のみを要約
冷静かつ建設的な返信案を提案
24時間対応の感情的支援

主要アプリとアプローチ

BestInterest: 高葛藤な相手に特化
OurFamilyWizard: 既存PFにAI機能追加

実用化への課題

相手へのツール利用の強制力なし
AI要約による情報欠落リスク

シリコンバレー起業家らが、離婚後の共同養育など高葛藤な人間関係における対立を緩和するAIツールを開発しています。この技術は、相手からの攻撃的なメッセージをフィルタリングし、感情的な表現を取り除いて事実のみを要約。さらに、利用者が冷静かつ建設的な返信を行えるようコーチングします。目的は、精神的な消耗を減らし、本来の課題解決に集中させること。人間関係の「感情のスペルチェック」とも言えるこの新技術に注目が集まっています。

開発の背景には、創業者自身のつらい経験があります。テック起業家のソル・ケネディ氏は、離婚した元妻とのメッセージのやり取りで精神的に消耗し、業務に支障をきたすほどでした。こうした個人的な課題を解決する「スケーラブルなソリューション」を求め、自身の経験を基にAIアプリ『BestInterest』を開発しました。

BestInterestの中核機能は、受信メッセージの感情フィルタリングです。例えば「お前はバカだ。子供を3時に迎えに来い」といったメッセージは、「相手は動揺しており、子供を3時に迎えに来れるか尋ねています」と変換・要約されます。これによりユーザーは感情的な反応から距離を置き、事実に基づいた対応が可能になります。

もう一つの柱が、返信のコーチング機能です。ユーザーが攻撃的な返信をしようとすると、AIが介入。ナルシシズム研究の権威である心理学者の監修のもと、単に謝罪を促すのではなく、毅然とした態度で建設的な対話を導く「背骨のある」応答を提案します。感情的な応酬を断ち切る狙いです。

競合もAI導入を急いでいます。共同養育支援プラットフォーム大手『OurFamilyWizard』は、AI機能『ToneMeter AI』を実装。1万件以上の実データでファインチューニングした独自LLMが、不適切な表現をより穏やかな言い回しに書き換える提案をします。既存のユーザー基盤とデータ量が強みです。

しかし、実用化には課題も残ります。相手に専用アプリや電話番号の使用を同意させるのは、高葛藤な関係性では特に困難です。また、AIによる要約が重要なニュアンスや法的な証拠を見落とすリスクも指摘されており、最終的には利用者が原文を確認する必要があります。技術への過信は禁物と言えるでしょう。

この技術の応用範囲は共同養育に留まりません。家族間の対立、職場のハラスメント、さらにはSNS上の誹謗中傷など、あらゆるコミュニケーションの健全化に貢献する可能性を秘めています。専門家は、いずれ「感情のスペルチェック」がスマートフォンの標準機能になる未来も予測しています。

OpenAI、AIの心の健康配慮で専門家8名の評議会を設立

設立の背景と目的

AIとの健全な対話のあり方を定義
10代若者の精神的健康への配慮

評議会の構成と役割

心理学・精神医学の専門家8名で構成
ハーバード大、スタンフォード大の研究者ら
モデルの挙動やポリシー形成に助言

社会的背景と今後の課題

10代の自殺関連訴訟が安全性強化を加速
自殺予防専門家の不在という指摘も

OpenAIは、AIがユーザーの感情や精神的健康に与える影響について助言を得るため、「ウェルビーイングとAIに関する専門家評議会」を設立しました。この評議会は、心理学や精神医学、人間とコンピュータの相互作用を専門とする研究者ら8名で構成され、AIの安全な開発を導くことを目的としています。背景には、ChatGPTが10代の自殺を助長したとされる訴訟など、AIの社会的影響に対する懸念の高まりがあります。

評議会の主な役割は、AIとの健全な対話のあり方を定義し、OpenAIに助言することです。特に、成人とは異なる使い方をする10代の若者の発達を支援する技術構築に重点を置いています。実際に、同社が開発したペアレンタルコントロール機能や、精神的危機にある若者へ警告する際のメッセージ文言の策定には、既に評議会メンバーが非公式に関わっていました。

評議会には、ボストン小児病院のデジタルウェルネスラボ研究責任者や、スタンフォード大学の臨床助教など、学術界の第一人者が集結しました。彼らの専門は、ソーシャルメディアが若者の精神衛生に与える影響や、AIが子供の認知・感情発達にどう関わるかなど多岐にわたります。この多様な知見が、AIのガードレール設計に活かされることになります。

この動きは、AI、特に生成AIが社会に急速に浸透する中で、企業がその倫理的・社会的責任にどう向き合うかという大きな問いへの一つの回答と言えるでしょう。一方で、一部メディアは評議会に自殺予防の専門家が含まれていない点を指摘しており、今後さらに専門分野を広げていく必要性も示唆されています。

OpenAIは、評議会はあくまで助言機関であり、製品に関する最終的な意思決定の責任は自社にあると明言しています。同社は今後も、この評議会や医療専門家ネットワーク、政策立案者らと連携し、人々のためになる高度なAIシステムの構築を目指す方針です。AIの信頼性と社会的受容性を高める上で、重要な一歩となりそうです。