専門家のAI分身と有料で相談できるOnixが始動

Onixの仕組み

専門家の知識で訓練されたAIチャットボットに相談可能
年額100〜300ドルで専門家の助言を再現
会話データは端末側で暗号化しプライバシー保護

課題とリスク

話題逸脱時にハルシネーション発生を確認
専門家自身の商品を推奨する利益相反の懸念
医療行為ではなく「助言」との免責事項に実効性の疑問
人間同士の対話がAIに代替されることへの根本的懸念
詳細を読む

元WIRED寄稿者のDavid Bennahum氏が率いるスタートアップOnixが2026年4月、専門家のAI分身と有料で会話できるサービスのベータ版を公開しました。同社はこのサービスを「チャットボットSubstack」と位置づけ、医療・健康・ウェルネス分野を中心に17名の厳選された専門家のAIクローンを提供しています。利用者は年額100〜300ドル程度で、対面では1時間600ドルかかるような専門家の知見にアクセスできます。

Onixの技術的な特徴はプライバシー保護にあります。会話データはユーザーの端末上で暗号化され、政府がデータ開示を求めてもメールアドレス以外は提供できない設計です。また、専門家自身が自分のコンテンツでボットを訓練するため、知的財産の問題も理論上は回避されます。会話の範囲を専門分野に限定するガードレールにより、ハルシネーションの抑制も図っています。

しかし、WIRED記者のテストでは複数の問題が明らかになりました。セラピストのボットにNBAの話題を振ると、ガードレールが機能せず誤った情報を生成しました。また、ストレス専門家のボットが自身の共同創業した製品「Apollo Neuro」を繰り返し推奨するなど、利益相反の問題も浮上しています。呼吸法を「一緒にやりましょう」と提案したボットが、実際には呼吸していないと認めるなど、AIと人間の境界が曖昧になる場面もありました。

カリフォルニア大学サンフランシスコ校のRobert Wachter教授は、医療アクセスの改善という利点を認めつつも「実際に効果があるのか」という根本的な問いを投げかけています。Onixは医療行為ではなく助言であるとの免責事項を表示していますが、多くの人がすでにChatGPTClaudeをセラピスト代わりに使い、十分な医療を受けられない現状では、この警告が無視される可能性が高いと記事は指摘しています。専門家のAIクローンが人間同士のつながりをさらに希薄にするリスクも、今後の大きな論点となります。