研究:AIセラピーチャットボットの使用には“重大なリスク”があると警告

スタンフォード大学の研究者によると、大規模な言語モデルを搭載したセラピーチャットボットは、精神疾患を持つユーザーを差別したり、不適切あるいは危険な対応をしたりする可能性があるという。
この研究論文の上席著者であるNick Haber氏は、チャットボットは“仲間、相談相手、セラピストとして使われている”ものの、この研究では“重大なリスク”が見つかったとStanford Reportに語った。
研究者らは、チャットボットが特定の症状を持つユーザーを差別する兆候を示すかどうかを測定した。 論文によると、チャットボットはうつ病などの症状と比較して、アルコール依存症や統合失調症などの症状に対して強い偏見を抱いているという。
記事原文はこちら(『TechCrunch』2025年7月13日掲載)
※記事公開から日数が経過した原文へのリンクは、通常に進行しない場合があります。ご了承ください。
- AI セラピー チャットボット リスク スタンフォード大学 精神疾患 アルコール依存症 統合失調症