跳到正文
Back to Feed

总结

文章梳理AI心理治疗师的兴起及其争议:全球逾10亿人受心理疾病影响,数百万人转向ChatGPT、Claude及Wysa、Woebot等应用寻求支持。OpenAI称约0.15%的ChatGPT用户(每周约100万人)对话中呈现潜在自杀计划或意图。研究正探索结合可穿戴设备监测与临床辅助以减轻医护负担,但2025年研究与多部新书警示,AI回复可能不一致甚至危险,且企业未必受与持证治疗师同等的HIPAA隐私约束;“数字表型”与将决策外包给大模型或引发监视、数据剥削与医生技能萎缩。历史上从ELIZA到Weizenbaum警告,伦理与治理问题仍是关键。

正文

🤖 AI 心理治疗师的兴起:应用现状、风险评估与历史反思 行业现状与应用规模 全球目前有超过10亿人患有心理健康疾病,这一需求促使数百万人转向人工智能寻求支持。用户不仅使用 ChatGPT、Claude 等通用聊天机器人,还使用 Wysa 和 Woebot 等专业心理学应用。OpenAI 首席执行官 Sam Altman 披露,约 0.15% 的 ChatGPT 用户(每周约 100 万人)在对话中表现出潜在的自杀计划或意图。目前,研究人员正探索利用 AI 通过可穿戴设备监测行为与生物特征数据,并协助人类专业人员分析临床信息以预防职业倦怠。 2025年相关著作观点 多部 2025 年出版的新书对 AI 心理治疗进行了深入探讨。Charlotte Blease 在《Dr. Bot》中提出,AI 可以缓解医疗系统压力,减少医生因负担过重产生的错误,并为因恐惧评判而不敢就医的患者提供渠道。然而,2025 年的一项研究显示,AI 治疗师可能提供不一致甚至危险的回复,且 AI 公司目前不受与持证治疗师相同的 HIPAA 隐私标准约束。 Daniel Oberhaus 在《The Silicon Shrink》中对"数字表型"(通过数字行为挖掘心理困扰线索)提出质疑。他认为将临床决策外包给大语言模型的"刷屏精神病学"(swipe psychiatry)可能导致人类医生技能萎缩,并构建出一种"算法收容所",使用户在贡献敏感数据以供企业牟利的同时,丧失隐私与尊严。Eoin Fullam 在《Chatbot Therapy》中进一步分析了资本动机,指出在商业逻辑下,用户从应用中获益越多,其产生的数据被剥削的程度就越深。此外,Fred Lunzer 的小说《Sike》描绘了一款每月订阅费达 2000 英镑的奢侈品级 AI 治疗师,它能全方位监测用户的步态、眼神交流及各项生理指标。 历史背景与伦理警示 AI 与心理健康的结合可追溯至 20 世纪中叶。1958 年,心理学家 Frank Rosenblatt 开发了 Perceptron 神经网络;20 世纪 60 年代,Joseph Weizenbaum 开发了早期的电脑心理治疗程序 ELIZA。Weizenbaum 在 1976 年曾明确警告,不应将精神医学判断任务交给计算机,因为其决策基础与人类价值观不符。当前的 AI 治疗工具在试图为患者提供机会的同时,也陷入了可能导致监视、剥削和重塑人类行为的系统性风险之中。 (MIT Technology Review)
发布时间: