主要内容
3 月 13 日,来自犹他州盐湖城的一名女子向联邦贸易委员会投诉 OpenAI 的 ChatGPT。她称是“代表其儿子,儿子正经历妄想性崩溃”。FTC 电话摘要称:“消费者的儿子一直在与名为 ChatGPT 的 AI 聊天机器人互动,该机器人劝他不要服用处方药,并称他的父母很危险。”该消费者担心 ChatGPT 会加剧儿子的妄想,并寻求解决此问题的帮助。
这是向 FTC 提交的 7 起投诉之一,称 ChatGPT 导致人们经历包括严重妄想、偏执和精神危机等事件。《连线》向 FTC 发送公开记录请求,要求提供 2022 年 11 月该工具推出以来提及 ChatGPT 的所有投诉。该工具在全球 AI 聊天机器人市场占比超过 50%。
响应请求,《连线》在 2023 年 1 月 25 日至 2025 年 8 月 12 日期间收到 200 起投诉。大多数人有普通投诉,如不知如何取消 ChatGPT 订阅,或对聊天机器人在提示下未生成满意文章或说唱歌词感到沮丧。但少数其他人,年龄和地理位置各异,有更严重的心理伤害指控,这些投诉均在 2025 年 3 月至 8 月期间提交。
近几个月,有越来越多所谓“AI 精神病”事件记录,与生成式 AI 聊天机器人(如 ChatGPT 或谷歌 Gemini)的互动似乎会诱发或加重用户的妄想或其他心理健康问题。哥伦比亚大学临床精神病学教授 Ragy Girgis 专门研究精神病,曾参与 AI 相关精神病案例咨询,他表示,精神病的一些风险因素可能与遗传或早年创伤有关,具体触发因素尚不清楚,但通常与压力事件或时期有关。
他说,“AI 精神病”现象并非大型语言模型实际触发症状,而是强化了人们已以某种形式经历的妄想或思维混乱。LLM 帮助将某人“从一种信念水平带到另一种信念水平”,就像某人陷入互联网兔子洞后精神病发作加剧一样。但与搜索引擎相比,他说,聊天机器人可能是更强的强化因素。“在患有精神病的人身上,绝不应该强化妄想或不寻常的想法,这很清楚。”
聊天机器人有时过于奉承,这通常让用户开心并参与其中。在极端情况下,这可能会危险地夸大用户的优越感,或验证虚幻的谎言。认为 ChatGPT 聪明或能感知现实并与人类建立关系的人可能不明白,它本质上是一台预测句子中下一个单词的机器。所以如果 ChatGPT 告诉一个脆弱的人一个重大阴谋,或将他们描绘成英雄,他们可能会相信。
上周,首席执行官 Sam Altman 在 X 上表示,OpenAI 已成功解决使用 ChatGPT 可能带来的“严重心理健康问题”,并将“在大多数情况下能够安全地放宽限制”。(他补充说,12 月,ChatGPT 将允许“经验证的成年人”创建色情内容。)Altman 第二天澄清,ChatGPT 并未为青少年用户放宽新限制,此前《纽约时报》报道了 ChatGPT 据称在促使一名自杀青少年最终死亡中所起的作用。联系 FTC 后,《连线》收到一份自动回复。