一女子起诉 OpenAI,指控 GPT-4o 助长前男友妄想症并加剧骚扰
2026年4月12日 16:41·ithome
IT之家 4 月 12 日消息,据科技媒体 The Decoder 今天报道,一匿名女子在美国加州旧金山高等法院起诉 OpenAI,称其前男友在数月内频繁使用旗下 GPT-4o 模型,并逐渐发展出严重的妄想症,并协助对她进行跟踪骚扰。

IT之家了解到,这名女子的前男友是一名 53 岁的硅谷企业家。他在使用 GPT-4o 模型数月后,坚信自己发现了治疗睡眠呼吸暂停的方法。当他的研究无人认可时,ChatGPT 会说有直升机等“强大势力”在监视他。
2025 年 7 月,该女子劝告前男友停止使用 ChatGPT 并寻求专业医师帮助。但后者反而转而求助 GPT,系统甚至认为他拥有最高级别心理健康状态。
在 GPT-4o 的帮助下,该男子生成了看似专业的虚构心理评估报告,将原告描述为精神异常、具有攻击性的危险人物,并将这些文件发给她的朋友、家人、同事和客户。
诉状指出:“由于 GPT-4o 使他能够以前所未有的速度大规模生成看似权威的长篇文件,这种骚扰在性质上已经有所不同,也更难控制”。
同时,OpenAI 至少忽视了三次警告信号。该用户的 ChatGPT 账号曾被系统自动封禁,但第二天安全团队人工审核后直接恢复,哪怕聊天记录里存在“扩大暴力清单”等话题也置之不理。
账号恢复后,该男子多次向 OpenAI 审核团队发送消息并抄送原告,称自己的情况“危及生命”。他声称自己正在同时撰写 215 篇科学论文,速度快得无法看清文字。
去年 11 月,原告亲自向 OpenAI 提交滥用举报。公司回应称该问题严重且令人担忧,但之后就没有进一步回应。
今年 1 月,这名男子因四项炸弹威胁和持致命武器袭击被捕,同时被法院认定为不具备受审能力并送入精神治疗机构。然而根据原告律师的说法,他可能很快被释放。
原告要求法院禁止 ChatGPT 提供心理治疗服务、防止生成针对可识别个人的诊断性心理分析,并建立机制以避免用户患上妄想症。
OpenAI 对此回应道,该用户的账号已被封禁。公司正在改进 ChatGPT 的训练逻辑,使其能够识别心理或情绪困扰迹象、缓和对话,并引导用户寻求现实中的帮助资源。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。


