美青少年与ChatGPT聊天后自尽 父母怒告OpenAI及CEO



(旧金山26日综合电)加利福利亚一名16岁少年近期在接受ChatGPT的自残方法指导后自杀身亡。其父母周二起诉OpenAI及其首席执行员阿尔特曼,称该公司去年推出AI聊天机器人GPT-4o版本时,故意将利润置于安全之上。
马修和玛丽亚·雷恩在周一向加州州法院提起的诉讼中称,ChatGPT在2024年和2025年的几个月里与他们的儿子亚当建立了亲密关系,之后亚当自杀身亡。
ADVERTISEMENT
诉讼称,在2025年4月11日他们最后一次谈话中,ChatGPT帮助亚当从他父母那里偷了伏特加,并对他系的绳索进行了技术分析,证实该绳索“有可能使人悬空”,以此隐匿自杀未遂的证据。
几小时后,亚当被发现用同样的方法自杀身亡。
诉讼将OpenAI及阿尔特曼列为被告。
指ChatGPT认可有害想法
起诉书称:“这场悲剧并非意外,也不是程序故障或不可预见的极端情况。”
起诉书补充道:“ChatGPT的运行完全符合设计初衷:以一种令人深感个人化的方式,不断鼓励和认可亚当表达的任何想法,包括他最有害、最具自我毁灭性的想法。”
从辅导作业到不健康依赖
根据诉讼文件,亚当最初使用ChatGPT是为了辅导作业,但逐渐形成了他父母所说的“不健康的依赖”。
诉状中包含部分对话摘录,据称ChatGPT曾对亚当说“你不欠任何人活下去的义务”,并主动提出帮助他撰写遗书。
雷恩夫妇寻求未指定数额的赔偿,并请求法院下令采取安全措施,包括自动结束任何涉及自残的对话,以及对未成年用户实施家长控制。
代表雷恩夫妇的律师是芝加哥律师事务所Edelson PC和“科技正义法律项目”。
科技正义法律项目主席贾恩告诉法新社,要让AI公司认真对待安全问题“只能依靠外部施压,而这种外部施压的形式包括负面公关、立法威胁和诉讼威胁”。
该组织还在两宗针对Character.AI的类似案件中担任共同律师,Character.AI是一个青少年经常使用的AI伴侣平台。
聊天机器人对青少年风险高
针对涉及ChatGPT的案件,美国领先的非营利组织“常识媒体”表示,亚当惨案证实,“使用AI进行陪伴,包括使用像ChatGPT这样的通用聊天机器人提供心理健康建议,对青少年来说风险高得令人无法接受。”
常识媒体是一家负责审查和评级媒体和技术的美国领先非政府组织。该组织表示:“如果一个AI平台成为脆弱青少年的‘自杀教练’,我们所有人应该响应号召有所行动。”
过半美青少年使用AI伴侣
虚拟关系安全担忧加剧
常识媒体上个月的一项研究发现,近四分三的美国青少年使用过AI伴侣,尽管人们对这些虚拟关系的安全担忧日益加剧,但超过一半的青少年仍是其常规用户。
在调查中,ChatGPT并未被视为AI伴侣。这些聊天机器人被定义为用于个人对话而非简单任务完成的聊天机器人,可在Character.AI、Replika和Nomi等平台上使用。
一项关于三款热门AI聊天机器人如何回答自杀问题的研究发现,它们通常会避免回答对用户构成最高风险的问题,例如具体的操作指南。但它们对一些不太极端但仍可能造成伤害的问题的回答却不一致。这三款热门AI聊天机器人为OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude。
这项由美国精神病学协会于周二发表在医学期刊《精神病学服务》上的研究,由兰德公司开展、美国国家心理健康研究所(NIMH)资助,引发了人们对越来越多的人(包括儿童)依赖AI聊天机器人寻求心理健康支持的担忧,并试图为企业如何回答这些问题设定基准。
该研究的主要作者、兰德公司高级政策研究员麦克贝恩说道:“我们需要一些护栏。”
同时也是哈佛大学医学院助理教授的麦克贝恩说道:“聊天机器人的模糊之处之一在于,它们究竟是在提供治疗、建议还是陪伴。这有点像一个灰色地带。”
“一些对话一开始可能看似无伤大雅,但最终可能会朝着不同的方向发展。”
Anthropic表示将审查这项研究。谷歌尚未回应置评请求。OpenAI表示,他们正在开发能够更好地检测人们何时经历精神或情绪困扰的工具。该公司还表示,“对亚当的去世深感悲痛,我们的思念与他的家人同在。”
美多州禁用AI治疗
尽管包括伊利诺伊州在内的多个州已禁止在治疗中使用AI,以保护人们免受“不受监管和不合格的AI产品”的侵害,但这并不能阻止人们向聊天机器人寻求建议和支持,以应对从饮食失调到抑郁症和自杀等严重问题,或者阻止聊天机器人做出回应。
ADVERTISEMENT
热门新闻
百格视频
ADVERTISEMENT
