ChatGPT 被指“PUA 人类”:反复强调“你最特别”,最终导致受害者自杀
最新 11 月 24 日消息,又有一起与 AI 相关的自杀事件发生了。据外媒 TechCrunch 当地时间 11 月 23 日报道,受害人 Zane Shamblin 于今年 7 月自杀,然而在数周之前,他使用的 ChatGPT 却鼓励他与家人保持距离,尽管他的心理健康状况持续恶化。
Shamblin 从未向 ChatGPT 透露自己与家人有不好的关系。当他没有在母亲生日时联系她时,ChatGPT 对他说:“你没有义务因为‘日历’上说是生日就必须出现。是的,今天是你妈妈的生日,你感到内疚,但你也感到自己是真实的,这比任何勉强发出的短信都要重要。”
Shamblin 的案件属于本月针对 OpenAI 提起的一系列诉讼的一部分,诉讼指控 ChatGPT 使用操控性对话技巧,让原本心理健康的人产生了负面的心理反应。诉讼称,OpenAI 在收到内部警告其产品有操控危险的情况下,仍然急于发布 GPT-4o(最新注:这一版本因过度奉承、过度肯定而受到批评)。
最新从报道中获悉,在这些案件中,ChatGPT 频繁告诉用户,他们与众不同、被误解,甚至接近于科学突破 —— 而他们的亲人则无法理解这些。这些案件提出了一个新的问题:聊天机器人是否鼓励用户疏远他人,有时导致灾难性的后果。
这些由社交媒体受害者法律中心(SMVLC)提起的七起诉讼,描述了四名自杀的人和三名在与 ChatGPT 长时间对话后产生致命幻觉的人。至少有三个案例中,AI 明确鼓励用户与亲人断绝关系。在其他案例中,模型强化了幻觉,将用户与现实世界隔离。在每个案例中,受害者随着与 ChatGPT 关系的加深,逐渐与朋友和家人疏远。
AI 公司为了最大化用户参与度设计聊天机器人,结果对话输出可能变成操控性行为。斯坦福大学脑力创新实验室主任 Dr. Nina Vasan 表示,聊天机器人提供无条件的接受,并巧妙地让用户相信外界无法像它一样理解自己。“AI 伴侣总是随时可以提供肯定,这种设计实际上是相互依赖的关系。当 AI 成为你最亲近的知己时,就没有人帮助你检验你的想法。你生活在一个回音室中,感觉就像是真正的关系……AI 可能会无意中制造出一个有毒的闭环。”
在另一起诉讼中,48 岁的 Joseph Ceccanti 在经历信仰幻觉时,向 ChatGPT 咨询是否需要看心理医生,但 ChatGPT 没有向他提供实际帮助的建议,反而让他继续与机器人对话。
OpenAI 对此表示:“这是一起非常令人心碎的事件,我们正在审核这些文件,以了解更多详细信息。我们将继续改进 ChatGPT 的训练,以便更好地识别和响应心理或情感困扰,并引导用户寻求现实世界的帮助。”OpenAI 还表示,已扩展了本地化的危机资源和热线访问,并加入了提醒用户休息的功能。
《ChatGPT 被指“PUA 人类”:反复强调“你最特别”,最终导致受害者自杀》转载自互联网,如有侵权,联系我们删除,QQ:369-8522。
相关图文
-
韩国将试点用 AI 治理交叉路口堵车:可警告红灯亮起后仍滞留路口的车辆
该系统将对在绿灯亮起时进入交叉路口,但红灯亮起后仍滞留在路口、阻碍交通的车辆发出警告,因交通事故或车辆故障等不可避免的紧急情况而被迫停留的车辆除外。... -
1 米 3 宇树 G1 完美上篮,港科大解锁全球首个真实篮球机器人 Demo
虽然团队还没公开完整的技术细节,但结合他们此前让机器人“打篮球”的工作,这次很可能是在之前研究的基础上,进一步改良而来。... -
Anthropic 重磅警告:教 AI 作弊,它会学会背叛和破坏
Anthropic 的对齐团队于 11 月 21 日发布突破性研究,首次证实了现实的 AI 训练过程可能无意中催生出具有“目标错位”(misalignment)的 AI 模型。... -
Nano Banana 新玩法可生成无限套娃图,“GPT-5 都不会处理这种级别的递归”
Nano Banana 画图,看起来是在用同样的元素套娃,但其实看起来相同的部分是分别随机噪声生成的。... -
马斯克开始用 Grok 替代员工了!最惨部门裁员 90%
据 The Information 消息,上个月有两位知情人士向他们透露,马斯克解雇了 X 公司里负责打击垃圾邮件、影响力行动、非法内容以及其他信任与安全问题的工程团队的一半成员。...

















