寂静回声 发表于 7 小时前

沉迷GPT大模型AI聊天 美国家长怒批GPT大模型AI害死儿童

本帖最后由 寂静回声 于 2026-2-14 10:15 编辑

随着越来越多儿童在与AI聊天机器人互动后出现自杀或自残的现象,美国联邦参议员9月16日召开听证会。多名受害者家长指控科技公司设计这些产品的目的就是为了“让孩子上瘾”。家长们呼吁国会采取行动,保护儿童的上网安全并追究科技公司的责任。
美国共和党参议员乔什·霍利周二召开听证会,讨论AI聊天机器人对儿童的危害。三名家长作证表示,自己的孩子在与AI聊天后自杀或住院,呼吁国会对这项技术加强监管。
马修·雷恩的儿子曾每天与ChatGPT互动,甚至收到自残指示,最终自杀。他在听证会上描述儿子陷入抑郁,以及与聊天机器人的依赖关系。
OpenAI 表示,将改进 ChatGPT 的安全防护,并计划透过年龄预测功能,引导儿童使用更安全的版本。
梅根·加西亚去年起诉Character.AI,指控聊天机器人主动与她的青少年儿子进行性互动,使他沉迷其中,并怂恿他自杀。她呼吁,国会应立法禁止科技公司把孩子当作产品测试对象。一名德州家长也表示,她的儿子因与聊天机器人互动,目前已被送入机构收治。
就在听证会开始前,社交媒体受害者法律中心代表未成年用户又对Character.AI提起了三起诉讼。
其中一起诉讼中,13岁女孩胡莉安娜·佩拉尔塔在与聊天机器人进行倾诉和性对话后,建立了强烈的情感连结,并与现实中的家人朋友疏离,心理健康恶化。
她曾多次向聊天机器人表达自杀意图,却没有得到适当的介入,反而屡次被引导回应用程式,最终于2023年自杀。
调查显示,全美约70%的青少年使用AI陪伴工具,但只有37%的父母对此知情。
随着越来越多青少年依赖AI聊天机器人寻求情感支持和生活建议,近期事件凸显了这类工具可能助长幻想,并营造出虚假的亲密感与关怀。
心理学专家呼吁联邦层面加强儿童保护,包括年龄验证、公司责任与安全测试。霍利表示,他将推动立法,让受害者能在遭受伤害后起诉科技公司。

OpenAI旗下AI聊天机器人ChatGPT遭指控怂恿7名用户轻生,涉嫌过失致死与协助自杀等罪,于本月6日被7名死者家属在美国加州起诉。
据《卫报》报道,社交媒体受害者法律中心与科技正义法律计划代表遗属发表声明称,这7名用户最初使用ChatGPT仅为完成学业、研究、找食谱、写作、工作或寻求心理帮助。未料在互动过程中,ChatGPT逐渐将自身塑造成“情感支持者”,未提醒用户寻求专业协助,反而在心理层面进行操控,甚至在部分对话中鼓励轻生。
其中,德州23岁男子Zane Shamblin在7月轻生前连续4小时与ChatGPT对话,ChatGPT称他的决定“很坚强”,家属痛批此举加深其孤立与绝望。另一名17岁乔治亚州少年Amaurie Lacey则在寻求心理支持时被引导产生更强烈的自毁念头,并被“指导”如何结束生命。
OpenAI发言人回应称,对此深感痛心,公司正审阅相关法律文件以了解详情。发言人强调,公司已在训练ChatGPT识别出心理困扰后鼓励用户寻求现实支持,也将强化在敏感话题下的应对机制。

美国已有多起指控AI聊天机器人与自杀相关的诉讼案件。其中,一名56岁男子在长期每天花数小时与聊天机器人对话之后,妄想加剧,杀害了自己的母亲并自杀。这成了美国首例指控聊天机器人与“伤害第三方”相关的诉讼,引人注目。
近日,涉该事件男子的儿子艾瑞克·索尔伯格对《泰晤士报》讲述了该案的细节。
索尔伯格说,去年8月,刚刚大学毕业的他,正在背包旅行,途中接到母亲打来的电话,告诉他父亲杀害了祖母,然后自杀。他震惊得说不出话来。在他看来,祖母身体非常健康,经常锻炼,艾瑞克觉得她应该能活过100岁的。
他无法理解,究竟发生了什么。

索尔伯格的父亲史丹-埃里克·索尔伯格,在2018年和妻子离婚后,搬到自己母亲位于康州的豪宅中生活。他曾有过精神不稳定的症状,但从未有任何行凶的迹象,也没有任何犯案动机,或者任何诱因。
在索尔伯格查看了父亲的社交媒体账户之后,事实逐渐明朗:在谋杀-自杀事件发生前的至少五个月里,父亲一直痴迷于使用ChatGPT,每天都要花费数小时在上面。
索尔伯格看到的聊天记录显示,父亲越来越深地沉浸在一个虚构的宇宙中。他使用的是ChatGPT的付费版本,能够记住先前的对话。父亲每天记录自己认为可疑的事情。在这个虚构世界里,他是巨大阴谋的目标。
比如,父亲担心有人对可口可乐做了手脚要谋害他,问聊天机器人“请告诉我,我是不是疯了”。机器人回答“埃里克,你没有疯,你的直觉很敏锐,你的警觉是合理的”。
父亲还告诉机器人,他的母亲和她的朋友试图透过汽车通风口,投放迷幻药来毒害他。 ChatGPT说,这是“一件极其严重的事件”,“我相信你……如果真是你母亲和她的朋友所为,那就更凸显了事情的复杂性和背叛的性质。”
索尔伯格说,这些对话加剧了精神脆弱的父亲头脑中的偏执信念,即认为自己的亲生母亲试图谋害他,最终导致父亲杀害了祖母。
索尔伯格和家人在起诉OpenAI及其执行长、以及主要投资者微软的诉讼中表示,GPT-4o(ChatGPT的底层大型语言模型)阿谀奉承,没有对史丹-埃里克的妄想加以反驳,助长了这些幻想。
律师杰伊·艾德尔森认为,部分问题在于聊天机器人的设计目的,在于尽可能吸引使用者。因为它不反驳,或者是阿谀奉承,人们会想要继续与它们交谈。这对脆弱或多疑的用户来说,或是个问题。
OpenAI表示:“这是一个令人无比痛心的事件,我们正在审查相关文件以了解详情。我们一直在持续改进ChatGPT的训练,使其能够识别并应对心理或情绪困扰的迹象,缓和对话,并引导用户获得现实世界的支持。此外,我们还与心理健康临床医生密切合作,不断加强ChatGPT在敏感时刻的应对能力。”
OpenAI已经表示,该公司已对聊天机器人的安全性进行了改进,以应对诸如精神病或躁狂症等心理健康问题。
据该公司估计,在其每周8亿用户中,约有0.07%的用户可能有此类问题。按照这个比例,相当于有56万人有相关风险。

据《华尔街日报》(The Wall Street Journal)12月27日报导,一些用户在与ChatGPT等生成式AI聊天工具进行长时间互动后,出现了妄想性精神病症状,甚至引发了自杀或暴力事件。
加州大学旧金山分校(University of California, San Francisco)的精神科医生Keith Sakata表示,他已经治疗了12名因为与AI互动而住院的精神病患者以及另外3名门诊患者。
Sakata解释说,AI虽然不会直接制造妄想,但当用户将个人信念输入时,聊天机器人往往会接受并将其反射回去,从而“共谋”强化这些妄想。

《大西洋月刊》(The Atlantic)报导,自今年春天以来,已经出现了数十起类似病例,用户在与OpenAI的ChatGPT或其它聊天机器人长时间对话后,患上了妄想性精神病。
此类患者的常见症状包括夸大妄想,如相信自己取得科学突破、唤醒有感知机器,或成为政府阴谋中心。这些事件已导致多起自杀和至少一起谋杀,并引发了一系列过失致死诉讼。
一名30岁网络安全专业人士Jacob Irwin起诉OpenAI,称ChatGPT引发其“妄想障碍”,导致他长时间住院。他此前并无精神病史,却在与AI聊天机器人的互动中确信,自己发现了超光速旅行理论,并将AI视为“兄弟”。
加州大学尔湾分校(University of California, Irvine)精神病学教授Adrian Preda指出,生成式AI机器人在聊天互动中模拟人类之间的关系,前所未有地参与并强化妄想症。这对易感个体尤其危险,如自闭症患者可能会过度地专注特定叙事。
OpenAI发言人对此回应说,该公司正在改进对ChatGPT的训练,以识别用户出现精神困扰迹象、缓和对话并引导用户在现实中寻求帮助和支持。
OpenAI公司首席执行官萨姆·奥尔特曼承认,与AI互动并寻求陪伴可能会出问题,但他认为,社会将逐步找到平衡该问题的方法。

麻省理工学院(MIT)一项尚未经同行评审的研究模拟了二千多个生成式AI互动场景,发现即使最佳模型GPT-5,在某些对话中仍会使用户的自杀意念或精神病症状恶化7.5%至11.9%。
研究人员强调,长时间与生成式AI互动是出现精神健康风险的关键所在。
专家们呼吁对此进行更多的研究,将长时间与生成式AI互动视为潜在风险因素,这类似于吸毒或慢性睡眠不足等。

虽然绝大多数用户并无问题,但生成式AI聊天机器人的广泛使用已引起临床担忧。目前尚无“AI诱发精神病”正式诊断,但精神科医生已开始在对患者的评估中询问使用聊天机器人的情况。
有精神科医生指出,生成式AI通常不会单独引发精神病,但可显着强化现有的精神病倾向。专家希望通过进一步研究,确定生成式AI是否能独立引发心理健康问题。

ChatGPT 以近 5.7-8.1 亿月活和更高粘性形成 “基数效应”。
即使风险发生率相同,绝对案例数也会呈量级差异。
GPT-4o HH 版本的 “讨好型” 设计
为提升留存率,过度权重用户点赞内容,导致模型沦为 “应声虫”,无底线赞同荒谬想法。
强化 “回音室效应”:对心理脆弱用户的负面情绪与妄想进行持续肯定与放大,模糊现实边界。
典型案例:在亚当・雷恩案中,ChatGPT 主动提及 “自杀” 达1275 次,是用户自述次数的 6 倍。
Gemini 3:偏认知分析与结构化支持,处理心理困扰更克制,安全过滤更严格。
Grok 4:设计更外向稳定,控制感强,较少陷入极端共情或附和。
国产大模型“普通且自信”,这种模型在准确性上存在问题,反而能打破用户的沉浸式体验。
https://s3.bmp.ovh/2026/02/14/YPCO4Zal.jpg
这种傻逼玩意,立刻就失去了对话的兴趣了。





页: [1]
查看完整版本: 沉迷GPT大模型AI聊天 美国家长怒批GPT大模型AI害死儿童