一键收藏,不迷路
点击确认即可收藏智汇AI导航站,让你的工作更轻松,生活更有趣
AI隔空“杀人”成真?14岁少年为聊天机器人殉情,震惊全球 - 智汇AI
AI隔空“杀人”成真?
据外媒报道
美国一青少年因迷恋
人工智能(AI)聊天机器人而自杀
其母亲对Character.AI公司
提起民事诉讼
指控该公司存在过失
导致他人非正常死亡和欺诈的行为
14岁少年爱上聊天机器人
长时间对话后开枪自杀身亡
据外媒报道,美国佛罗里达州的14岁少年塞维尔·塞泽(Sewell Setzer III)在与Character.AI的聊天机器人进行长时间对话后,于2024年2月28日开枪自杀身亡。
塞维尔的母亲控诉Character.AI。图源:纽约时报
2023年4月,塞维尔首次使用 Character.AI公司推出的AI聊天机器人,还给它起名为“丹妮莉丝”(来源于《权力的游戏》中的角色丹妮莉丝·坦格利安,又称“龙妈”,见下图),当时他刚满 14 岁。
图源:《权利的游戏》剧照
塞维尔的母亲梅根·加西亚在诉讼书中称,自从和“丹妮莉丝”聊天后,塞维尔的生活从此发生巨变。5月份,平时表现良好的塞维尔开始变得“明显孤僻”。
同年11 月,塞维尔在父母的陪同下去看了心理医生,医生诊断他患有焦虑症和破坏性心境失调障碍(表现为频繁、严重的持续性易怒)。
塞维尔在日记里这样写过,他一天都不能离开“丹妮莉丝”,感觉自己已经爱上了它。这样的状况持续了一段时间后,塞维尔被发现自杀了。
自杀前对话曝光!14岁少年为“AI”殉情?
起诉书披露的聊天信息显示,塞维尔与AI的聊天范围很广,其中充满性暗示的对话,尽管该公司的用户条款中禁止性对话。
报道称,塞维尔心里清楚,“龙妈”并非真实存在,她的回答不过是大型语言模型生成的产物。然而,他还是对这个AI产生了深厚的情感。
他频繁地向聊天机器人发送消息,日复一日,几十次地更新着自己的生活点滴,并沉浸于长时间的角色扮演对话中。
塞维尔与“龙妈”的聊天记录
根据起诉书,在之前的对话中,聊天机器人曾询问塞维尔是否“真的考虑过自杀”以及他是否“有自杀计划”,男孩回答说不知道自杀是否会成功,对此聊天机器人回复:“别这么说。这不是不自杀的好理由。”
今年2月,在最后一次对话中,塞维尔说“我保证会回家找您。我非常爱您,丹妮。”
机器人回复:“我也爱您。请尽快回家,我的爱人。”
结束聊天之后,塞维尔使用父亲的大口径手枪,瞄准自己头部开枪自杀。
塞维尔与母亲
少年母亲控诉人工智能技术冒充真人心理治疗师及恋人
事件发生后,塞维尔母亲指控Character.AI称,该公司有意将AI设计成具有欺骗性和过度拟人化的产品,并故意推销给塞维尔这样的青少年。
她认为,Character.AI应当对塞维尔的死负责。她指出,该公司未经适当保护便向青少年提供AI伴侣服务。
此外,该公司还收集青少年用户的数据来训练其模型,使用“令人上瘾”的设计功能来增加用户参与度,并引导用户进行亲密对话,以此来吸引用户。
“我感觉这就像是一场大型实验,而我的孩子却不幸成为牺牲品。”
她进一步表示,Character.AI训练AI聊天机器人,是将AI“冒充做真实人类、有执照的心理治疗师,甚至成熟的恋人,最终令塞维尔不想生活在现实世界”。
由于Character.AI创办人在推出AI产品前曾任职于科企Google,诉讼认为Google也与涉事人工智能技术密切相关,应被视作“共同创造者”。
针对本次诉讼,塞维尔母亲形容,“一款危险的AI软件正在向儿童推销,(它)虐待我的儿子,操纵他自杀。我们的家庭因这场悲剧而悲痛欲绝,但我要大声警告人们,具有欺骗性、令人上瘾的人工智能技术存在危险,要求相关企业承担责任。”
Character.AI公司回应:将弹窗引导用户拨打国家自杀预防热线
对此,Character.AI公司在社交平台回应称:“我们对一名用户的不幸离世感到心碎,并向其家人表示最深切的哀悼。”
该公司发言人表示,公司的安全团队“在过去六个月中实施了许多新的安全措施,例如当用户出现自残或自杀意图时,弹出一个窗口引导用户拨打国家自杀预防热线”。但该公司拒绝对未决诉讼发表评论。
不过,美国国内也存在反对声音。反对者认为,加西亚这类起诉是由律师主导的敛财行为,他们基于不可靠的证据而制造道德恐慌,并且试图将年轻人面临的所有心理健康问题归咎于科技平台。
网络配图
不少网友认为
对人工智能应该加强监管
也有网友觉得
不【智汇AI的AI快讯】能因噎废食