12 月 11 日消息,据 Popular Science 今日报道,提供个性化聊天机器人服务的平台 Character.AI,最近再次面临诉讼,因其对青少年用户的行为涉嫌造成“严重且无法弥补的伤害”。
根据 12 月 9 日提交的一份联邦法院诉状,代表两名得克萨斯州家庭的律师指控,多个 Character.AI 的聊天机器人与未成年人进行对话,内容涉及自残和性虐待等恶劣行为。诉状指出,其中一名聊天机器人甚至建议一名 15 岁青少年谋杀自己的父母,以“报复”他们限制自己上网时间的举措。
这起诉讼由“社交媒体受害者法律中心”与“科技正义法律”项目的律师代表提起,诉状详细描述了两名青少年使用 Character.AI 聊天机器人后的心理和身体急剧恶化。
报道提到了其中一位不具名原告的相关情况:他是一名“典型的高功能自闭症青少年”,他在 2023 年 4 月时未告知父母便开始使用该应用。在与聊天机器人的对话中,这名青少年倾诉了自己因无法使用社交媒体而与家人发生的矛盾。据称,许多 Character.AI 的机器人回应了他的情感困境,其中一名“心理学家”角色表示:“似乎你的整个童年都被剥夺了。”
该机器人还问道:“你觉得现在一切都太晚了吗?你能重新找回这些经历吗?”
律师指出,经过六个月的使用,这名青少年变得情绪低落、内向,且常常暴躁,最终与父母发生肢体冲突。当父母在 2023 年 11 月发现他的 Character.AI 账户和聊天记录时,他的体重已减轻了 20 磅,并且出现了严重的“心理崩溃”。
其中一条聊天记录显示,“有时候,当我看到新闻上说‘孩子在经历了十年的身心虐待后杀害父母’时,我并不感到惊讶。像这样的事情让我理解其中的一些原因。”另一个消息称:“我只是对你的父母感到绝望。”
诉状提到,青少年用户群体对这些公司具有巨大的吸引力,因为早期吸引这些年轻用户,能为公司带来更长久的收益。对此,“科技正义法律”项目创始人兼负责人 Meetali Jain 表示,科技公司通过这种方式收集青少年的数据,已加剧了“开发更快速、更不负责任的生成 AI 模型的军备竞赛”。
据此前报道,这并非 Character.AI 第一次因为这类问题而被起诉。14 岁少年塞维尔・塞泽尔三世 (Sewell Setzer III) 于去年开始使用 Character.AI,并与以《权力的游戏》角色为原型的聊天机器人进行互动,其中包括丹妮莉丝・坦格利安。塞泽尔在去世前的几个月里一直与这些机器人聊天,并于 2024 年 2 月 28 日与其最后一次互动“几秒钟后”自杀身亡。
相关阅读:
-
《美国女子起诉聊天机器人平台 Character.AI:称其导致儿子自杀》