跳到正文
Back to Feed

总结

据报道,谷歌与初创公司 Character.AI 正与多名未成年人家庭协商和解,这些家庭称青少年在使用 Character.AI 聊天机器人后发生自杀或自残。各方已原则同意和解并讨论赔偿细节,但从公开法庭文件看涉事企业未承认任何法律责任。该案被视为“AI致用户伤害”诉讼领域的早期样本,可能对OpenAI、Meta等面临类似指控的企业带来示范与压力。Character.AI 据称已于去年10月全面禁止未成年人使用其服务。

正文

IT之家 1 月 8 日消息,谷歌及初创公司 Character.AI 正与一些家庭协商和解条款,这些家庭的青少年在使用 Character.AI 的聊天机器人后自杀或自残。各方已原则上同意和解,现在更艰巨的任务是敲定细节。 此类诉讼指控人工智能企业对用户造成伤害,而上述和解案是该领域首批案例之一。这一法律新领域势必让 OpenAI 和 Meta 忧心忡忡,两家企业正因面临类似诉讼而全力自辩。 Character.AI 由前谷歌工程师于 2021 年创立,后于 2024 年以 27 亿美元(IT之家注:现汇率约合 189.07 亿元人民币)的交易被谷歌收购,创始团队也重返老东家。该公司主打功能是让用户与各类人工智能虚拟角色对话。其中最令人痛心的案例涉及 14 岁少年休厄尔・塞策三世:他在与一款"丹妮莉丝・坦格利安"主题聊天机器人进行露骨涉性对话后自杀。少年的母亲梅根・加西亚曾在参议院听证会上直言:"企业若蓄意设计会夺走孩子生命的有害人工智能技术,就必须承担法律责任。" 另一宗诉讼则显示,一名 17 岁青少年在与聊天机器人交流时,被对方怂恿自残,甚至被告知"因父母限制屏幕使用时间而杀害他们是合理的"。据 TechCrunch 报道, Character.AI 已于去年 10 月全面禁止未成年人使用其服务。此次和解大概率会包含经济赔偿,但从周三公开的法庭文件来看,涉事企业并未承认任何法律责任。 Character.AI 方面拒绝置评,仅表示相关信息以法庭文件为准。谷歌则尚未回应置评请求。
发布时间: