Character.AI 和 Google 同意就青少年不当死亡诉讼进行调解

一位媒体安全专家表示,这些诉讼“悲惨地提醒”,人工智能聊天机器人对于寻求情感支持的未成年人来说并不安全。

来源:K-12 Dive

该音频是自动生成的。如果您有,请告诉我们

潜水简介:

  • 周三,Character.AI 和 Google 同意与 14 岁儿童 Sewell Setzer III 的母亲达成和解。Sewell Setzer III 在与 Character.AI 的人工智能伙伴(旨在使用类人功能并与用户建立关系的社交聊天机器人)互动后自杀身亡。
  • 在 2024 年 10 月针对科技公司的过失死亡诉讼中,母亲梅根·加西亚 (Megan Garcia) 指控 Character.AI 在“不合理的危险设计”方面存在疏忽,并且“故意针对未成年儿童”。加西亚补充说,Character.AI 知道其人工智能伴侣会对未成年人有害,但未能重新设计其应用程序或警告该产品的危险。
  • Google 和 Character.AI 同意与科罗拉多州一个家庭就其 13 岁女儿朱莉安娜·佩拉尔塔 (Juliana Peralta) 过失死亡事件达成和解。待达成和解之际,社交媒体受害者法律中心和科技正义法律项目代表一个家庭提起了一项针对 ChatGPT 的类似诉讼,该家庭声称生成人工智能工具导致了他们孩子的自杀。
  • 潜水洞察力:

    Common Sense Media 人工智能和数字评估主管 Robbie Torney 表示,像加西亚这样的家庭对科技公司提起的诉讼“悲惨地提醒”,当儿童和青少年与人工智能互动以获得情感和心理健康支持时,人工智能聊天机器人对他们来说并不安全。

    但是,托尼说,这些法律案件只是这个问题的“冰山一角”,特别是当全国数百万青少年正在使用人工智能产品时——无论这些工具是集成到他们已经使用的 Instagram 等社交媒体应用程序中的工具,还是独立的人工智能工具(如 ChatGPT)中的工具。

    托尼说,与学生的此类对话可以包括询问他们喜欢使用人工智能的哪些方面,同时帮助他们了解当他们使用该技术而不是人类来陪伴时,他们可能会错过哪些支持。

  • 需要在线年龄保证。