AI聊天机器人需要护栏来保护用户的心理健康

一项新的伊利诺伊州法律禁止AI在治疗中的某些用途。但是,法律似乎并没有解决人们在自己的生活中如何使用AI驱动的聊天机器人来寻求情感支持。研究技术的社会影响的两名研究人员认为,聊天机器人需要内置的护栏来保护用户的福祉。

来源:Undark Magazine

最近的两篇文章 - 一篇在《纽约时报》中,另一篇是路透社,讲述了两个经历过妄想的人的故事。艾伦·布鲁克斯(Allan Brooks)在五月份呆了三个星期,肯定他发现了一个新的数学分支。 3月,Thongbue Wongbandue离开了他在新泽西州的家,遇到了一个他认为在纽约市等他的女人,但不存在。共同的话题:这些人都与聊天机器人进行了互动,这些聊天机器人如此令人信服地模拟了亲密的亲密感,以至于改变了现实中的男人的基础。

t 最近的文章 发现 相信

诸如这些故事凸显了聊天机器人进入人们生活的程度,以进行陪伴,支持甚至治疗。然而,它们也表明需要进行监管响应,以解决与聊天机器人对话的潜在危险效果。伊利诺伊州最近通过加入美国第一批国家来规范AI驱动疗法,迈出了这一方向的重要一步。迄今为止,新法律称为《心理资源的健康与监督法》是最严格的:只有持牌专业人员才能提供治疗服务,而这些专业人员只能使用AI进行行政支持,而不是没有人类审查的“治疗性交流”。

法律

实际上,这意味着AI可以用于准备和维护记录,调度,计费和组织推荐等任务。但是,任何AI生成的治疗建议或治疗计划都需要获得许可的专业人员的审查和批准。被销售为自己提供治疗的AI系统似乎已被禁止,有些人已经阻止了伊利诺伊州用户注册。随着法律的执行,法院和监管机构将不得不澄清治疗沟通的开始以及行政支持的结束。

阻止 chatgpt
获取我们的时事通讯
每周发送 研究 反弹 自杀念头 允许 误导 紧张 查询 Ranjit Singh livia garofalo