华盛顿的配套聊天机器人法案留下了开放式的重要细节

合理实现的举证责任需要基于具体产品功能的明确定义、可测试和客观的要求。华盛顿邮报的配套聊天机器人法案留下了开放式的重要细节,首先出现在 Reason Foundation 上。

来源:理性基金会信息

以下公众意见的版本已于 2026 年 2 月 26 日提交给华盛顿州参议院和华盛顿州众议院,涉及众议院第 2225 号法案和参议院第 5984 号法案。

我们同意发起者的目标,即保护未成年人免受与人工智能 (AI) 同伴聊天机器人的有害互动,但在该法案目前的形式中,众议院第 2225 号法案 [和参议院第 5984 号法案] 包含模糊的定义和要求,这将使合规性成为一场猜谜游戏。

[两项法案]一旦运营商“知道”用户是未成年人,就会通过施加更高的关税来推动聊天机器人平台运营商进行年龄验证,但该法案对于公司应采取的确定用户年龄的步骤含糊其辞。这种模糊性可能会促使公司过度收集个人信息以降低责任风险或限制所有用户访问某些合法服务。

这两项法案都依赖于哪些内容会引发责任的主观标准,例如“暗示性对话”和“旨在培养情感依恋的过度赞扬”。由于这些术语没有被定义,它们很可能会因为语气、上下文和意图问题而受到诉讼。而且,由于违法行为是通过《消费者保护法》强制执行的,因此将这些界限交给监管机构和法院会导致不一致的结果,并鼓励过于广泛的限制,甚至可能席卷良性的互动。

为了避免此类陷阱,我们的团队建议政策制定者优先考虑明确定义、客观且可测试的要求,重点关注具体的产品功能和保障措施,而不是对对话内容性质的主观判断。例如,该法案要求聊天机器人披露其不是人类,以及要求维持检测和应对自杀意念或自残的协议,这些比试图调节语气和情绪影响要具体得多。

建议修改: