AI陪伴的迫在眉睫的镇压

只要有AI,人们就会向我们发出警报:Rogue超级智能,大规模失业或数据中心蔓延的环境破坏。但是本周表明,完全威胁 - 与AI形成不健康的纽带的孩子是从学术中撤出AI安全的人……

来源:MIT Technology Review _人工智能

很难夸大这些故事的影响。对公众来说,它们证明了人工智能不仅是不完善的,而且是一种比帮助更有害的技术。如果您怀疑监管机构和公司是否会认真对待这种愤怒,那么本周发生的三件事可能会改变您的想法。

加利福尼亚法律通过了立法机关

在星期四,加利福尼亚州立法机关通过了一项首先的法案。它将要求AI公司包括他们知道是未成年人的用户的提醒,即响应是AI产生的。公司还需要制定解决自杀和自我伤害的协议,并提供有关用户与聊天机器人对话的自杀意念的年度报告。它是由民主党州参议员史蒂夫·帕迪拉(Steve Padilla)领导的,得到了​​两党的支持,现在等待州长加文·纽瑟姆(Gavin Newsom)的签名。

有理由怀疑该法案的影响。它没有指定公司应采取的努力来确定哪些用户是未成年人,并且许多人的AI公司在有人谈论自杀时已经将危机提供者推荐给了危机提供者。 (以亚当·雷恩(Adam Raine)为例,一位幸存者正在起诉的少年,他去世前与Chatgpt的对话包括这种信息,但据称该聊天机器人继续提供与自杀有关的建议。)

提供建议

仍然,毫无疑问,这是阻止AI模型中类似同伴行为的最重要的努力,在其他州也在进行中。如果该法案成为法律,这将对Openai的立场造成打击,即“美国在全国范围内的规定,而不是州或地方法规的拼凑而不是拼凑的,”该公司首席全球事务官克里斯·莱哈恩(Chris Lehane)上周在LinkedIn上写道。

其他状态

联邦贸易委员会采取目标

查询 非法 上周