详细内容或原文请订阅后点击阅览
一场文化战争正在为AI
人工智能系统(例如聊天机器人和机器人)会发展意识吗?伦理学家说,这样的AI系统似乎表达了情绪或偏好,即使以有限的方式 - 对其权利的关注也会增长,从而在公众舆论中产生鸿沟。社会如何准备?
来源:Undark Magazine比我们想象的要早,公众舆论将围绕人工智能系统的权利和道德考虑而分歧。问题不是AI(例如聊天机器人和机器人)是否会发展意识,而是这种现象的出现也会跨越已经压力的文化鸿沟分裂社会。
s ooner胜于已经有了即将到来的分裂的暗示。我最近为科学美国人报道了一个新的研究领域,探讨了疼痛能力是否可以作为AI中检测知觉或自我意识的基准。新的AI感知测试方法正在出现,最近对大型语言模型或LLMS样本样本的预印刷研究表明,人们偏爱避免疼痛。
科学 American , 研究这样的结果自然会导致一些重要的问题,这些问题远远超出了理论上。现在,一些科学家认为,这种苦难或其他情感的迹象可能在AI中变得越来越普遍,并迫使我们人类考虑AI意识(或感知意识)对社会的含义。
涉及AI感知的技术可行性的问题很快就让位于更广泛的社会问题。对于“道德圈子:重要,重要和原因的人”的作者杰夫·塞博(Jeff Sebo)来说,即使在不久的将来会出现具有感情特征的AI系统的可能性也是为即将到来的AI福利是现实的实现时代认真规划的理由。 Sebo在一次采访中告诉我,我们很快将有责任采取“认真对待此问题的最低必要第一步”,并且AI公司需要开始评估系统的相关功能,然后制定与适当道德关注水平的AI系统的政策和程序。
道德圈子:谁重要,重要以及为什么 监护人 悲伤 播客 著名击败 agi 注册新闻通讯: 在这里 写