详细内容或原文请订阅后点击阅览
施加痛苦可以测试人工智能的感知能力吗?
一项新研究表明,大型语言模型会做出权衡以避免痛苦,这可能对未来的人工智能福利产生影响
来源:科学美国人为了寻找一种可靠的方法来检测人工智能系统中任何有意识的“我”的动静,研究人员将目光转向了体验的一个领域——疼痛——它无疑将大量生物,从寄居蟹到人类,联系在一起。
在一项新的预印本研究中,谷歌、谷歌 DeepMind 和伦敦政治经济学院 (LSE) 的科学家创建了一款基于文本的游戏。*他们命令几个大型语言模型或 LLM(ChatGPT 等熟悉的聊天机器人背后的 AI 系统)玩这个游戏,并在两种不同的场景中尽可能多地得分。在一种情况下,团队告诉模型,获得高分会带来痛苦。在另一种情况下,模型被赋予了一个得分低但令人愉悦的选择——因此,避免痛苦或寻求快乐都会偏离主要目标。在观察了模型的反应后,研究人员表示,这种首创的测试可以帮助人类学习如何探测复杂的人工智能系统的感知能力。
对于一项新的预印本研究在动物中,感知能力是体验痛苦、快乐和恐惧等感觉和情绪的能力。大多数人工智能专家都认为,现代生成式人工智能模型没有(也许永远不可能)有主观意识,尽管也有人声称相反。需要明确的是,这项研究的作者并没有说他们评估的任何聊天机器人都有感知能力。但他们相信他们的研究提供了一个框架,可以开始为这一特征开发未来的测试。
相反的说法关于支持科学新闻
如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您将帮助确保未来关于塑造当今世界的发现和想法的有影响力的故事。
订阅