详细内容或原文请订阅后点击阅览
人工智能聊天机器人似乎和纽约时报建议专栏作家一样合乎道德
大型语言模型缺乏情感和自我意识,但它们似乎能够对道德困境产生合理的答案
来源:科学美国人1691 年,伦敦报纸《雅典水星报》发表了可能是世界上第一个建议专栏。这开启了一个蓬勃发展的流派,并产生了许多变体,例如《问问安·兰德斯》,它娱乐了北美半个世纪的读者,以及哲学家夸梅·安东尼·阿皮亚在《纽约时报》杂志上每周开设的《伦理学家》专栏。但现在,人类的建议提供者面临着竞争:人工智能——尤其是大型语言模型 (LLM) 的形式,例如 OpenAI 的 ChatGPT——可能准备提供人类水平的道德建议。
《雅典水星报》 《纽约时报》德国斯图加特大学计算机科学家 Thilo Hagendorff 说,LLM 具有“超人评估道德状况的能力,因为人类只能接受这么多书籍和这么多社会经验的训练——而 LLM 基本上了解互联网”。 “法学硕士的道德推理能力远胜于普通人的道德推理能力。”人工智能聊天机器人缺乏人类伦理学家的关键特征,包括自我意识、情感和意图。但 Hagendorff 表示,这些缺点并没有阻止法学硕士(需要吸收大量文本,包括对道德困境的描述)对道德问题给出合理的答案。
纽约时报 去年秋天作为工作论文发布 科学美国人关于支持科学新闻
如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您将帮助确保未来关于塑造当今世界的发现和想法的有影响力的故事。
订阅 另一篇论文 延续偏见人工智能生成的道德建议的吸引力可能部分与此类系统明显的说服力有关。在去年春天在线发布的预印本中,法国图卢兹商学院的 Carlos Carrasco-Farré 认为,法学硕士“已经像人类一样具有说服力。然而,我们对他们如何做到这一点知之甚少。”
预印本