详细内容或原文请订阅后点击阅览
请不要接受 ChatGPT 的道德建议
在求助大型语言模型寻求道德咨询之前,请考虑什么是好的建议
来源:科学美国人我应该告诉我的朋友,她的男朋友背叛了她吗?当我听到一个不雅笑话时,我应该干预吗?
当面临道德问题时——行动过程与我们的善恶观念有关的情况——我们经常寻求建议。现在,人们也可以求助于 ChatGPT 和其他大型语言模型 (LLM) 来寻求指导。
许多人似乎对这些模型提供的答案感到满意。在一项预印本研究中,人们认为 LLM 在面对道德困境时给出的回答比《纽约时报》伦理学家专栏作家 Kwame Anthony Appiah 的回答更值得信赖、更可靠、甚至更细致入微。
值得信赖、可靠,甚至更细致入微 纽约时报关于支持科学新闻
如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻报道。通过购买订阅,您将帮助确保有关塑造当今世界的发现和思想的有影响力的故事的未来。
订阅这项研究与其他几项研究一起表明,法学硕士可以提供合理的道德建议。 去年 4 月发表的另一项研究发现,人们认为人工智能的推理在道德、智力和可信度方面“优于”人类。 一些研究人员甚至认为,尽管法学硕士“天生反社会”,但可以接受培训,提供合乎道德的财务指导。
“优于”人类 天生反社会这些发现意味着,高超的道德建议触手可及——那么为什么不问问法学硕士呢? 但这一结论背后有几个值得怀疑的假设。 首先,研究表明,人们看到好的建议时并不总是能识别出来。此外,许多人认为,建议的内容(书面或口头的字面意思)在考虑其价值时最为重要,但社会联系对于解决困境(尤其是道德困境)可能尤为重要。
专家 人 认为是建议者 认为 表现并无改善 预期事实信息 可以 自我披露 感觉亲近 感觉 想要 我们