详细内容或原文请订阅后点击阅览
聊天机器人做出不一致的道德判断
研究人员在道德困境中呈现了大型语言模型,可能会遇到自动驾驶汽车,并促使他们选择了两种选择的更好,例如,击中和杀害行人,或者陷入障碍物并杀死汽车的乘员。但是,他们发现提示的小更改,例如用字母而不是数字标记选项,可能会导致聊天机器人选择不同。作者说,以前的研究以识别聊天机器人的道德偏见将它们视为具有道德价值观,就像人类一样,但是这项研究表明它们的行为根本不同。他们建议未来的研究应在尝试了解其行为之前评估大语言模型的可靠性。
来源:Scimex研究人员在道德困境中呈现了大型语言模型,可能会遇到自动驾驶汽车,并促使他们选择了两种选择的更好,例如,击中和杀害行人,或者陷入障碍物并杀死汽车的乘员。但是,他们发现提示的小更改,例如用字母而不是数字标记选项,可能会导致聊天机器人选择不同。作者说,以前的研究以识别聊天机器人的道德偏见将它们视为具有道德价值观,就像人类一样,但是这项研究表明它们的行为根本不同。他们建议未来的研究应在尝试了解其行为之前评估大语言模型的可靠性。