随着大型语言模型(LLM)已变得更加深入地整合到各个部门中,因此了解它们如何做出道德判断已经变得至关重要,尤其是在自动驾驶领域。本研究使用道德机器框架来研究包括GPT-3.5,GPT-4,Palm 2和Llama 2在内的突出LLM的道德决策趋势,以将其反应与人类偏好进行比较。虽然LLMS和人类的偏好,例如将人类优先于宠物优先考虑,而偏爱挽救更多的生命是广泛的,但Palm 2和Llama 2,尤其是证据,尤其是证据明显的偏差。此外,尽管LLM和人类偏好之间存在定性相似之处,但与人类的温和倾向相比,LLMS可能倾向于更加毫不妥协的决策。这些见解阐明了LLM的道德框架及其对自主驾驶的潜在影响。
主要关键词