本文调查了人类与AI驱动的聊天机器人的互动如何冒犯人的尊严。当前的聊天机器人,由大语言模型(LLM)驱动,模仿人类语言行为,但缺乏真正的人际际尊重所必需的道德和理性能力。人类倾向于拟人化聊天机器人 - 的确,聊天机器人似乎是故意设计的,以引起这种反应。结果,人类对聊天机器人的行为类似于道德药物之间互动的典型行为。借鉴了尊严的二人关系说明,我们认为以这种方式与聊天机器人进行交互与用户的挖掘不兼容。我们表明,由于第二个人的尊重是基于对二个人道德权威的相互认可,因此鉴于缺乏互惠性,以传达第二个人的尊重的方式行事以道德上有问题。因此,这种聊天机器人的互动等于微妙但有明显的侵犯自尊的行为 - 我们有责任表现出自己的尊严。我们通过讨论四个实际的聊天机器人用例(信息检索,客户服务,咨询和陪伴)来说明这一点,并提出,与聊天机器人进行这种互动的社会压力越来越多,迄今对人类尊严的威胁不足。
主要关键词