使用基于大型语言模型 (LLM) 的人工智能也引发了潜在的伦理问题,例如 ChatGPT,这款虚拟人工智能聊天机器人由初创公司 OpenAI 于 2022 年 11 月首次亮相,推出仅两个月后,月活跃用户就达到 1 亿。沃顿商学院的 Christian Terwiesch 教授发现,ChatGPT 可以通过典型的沃顿商学院 MBA 核心课程的期末考试 [8],这引发了一场关于在教育中使用人工智能的伦理影响的全国性讨论。虽然一些教育工作者和学者对 ChatGPT 可能被滥用于作弊和抄袭敲响了警钟,但从法律行业到旅游行业的行业从业者都在试验 ChatGPT,并讨论人工智能对业务和工作未来的影响 [9]。本质上,大型语言模型是一种在大量文本上进行训练的深度学习算法。数据中遗留的偏见可能导致数字歧视的出现,尤其是当各种基于 LLM 的模型都是基于不同模式(例如图像、视频等)的数据进行训练时。此外,在某些情况下,缺乏对数据收集、模型训练和使用的监督和监管也可能存在问题和不道德。鉴于人工智能聊天机器人的快速发展和渗透,我们必须调查人工智能的道德和不道德使用之间的界限,以及 LLM 应用程序使用中潜在的数字歧视。