与传统 AI 应用一样,AI 生成的内容也可能延续偏见和歧视性的错误表述。在某些情况下,传统 AI 应用会保留或加剧社会偏见,就像 AI 生成的内容可以重现或创建代表性不足或边缘化群体的主题或错误描述一样。12 AI 算法的好坏取决于可用于训练它们的信息,有时可能会接受讽刺性内容的训练,或以 AI 模型无法理解的方式用于宣传历史上被边缘化群体的个人的仇恨刻板印象。这可能导致 AI 生成的内容不准确或包含对边缘化人群或文化的不公平描述。偏见和歧视问题通常源于训练数据或模型如何得到强化以理解数据输入。