本文描述了我们所说的“黑人纳粹问题”,即人工智能产生的有时令人不快的文本和图像的简称,从不协调的(如印度女教皇)到令人愤慨的(如将少数民族描绘成他们自己的历史压迫者,包括黑人纳粹)。这些图像是人工智能开发人员过度努力的结果,旨在纠正用于创建生成式人工智能模型的训练数据中缺乏多样性的代表性。白人、健全的西方男性在高地位类别的图像中过多出现,而女性、有色人种和残疾人(低地位类别除外)则不可见,而且几乎完全没有逼真的非性感女性图像,这些都困扰着所有文本到图像的人工智能模型。我们认为,训练数据中明显缺乏多样性代表性以及有时笨拙地过度补偿这种偏见都暴露了社会问题,而不是技术问题。问题不在于人工智能技术本身,而在于我们自己:人工智能训练数据反映了历史偏见的积累,也反映了我们当前的不平等。人工智能的创造过程有四个重要因素,它们可以解释黑人纳粹问题,并揭示社会中更广泛的问题:我们的历史、社会结构、我们有时相互矛盾的愿望,以及人工智能图像生成的聚合过程。了解人工智能创造过程的这些方面,就会发现人工智能的弱点是我们持续与过去不平等的影响作斗争的症状,以及平衡内在冲突的目标(如理想的多样性和历史准确性)的困难。我们得出了这个问题的文化、技术、政策和法律含义。总之,黑人纳粹问题为我们提供了一个窗口,让我们了解人工智能中需要面对的其他棘手的社会技术问题。
主要关键词