本研究旨在了解文本转图像生成式人工智能平台如何延续种族主义和性别歧视等偏见,并解码这种偏见如何在大型语言模型和数据集中编程。在本研究中,生成式人工智能的结果通过情感和情感理论的视角进行分析,因为它们被用于研究生成式人工智能算法背后的机器学习和计算机理论。这项研究的目的是解释生成式人工智能为什么有偏见,以及这种偏见是由于当前趋势还是由于它从中提取信息的数据库中的缺陷和偏见而产生的。通过了解生成式人工智能的编码方式,我们试图了解生成式人工智能是否以及如何能够预测趋势,甚至超过人类的预测。这些对话都与生成式人工智能的伦理影响有关,以及随着文本转图像人工智能平台的扩展,我们是否应该实施问责机制,以确保这些平台以合乎道德和负责任的方式运行。本研究还通过分析当今世界社会和政治气候的趋势,探讨了人工智能的使用是否也会进一步加剧种族和性别歧视,要么是因为它的使用进一步鼓励了种族和性别歧视,要么是人工智能正在助长这种歧视。然而,这项研究的目的是了解生成式人工智能中偏见的起源和机制,特别是关于性别歧视和种族主义的比喻,并提出最佳实践建议,以帮助鼓励和实施指导方针,以更合乎道德和更认真地使用和应用生成式人工智能平台。
主要关键词