Loading...
机构名称:
¥ 4.0

随着大型语言模型(LLM)的出现,具有越来越令人印象深刻的范围,已经提出了许多大型视觉模型(LVLM),以使LLM具有视觉输入。这样的模型在输入显示和文本提示下生成了文本,从而实现了各种用例,例如视觉问答和多模式聊天。虽然先前的研究检查了LLMS产生的文本中所包含的社会偏见,但该主题在LVLM中得到了相对尚未探索的。检查LVLMS中的社会偏见尤其具有挑战性,这是因为在文本和视觉方式中所包含的信息所产生的偏见的混乱贡献。为了解决这个挑战性问题,我们对不同的LVLM产生的文本进行了大规模研究,该文本在反事实上对输入图像进行了更改,从而从流行模型中提出了超过5700万个响应。我们的多维偏见评估框架表明,图像中描述的种族,性别和身体特征等社会属性可能会显着影响有毒内容,能力相关词,有害的立体类型以及个人的数值等级的产生。

与反事实>的大规模视力语言模型中的偏见

与反事实>的大规模视力语言模型中的偏见PDF文件第1页

与反事实>的大规模视力语言模型中的偏见PDF文件第2页

与反事实>的大规模视力语言模型中的偏见PDF文件第3页

与反事实>的大规模视力语言模型中的偏见PDF文件第4页

与反事实>的大规模视力语言模型中的偏见PDF文件第5页