Loading...
机构名称:
¥ 4.0

当应用于诸如审查求职者简历和信贷申请等决策时,人工智能模型可能会加剧歧视和不公平。33 算法偏见是指算法(包括人工智能系统)中内置的偏见,无论是有意还是无意,都会导致不公平,包括排斥性经历和歧视性做法。34 著名的研究发现,面部识别技术在不同人口群体中的表现不同,深色皮肤女性的错误率要高得多,因为该算法没有针对广泛的肤色和面部结构进行训练。35 在另一个背景下,当金融机构使用人工智能系统进行贷款决策时,由于包括红线在内的歧视性政策,历史数据中的偏见可能会被复制,从而加剧现有的差距。36

2024 年人工智能工作组报告 - WaTech

2024 年人工智能工作组报告 - WaTechPDF文件第1页

2024 年人工智能工作组报告 - WaTechPDF文件第2页

2024 年人工智能工作组报告 - WaTechPDF文件第3页

2024 年人工智能工作组报告 - WaTechPDF文件第4页

2024 年人工智能工作组报告 - WaTechPDF文件第5页