Loading...
机构名称:
¥ 1.0

人工智能(AI)已成为我们日常生活中不可或缺的一部分,从虚拟分析到推荐系统为各种应用提供了动力。但是,随着AI系统越来越多地与人互动并做出决定,对公平和偏见的担忧已经走向了最前沿。这些系统经常在大型数据集中受过培训,并不总是清楚地确保数据收集过程中数据质量的准则,可以无意中学习和延续这些数据集中存在的偏见,从而导致不公平的结果。一个众所周知的例子是美国刑事司法系统中使用的Compas系统,该系统预测被告再犯罪的可能性。Propublica的一项研究发现,该系统对非裔美国人被告有偏见,因为即使没有事先定罪,他们也更有可能被标记为高风险。应对这些挑战,AI研究界的一部分一直在探索各种策略,以确保偏见并确保公平。已经出现了大量方法,其中一些涉及重新处理用于培训此类系统的数据,而另一些方法涉及根据预定义的公平指标选择最佳模型,或者其他涉及为决策制定程序提供更透明的方法。而LLM是AI中最突出的突破之一,在广泛的

探索大型语言模型以缓解偏见和公平

探索大型语言模型以缓解偏见和公平PDF文件第1页

探索大型语言模型以缓解偏见和公平PDF文件第2页

探索大型语言模型以缓解偏见和公平PDF文件第3页

探索大型语言模型以缓解偏见和公平PDF文件第4页

探索大型语言模型以缓解偏见和公平PDF文件第5页

相关文件推荐