随着人工智能(AI)的辅助搜索和推荐的系统在工作场所和日常生活中变得无处不在,对公平性的理解和核算在此类系统的设计和评估中引起了人们的关注。虽然越来越多的计算研究对测量系统的公平性和与数据和算法相关的偏见,但人类偏见超出了传统机器学习(ML)管道的影响仍在研究中。在此观点论文中,我们试图开发一个双面公平框架,不仅表征了数据和算法偏见,而且还突出了可能加剧系统偏见并导致不公平决定的认知和感知偏见。在框架内,我们还分析了搜索和接收性发作中人类和系统偏见之间的相互作用。基于双面框架,我们的研究综合了在认知和算法中采用的干预策略,并提出了新的目标和措施,以评估Sys-Tems在解决以及与数据相关的风险相关的偏见,Algoryty和Algority and Boundered and Boundered Rationals and boundered Rationals and Indered Rationals and Indered Rationals and Indered Rationals and Indered Rationals and Indered Rationals and Indered rentations。这是唯一地将有关人类偏见和系统偏见的见解纳入一个凝聚力的框架,并从以人为中心的角度扩展了公平的概念。扩展的公平框架更好地反映了用户与搜索和推荐系统的相互作用的挑战和机遇。采用双面信息系统设计中的方法有可能提高在线偏见的有效性,以及对参与信息密集型决策的有限理性用户的有用性。
主要关键词