Loading...
机构名称:
¥ 1.0

用于光线充足,面向面的条件可能由客户在不理想的条件下应用,从而导致总体和特定子组的降解。第二,我们生活在AI行动主义时代,研究人员,记者和其他外部各方可以独立审核商业或开源API的模型,并在研究社区和主流媒体中发布其发现。在没有更严格的AI和ML监管的情况下,这种行动主义是推动开发ML模型和工具的组织变革的最强大力量之一。它具有利用分布式研究人员的分布团队,在部署的模型和系统中寻找各种各样的问题。不幸的是,ML开发人员与其批评家之间的动态目前具有一些对抗性语气。通常会私下进行外部审计,并在与建立模型和系统的组织进行咨询之前公开播出。该组织可能会忍受批评,并在内部试图解决确定的偏见或问题,但通常与外部审计师几乎没有直接互动。随着时间的流逝,软件和安全社区已经开发了“错误赏金”,以尝试将系统开发人员及其批评家(或黑客)之间的类似动态转变为更具活跃和生产力的目的。希望是,通过故意邀请外部各方在其系统中找到软件或硬件错误,并且通常会为此提供货币激励措施,更健康,更快地响应的生态系统将发展。ML社区自然要考虑一种类似的“偏见赏金”方法来及时发现和修复具有偏见或其他不良行为的模型和系统。不是在软件中找到错误,而是邀请外部各方找到偏见,例如,(人口统计或其他)训练有素的模型表现不佳的输入子组,并以此为其奖励。的确,我们已经开始在此类事件中看到早期的现场实验[6]。在这项工作中,我们提出和分析了针对现有训练的模型F(x)进行偏置赏金的原则性算法框架。我们的框架具有以下属性和功能:

偏见赏金算法框架

偏见赏金算法框架PDF文件第1页

偏见赏金算法框架PDF文件第2页

偏见赏金算法框架PDF文件第3页

偏见赏金算法框架PDF文件第4页

偏见赏金算法框架PDF文件第5页

相关文件推荐

2023 年
¥1.0
2020 年
¥1.0
2023 年
¥2.0
2024 年
¥1.0
2021 年
¥1.0
2024 年
¥1.0
2020 年
¥3.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
1900 年
¥3.0
2023 年
¥5.0
2024 年
¥2.0
2025 年
¥4.0
2024 年
¥1.0
2024 年
¥10.0
2024 年
¥1.0
2023 年
¥1.0
2023 年
¥1.0
2023 年
¥1.0
2021 年
¥1.0
2022 年
¥1.0
2021 年
¥12.0
2025 年
¥1.0
2021 年
¥1.0