人工智能伦理需要良好的数据
机构名称:
¥ 2.0

在本章中,我们认为,关于人工智能的论述必须超越“伦理”的语言,并与权力和政治经济相结合,才能构成“好数据”。特别是,鉴于伦理作为看待人工智能问题的框架的局限性,我们必须超越目前部署的非政治化的“伦理”语言(Wagner 2018),以确定人工智能是否“好”。为了规避这些限制,我们改用“好数据”的语言和概念(Daly、Devitt 和 Mann 2019),作为一个更广泛的术语来阐明人工智能以及其他数字技术的开发和部署所涉及的价值观、权利和利益。好数据的考虑超越了数据保护/隐私和 FAT(公平、透明和问责)运动的反复出现的主题,包括对权力的明确政治经济批判。我们不再提供更多的道德原则(它们往往说的是相同或相似的事情),而是提供四个“支柱”,以构建良好的数据 AI:社区、权利、可用性和政治。总体而言,我们认为 AI 的“善”是一个明确的政治(经济)权力问题(Winner 1980),并且始终与 AI 的创造和使用程度有关,以增加社会福祉,尤其是增加最边缘化和最被剥夺权利的人的权力。我们为实施“更好”的 AI 方法提供建议和补救措施。我们的策略使对 AI 进行一种不同(但互补)的评估成为 AI 构建和部署的更广泛的社会技术系统的一部分。

人工智能伦理需要良好的数据

人工智能伦理需要良好的数据PDF文件第1页

人工智能伦理需要良好的数据PDF文件第2页

人工智能伦理需要良好的数据PDF文件第3页

人工智能伦理需要良好的数据PDF文件第4页

人工智能伦理需要良好的数据PDF文件第5页

相关文件推荐

人工智能伦理
2023 年
¥2.0
数据伦理框架
2020 年
¥2.0
人工智能伦理声明
2021 年
¥1.0