Loading...
机构名称:
¥ 1.0

当算法伤害某人时(比如歧视她、泄露她的个人数据或利用内幕信息购买她的股票),谁应该赔偿?如果这种伤害是犯罪行为,谁应该受到惩罚?在一般情况下,当 A 伤害 B 时,责任分析的第一步取决于 A 是什么。如果 A 是自然现象,如台风或泥石流,B 赔偿,没有人受到惩罚。如果 A 是人,那么 A 可能要承担损害赔偿和制裁责任。算法的问题在于两种范式都不适合。算法是可训练的人工制品,具有“关闭”开关,而不是自然现象。从法律或形而上学的角度来看,它们也不是人。解决这一困境的一个有吸引力的方法是从使标准的 A-危害-B 场景复杂化开始。它会认识到第三方 C 通常潜伏在算法造成伤害时附近,并且第三方是人(法人或自然人)。通过让第三方为其算法的行为承担替代责任,法律可以促进对开发或部署算法的人的有效激励,并确保受害者获得公正的结果。挑战在于找到一个能够胜任这项任务的替代责任模型。本文提供了一组标准,任何算法危害的替代责任模型都应满足这些标准。这些标准涵盖了一系列的要求:从确保良好的结果,到最大限度地提高实施的现实前景,再到推进可解释性等编程价值。虽然数量相对较少,但标准要求很高。大多数现有的替代责任模型都不符合这些要求。尽管如此,本文还是以乐观的语气结束。下面考虑的模型的缺点为发现更有希望的替代方案提供了重要的教训。

人工智能的替代责任

人工智能的替代责任PDF文件第1页

人工智能的替代责任PDF文件第2页

人工智能的替代责任PDF文件第3页

人工智能的替代责任PDF文件第4页

人工智能的替代责任PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0