Loading...
机构名称:
¥ 1.0

人工智能 (AI) 在许多方面都是有益的,但也有有害影响,对个人和社会构成风险。应对人工智能风险是一项面向未来的努力,需要以前瞻性的方式进行。前瞻性责任是关于谁应该做什么来补救或防止伤害。以正在进行的欧盟人工智能发展政策进程为出发点,本文的目的是讨论人工智能发展的前瞻性责任的分配,包括责任主体和人工智能发展的负担或资产方面的义务。该分析以欧盟进程中产生的文件为基础,特别关注欧洲议会的早期作用、人工智能高级专家组的工作以及委员会对人工智能监管的提议,并质疑前瞻性责任对被赋予前瞻性责任的主体和人工智能发展的影响。研究了三个问题:设计伦理、通用人工智能 (AGI) 和竞争。总体而言,对欧盟人工智能政策进程的分析表明,竞争是首要价值观,而且这种观点是技术性的,侧重于短期问题。至于设计伦理,在将责任分配给设计师和其他技术专家之后,应该将哪些价值观融入技术以及如何解决这一问题仍然是一个问题。AGI 从未真正成为这一政策进程中的问题,它逐渐被淘汰。欧盟人工智能进程中的竞争是一种规范,它规定了如何处理责任,并引发了潜在的价值观冲突。

欧盟人工智能监管进程中的前瞻性责任分配

欧盟人工智能监管进程中的前瞻性责任分配PDF文件第1页

欧盟人工智能监管进程中的前瞻性责任分配PDF文件第2页

欧盟人工智能监管进程中的前瞻性责任分配PDF文件第3页

欧盟人工智能监管进程中的前瞻性责任分配PDF文件第4页

欧盟人工智能监管进程中的前瞻性责任分配PDF文件第5页

相关文件推荐

2023 年
¥1.0
2023 年
¥1.0
2022 年
¥1.0
2023 年
¥1.0