Loading...
机构名称:
¥ 1.0

本文提出了对AI模型的目的限制概念,作为一种效率调节AI的方法。不受监管的(次要)使用特定模型会造成巨大的个人和社会风险,包括对个人或团体的歧视,侵犯基本权利或通过误解的民主扭曲。我们认为,拥有训练的模型,在许多情况下,这些模型包括匿名数据(即使培训数据包含个人数据),这是数据公司与社会之间跨性能的不对称性的核心。在我们的跨学科方法中结合道德和法律方面,我们将训练的模型而不是培训数据确定为监管干预的对象。这种改变的重点增加了现有的数据保护法和拟议的人工智能法。由于关注个人数据或培训数据的程序方面,因此这些因素效率降低了滥用训练的模型。利用了预防风险法的概念和相称的原则,我们认为强大的参与者的潜在使用训练的模型以损害社会的方式需要预防性监管干预措施。因此,我们试图通过使民主控制在何处以及如何使用和重复使用的何处和生成的AI能力来平衡权力的不对称性。

对模型的目的限制调节AI

对模型的目的限制调节AIPDF文件第1页

对模型的目的限制调节AIPDF文件第2页

对模型的目的限制调节AIPDF文件第3页

对模型的目的限制调节AIPDF文件第4页

对模型的目的限制调节AIPDF文件第5页

相关文件推荐

2024 年
¥1.0
2025 年

AI

¥2.0
2025 年
¥1.0
2025 年

AI

¥1.0
2024 年

AI

¥1.0
2024 年

AI

¥8.0
2024 年

AI

¥1.0
2025 年
¥4.0
2024 年

AI

¥1.0
2024 年
¥1.0
2024 年
¥1.0
2024 年

AI

¥2.0
2024 年
¥1.0
2025 年

AI

¥1.0
2025 年
¥1.0
2024 年
¥4.0
2024 年

AI

¥3.0
2020 年
¥1.0
2025 年
¥6.0
2024 年
¥1.0
2025 年

AI

¥1.0
2024 年
¥2.0
2023 年
¥1.0
2024 年
¥3.0
2020 年
¥4.0