Loading...
机构名称:
¥ 3.0

各个政治团体对人工智能 (AI) 提出的法律改革问题的答案可能有所不同,但近期的威胁是,能够造成伤害的人工智能系统将不局限于一个司法管辖区——事实上,将它们与特定司法管辖区联系起来可能根本是不可能的。这不是网络安全领域的新问题,尽管不同的国家监管方式将对有效监管构成障碍,而人工智能系统的速度、自主性和不透明性则加剧了这种障碍。因此,需要采取某种程度的集体行动。可以从监管全球公域的努力以及取缔某些产品(例如武器和毒品)和活动(如奴隶制和儿童性旅游)的举措中吸取教训。这里提出的论点是,从公共控制的意义上讲,监管需要国家的积极参与。为了协调这些活动并执行全球“红线”,本文提出了一个假设的国际人工智能机构 (IAIA),该机构仿照二战后成立的机构,旨在促进核能的和平利用,同时阻止或遏制其武器化和其他有害影响。

大规模杀伤性武器:人工智能和

大规模杀伤性武器:人工智能和PDF文件第1页

大规模杀伤性武器:人工智能和PDF文件第2页

大规模杀伤性武器:人工智能和PDF文件第3页

大规模杀伤性武器:人工智能和PDF文件第4页

大规模杀伤性武器:人工智能和PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥11.0
2024 年
¥2.0
2024 年
¥10.0
2024 年
¥1.0
1900 年
¥1.0