Loading...
机构名称:
¥ 7.0

摘要 预计通用人工智能的发明将导致人类文明轨迹的转变。为了获得这种强大技术的好处并避免陷阱,能够控制它是很重要的。然而,控制通用人工智能及其更高级版本超级智能的可能性尚未正式确定。在本文中,我们提出了来自多个领域的论据和支持证据,表明高级人工智能无法完全控制。从人类未来和人工智能研究以及人工智能安全和保障的角度讨论了人工智能不可控性的影响。本文可以作为不可控性主题的全面参考。关键词:人工智能安全和保障、控制问题、更安全的人工智能、不可控性、不可验证性、X-Risk。

关于人工智能的可控性

关于人工智能的可控性PDF文件第1页

关于人工智能的可控性PDF文件第2页

关于人工智能的可控性PDF文件第3页

关于人工智能的可控性PDF文件第4页

关于人工智能的可控性PDF文件第5页

相关文件推荐

2024 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2020 年
¥1.0
2023 年
¥3.0
2024 年
¥4.0
2023 年
¥1.0
2013 年
¥3.0
2024 年
¥1.0
2023 年
¥5.0
2023 年
¥2.0
2020 年
¥9.0
2024 年
¥4.0
2022 年
¥3.0
2021 年
¥6.0
2023 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2021 年
¥1.0
2023 年
¥1.0
2020 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2023 年
¥11.0
2024 年
¥2.0
2024 年
¥10.0
2024 年
¥1.0