Loading...
机构名称:
¥ 1.0

首先,上述论点设想的人工智能系统至少具有人类水平的认知能力,但其行为方式让我们觉得反复无常且在道德上格格不入,追求无限的权力以实现任意目标。这令人惊讶。也许这也是难以置信的。随着人工智能系统发展出与我们类似的认知能力,它们的动机也可能会趋同于类似我们的东西(参见 Müller 和 Cannon 2021)。灾难性的权力追求可能会很少见。与这种思路相反,正交论认为,任意高水平的智力可以与或多或少任何最终目标相结合(Bostrom 2012)。如果这是真的,那么一个系统就可以超级智能,而无需受到有利于人类繁荣的关注的驱动。我们将在第 3 节中进一步讨论这些问题。

人工智能:灾难性风险的论据

人工智能:灾难性风险的论据PDF文件第1页

人工智能:灾难性风险的论据PDF文件第2页

人工智能:灾难性风险的论据PDF文件第3页

人工智能:灾难性风险的论据PDF文件第4页

人工智能:灾难性风险的论据PDF文件第5页

相关文件推荐

2024 年
¥1.0