超越末日论者和否认论者:对 AI 发展的平衡看法

围绕人工智能安全性及其可能带来的生存风险的持续讨论似乎已升级为激烈的两极分化,参与者采取了根深蒂固的立场——“人工智能毁灭论者”与“人工智能否定论者”。这种对抗性分类不利于富有成效的讨论。这种对话应以经验证据、严格的成本效益分析和对潜在风险和收益的全面了解为基础。在我们为人工智能革命和超级智能人工智能系统的潜在出现做准备时,这一点至关重要,可确保我们的文明有足够的能力应对未来的挑战。我更喜欢这样思考这个问题:一方面,一些人严格遵守预防原则。这种观点表明,如果像人工智能这样的新技术有可能对人类或环境造成重大或持久的伤害,并且其背后的科学原理尚未得到充分理解或认可,那么举证责任就落在那些推广这项技术的人身上,以证明其安全性。另一方面,一些人赞同主动原则。这种观点鼓励人们继续追求进步和创新,同时承认在此过程中可能会犯错误。关键是从这些失误中吸取教训,并采取措施纠正它们。在讨论人工智能等新技术时,我更倾向于主动原则。话虽如此,我并不否认谨慎的必要性。然而,如果

来源:Marek Rosa - Goodai博客

围绕人工智能安全及其潜在生存风险的持续讨论似乎已升级为激烈的两极分化,参与者采取了根深蒂固的立场——“人工智能末日论者”与“人工智能否定论者”。

围绕人工智能安全及其潜在生存风险的持续讨论似乎已升级为激烈的两极分化,参与者采取了根深蒂固的立场——“人工智能末日论者”与“人工智能否定论者”。

这种对抗性分类无助于富有成效的讨论。

这种对抗性分类无助于富有成效的讨论。

此次对话应以经验证据、严格的成本效益分析和对潜在风险和收益的全面理解为基础。

此次对话应以经验证据、严格的成本效益分析和对潜在风险和收益的全面理解为基础。

在我们为人工智能革命和超级智能系统的潜在出现做准备时,这一点至关重要,可确保我们的文明有足够的能力应对未来的挑战。

在我们为人工智能革命和超级智能系统的潜在出现做准备时,这一点至关重要,可确保我们的文明有足够的能力应对未来的挑战。

我更喜欢这样想:

我更喜欢这样想:

一方面,一些人严格遵守预防原则。这种观点表明,如果像人工智能这样的新技术有可能对人类或环境造成重大或持久的伤害,并且其背后的科学尚未完全理解或达成一致,那么举证责任就落在那些推广这项技术的人身上,以证明其安全性。

在讨论人工智能等新技术时,我更倾向于主动原则。

在讨论人工智能等新技术时,我更倾向于主动原则。 https://en.wikipedia.org/wiki/Proactionary_principle