详细内容或原文请订阅后点击阅览
当前的AI比世界末日的未来情况更令人震惊,政治学家发现
大多数人通常更关心人工智能的直接风险,而不是AI威胁人类的理论未来。苏黎世大学的一项新研究表明,受访者在抽象场景和特定有形问题之间表现出明显的区别,尤其是对后者非常重视。
来源:英国物理学家网首页大多数人通常更关心人工智能的直接风险,而不是AI威胁人类的理论未来。苏黎世大学的一项新研究表明,受访者在抽象场景和特定有形问题之间表现出明显的区别,尤其是对后者非常重视。
有一个广泛的共识,即人工智能与风险有关,但是在理解和优先级的风险方面存在差异。人们普遍认为,理论上的长期风险,例如AI可能威胁到人类生存的风险。
人工智能另一个常见的观点重点是直接关注,例如AI系统如何扩大社会偏见或导致虚假信息。有些人担心强调戏剧性的“存在风险”可能会分散注意力为当今造成的更紧急实际问题。
现在和未来的AI风险
为了检查这些观点,苏黎世大学的政治科学家团队进行了三个大规模的在线实验,涉及美国和英国的10,000多名参与者。这些发现发表在《国家科学院》的杂志论文集中。
已发布 国家科学院的会议录一些受试者被证明了各种将AI描述为灾难性风险的头条新闻。其他人则了解当前的威胁,例如歧视或错误信息,而其他人则了解AI的潜在好处。目的是检查未来对灾难的警告是否远离AI引起的警觉性降低了对实际问题的警觉性。
对当前问题的更加关注
“我们的发现表明,受访者对AI带来的现有风险比对未来的潜在灾难更担心,” UZH政治学系的Fabrizio Gilardi教授说。