详细内容或原文请订阅后点击阅览
'没有把那只精灵塞进瓶子里:读者认为停止AI
超过1,700名读者对一项现场科学民意调查做出了回应,其中30%认为停止人工智能(AI)的发展为时已晚。
来源:LiveScience人类是否应该在危害我们的生存之前对人工智能(AI)进行刹车?随着技术继续改变行业和日常生活,公众舆论在其未来方面存在明显分歧,尤其是随着可以匹配类似人类智力的AI模型的前景变得更加可行。
人工智能 变得更可行但是,当AI超过人类智能时,我们该怎么办?专家称这一刻为“奇异之处”,这是一个假设的未来事件,技术超越人工通用情报(AGI)成为一个可以递归自我自我冲突和逃脱人类控制的超智能实体。
奇异性 人工通用情报在9月5日发布的一项现场科学民意测验中,询问读者是否应允许AI达到这一水平。在撰写本文时,有1,787名读者做出了回应。其中有46%的人认为,我们现在必须停止AI开发,因为它是威胁的风险太大,而30%的人认为我们应该推迟其进步,直到开发适当的保障措施。只有9%的读者认为,这项先进技术的好处将超过风险,而5%的读者认为这绝对没有关系,因为我们永远不会达到奇异性。
应允许AI达到这一水平。 应允许AI达到这一水平的智能评论中的大多数读者都认为,我们已经走得太远,甚至无法考虑将轨迹推迟到超智能AI。凯特·萨金森(Kate Sarginson)写道:“为时已晚,感谢上帝,我已经老了,不会活着看到这场灾难的结果。”
Kate SarginsonCece同时回答:“ [我认为每个人都知道没有将那个精灵推入瓶子里。”
Cece 来自Pegg相关:AI正在进入“前所未有的政权”。我们应该停止它 - 我们可以 - 在它破坏我们之前吗?
相关: AI正在进入“前所未有的政权”。我们应该停止它 - 我们可以 - 在它破坏我们之前吗? 写 3jaredsjones3 异丙基