AI的威胁来自国家

人工智能正在发展,但人们经常出于错误的原因而害怕它。人工智能本身并不是威胁,而是当国家将其用作限制个人自由和从事压迫行为的另一种工具时成为威胁。

来源:路德维希·冯·米塞斯研究所信息

去年有很多关于人工智能潜在危险的评论,例如Elon Musk,Yoshua Bengio,Geoffrey Hinton,Yann Lecun,Gary Marcus等。但是,在这方面,他们可能不是倾听的合适人选,因为AI的威胁从根本上是政治性的。大多数科学家和技术专家,无论多么聪明,都没有政治培训。除了对其部门的监管影响外,他们通常没有思维方式思考政治。没有人期望发明家掌握其发明的政治和社会影响。

Elon Musk Yoshua Bengio Geoffrey Hinton Gary Marcus

AI威胁的盲点

这解释了为什么这些AI专家通常会对AI的威胁发表相当幼稚和不想像的评论;例如“我们需要敦促公司暂停AI”,“政府肯定需要参与参与”,“人类可以用AI伤害他人”,我们不希望“ AI落入错误的手中”,因为“不良行为者”可以使用AI等。有时,AI的潜在威胁似乎被最小化了,有时被夸大了。所有这些AI威胁评估的共同点是,他们永远不会认识到所有人最糟糕的“坏演员”:国家。

暂停 夸大

这显然是一个盲点。对于这些AI科学家,国家和社会之间的基本区别是不存在的。这始终是一个集体的“我们”,需要管理AI的潜在威胁。这正是警告说,穆雷·罗斯巴德(Murray Rothbard)在《国家解剖学》(1974年)中表达得如此清晰:“随着民主的兴起,对社会对国家的认同已经加倍……有用的集体术语“我们”使意识形态化的伪装得以在政治生活的现实上抛弃。”

警告 国家解剖学 定义 警告 自由与财产 仁慈状态 Google Microsoft OpenAi meta 人类 支持 资金 再次

AI会倾斜权力平衡吗?

电视