科技可以是一件美妙的事情。然而,正如所有父母都知道的那样,科技也可能是一件可怕的事情。科技可以成为教育和学习的绝佳来源。它可以提供大量非常有用的信息。它可以成为我们与亲近的人或与我们有共同兴趣或事业的人联系的绝佳方式。然而,过度使用科技可能会对我们孩子正在发育的大脑造成毁灭性的影响,阻碍他们的社会发展,并可能让他们不断产生未经处理的情绪,从而导致心理稳定。此外,科技的诱惑力如此之大,以至于我们的孩子很容易对家庭关系失去兴趣,因为他们在科技成瘾的兔子洞里越陷越深。
我们认为,尽管 GND 叙事极具诱惑力,但它不过是一种灾难性的共同幻想。GND 不仅在技术上存在缺陷,而且未能认识到人类生态功能障碍是全球系统性崩溃的总体驱动因素。GND 及其变体将气候变化而非生态超调(气候变化只是生态超调的一个症状)视为核心问题,徒劳地寻求技术工业社会所造成的问题的技术工业解决方案。这种自我参照的追求注定会失败。正如阿尔伯特·爱因斯坦所说,“我们不能用制造问题时的思维来解决问题”。我们需要一个全新的叙事来实现成功的能源转型。只有放弃生态困境有缺陷的典型根源,我们才能制定出避免社会生态崩溃的现实途径。
在科幻电视剧《星际迷航:原初系列》的“末日决战”一集中,企业号的船员们访问了一对行星,这两颗行星已经进行了 500 多年的计算机模拟战争。为了防止他们的社会被毁灭,这两个星球签署了一项条约,战争将以计算机生成的虚拟结果进行,但伤亡人数将是真实的,名单上的受害者自愿报告被杀。柯克船长摧毁了战争模拟计算机,并受到谴责,因为如果没有计算机来打仗,真正的战争将不可避免。然而,战争持续这么久的原因正是因为模拟使两个社会免受战争的恐怖,因此,他们几乎没有理由结束战争。虽然基于科幻小说,但未来人工智能战场的威胁引发了人们对战争恐怖的道德和实际担忧。驱使各国采用致命自主武器系统 (LAWS) 的逻辑确实很诱人。人类是会犯错的、情绪化的、非理性的;我们可以通过 LAWS 保护我们的士兵和平民。因此,这种推理将 LAWS 构建为本质上理性的、可预测的,甚至是合乎道德的。杀手机器人,尽管名为杀手机器人,实际上会拯救生命。然而,这种逻辑是愚蠢的。如果人工智能战争专注于完善战争手段,而忽视战争的目的,那么它就会存在许多潜在的陷阱。就像在《星际迷航》中一样,无风险战争的诱惑力很强,但它会给那些最终不可避免地被杀死、致残和流离失所的人带来真正的后果。接下来,我认为 LAWS 的前景存在严重的道德问题,而这些问题是先进技术无法解决的。道德不能预先编程以适用于各种情况或冲突,而有意义的人为控制忽视了自动化偏见如何影响决策中的人机交互。军事实体和非政府组织都提出了有意义的人类控制的概念,特别是在致命决策中