具有学习能力是一种结果,雨果奖得主 Ted Chiang 在他的故事“软件对象的生命周期”中很好地描述了这一点。这可能符合不少人工智能研究人员的希望。作为一个优越的实体——优越于我们,因为它比人类具有更少的认知限制,可以获得更多的知识和更好的推理能力。这个想法可能会吓到人们,因为他们担心这样的人工智能对人类没有“同理心”。为了控制人工智能,我们希望“理解”它的工作原理,并在我们不同意其操作原则时改变它,这也是我们对可解释和负责任的人工智能感兴趣的原因之一。这是设计周期中的一个重要部分,有助于按照我们想要的方式开发系统。但如果将人类和人工智能视为对立面,这可能无法充分体现两者实力的具体情况。1972 年,Michie (pp.332) 写道:“当代国际象棋程序的‘蛮力’能力带来了一种有趣的可能性,那就是引入一种新的‘咨询象棋’,其中合作方是人与机器。人类玩家将使用该程序对自己直觉选择的变体进行广泛而棘手的前向分析……”。为了应对社会和科学中越来越复杂和越来越多的挑战,我们需要人类和人工智能之间建立这种合作伙伴关系。我们现在需要评估人类和人工智能可以做得更好的事情,并专注于此,以免浪费宝贵的资源。例如,在需要道德考虑和同理心的情况下,大多数人更喜欢人类做出决定。我们希望人类能够考虑案例的具体情况,富有同情心,而不仅仅是应用“一般规则”。在常识推理方面,人类仍然优于人工智能系统。一方面,我们的人类直觉(见上文)通常被视为典型的人类直觉,但另一方面,可能只是在处理数百个类似的例子并根据它们做出假设的基础上形成的。还有许多其他特征需要考虑,但它们都回到了哲学和心理学问题:是什么定义了我们作为人类?需要在人工智能和心理学的交叉点进行更多研究,以确定和比较人类和人工系统的潜力——避免“社会心理责任分散”。我们需要评估我们拥有什么以及人工智能系统最有潜力做什么,以便合作应对未来的新挑战。
主要关键词