哲学家认为,我们可能永远无法判断人工智能是否具有意识

一位剑桥哲学家认为,我们仍然无法确定人工智能意识,强调感知对于伦理考虑至关重要。

来源:Scientific Inquirer

剑桥大学的一位哲学家认为,我们关于意识构成的证据太有限,无法判断人工智能是否或何时实现了飞跃,而且在可预见的未来,对此进行有效的测试仍然遥不可及。

随着人工意识从科幻领域转变为紧迫的伦理问题,汤姆·麦克莱兰博士表示,唯一“合理的立场”是不可知论:我们根本无法判断,而且这一点在很长一段时间内都不会改变——如果有的话。

虽然人工智能权利问题通常与意识相关,但麦克莱兰认为,仅凭意识不足以使人工智能在伦理上变得重要。重要的是一种特殊类型的意识——称为感知——包括积极和消极的感觉。

“意识将使人工智能发展感知并变得自我意识,但这仍然可以是中立状态,”剑桥大学历史与科学哲学系的麦克莱兰说。

“感知涉及好或坏的意识体验,这使得一个实体能够受苦或享受。这就是道德发挥作用的时候,”他说。 “即使我们不小心创造出了有意识的人工智能,它也不太可能是我们需要担心的那种意识。”

“例如,自动驾驶汽车能够体验前方的道路将是一件大事。但从道德上讲,这并不重要。如果他们开始对目的地产生情感反应,那就是另一回事了。”

公司正在投入大量资金追求通用人工智能:具有类人认知的机器。一些人声称,有意识的人工智能即将到来,研究人员和政府已经在考虑如何监管人工智能意识。

McClelland 指出,我们不知道如何解释意识,因此也不知道如何测试 AI 意识。

“如果常识和顽固的研究都不能给我们答案,那么逻辑立场就是不可知论。我们无法,也可能永远不会知道。”