剑桥哲学家说,我们可能永远不知道人工智能是否有意识

随着关于有意识人工智能的呼声越来越高,一位剑桥哲学家认为,我们缺乏证据来了解机器是否真正具有意识,更不用说具有道德意义了。剑桥大学的一位哲学家表示,我们目前关于意识是什么的可靠证据太少,无法判断人工智能是否已经跨越了这个界限 [...]

来源:SciTech日报

随着关于有意识人工智能的呼声越来越高,一位剑桥哲学家认为,我们缺乏证据来了解机器是否真正具有意识,更不用说具有道德意义了。

剑桥大学的一位哲学家表示,目前我们关于意识是什么的可靠证据太少,无法判断人工智能是否已经跨过了这个门槛。他认为,由于存在这种差距,在可预见的未来,测试机器意识的可靠方法可能仍然遥不可及。

随着关于人工意识的讨论从科幻小说转向现实世界的伦理辩论,汤姆·麦克莱兰博士表示,唯一“合理的立场”是不可知论:我们根本无法判断,而且这种情况即使不是无限期地,也可能在很长一段时间内保持正确。

McClelland 还警告说,意识本身并不会自动使人工智能在伦理上变得重要。相反,他指出了一种称为感知的特定类型的意识,它涉及积极和消极的感受。

“意识将使人工智能发展感知并变得自我意识,但这仍然可以是中立状态,”剑桥大学历史与科学哲学系的麦克莱兰说。

“感知涉及好或坏的意识体验,这使得一个实体能够受苦或享受。这就是道德发挥作用的时候,”他说。 “即使我们不小心创造出了有意识的人工智能,它也不太可能是我们需要担心的那种意识。”

“例如,自动驾驶汽车能够体验前方的道路将是一件大事。但从道德上讲,这并不重要。如果他们开始对目的地产生情感反应,那就是另一回事了。”

意识机器的主张

麦克莱兰认为,这个问题更为基本:我们仍然不知道最初是什么导致或解释了意识,这意味着我们没有坚实的基础来测试人工智能是否具有意识。

为什么常识会失败

人工智能炒作的道德风险