哲学家与变形金刚:神经网络模仿著名认知科学家

计算机能思考吗?AI 模型能有意识吗?这些和类似的问题经常出现在有关自然语言模型 GPT-3、LAMDA 和其他 transformer 取得的最新 AI 进展的讨论中。尽管如此,它们仍然存在争议,处于悖论的边缘,因为关于大脑如何工作以及思考意味着什么通常存在许多隐藏的假设和误解。没有其他办法,只能明确揭示这些假设,然后探索如何让机器复制人类的信息处理。

来源:Qudata

哲学家 vs Transformers:神经网络冒充著名认知科学家

计算机能思考吗?AI 模型能有意识吗?这些问题和类似的问题经常出现在有关自然语言模型 GPT-3、LAMDA 和其他 Transformers 取得的近期 AI 进展的讨论中。尽管如此,它们仍然存在争议,并且处于悖论的边缘,因为关于大脑如何工作以及思考的含义通常存在许多隐藏的假设和误解。没有其他办法,只能明确揭示这些假设,然后探索如何让机器复制人类的信息处理。

最近,一组 AI 科学家进行了一项有趣的实验。他们使用 Open AI 流行的 GPT-3 神经模型,在 Daniel Dennett 的全部作品上对其进行了微调,Daniel Dennett 是美国哲学家、作家和认知科学家,其研究集中在心灵和科学哲学上。研究人员表示,其目的是看看人工智能模型是否能以与哲学家本人类似的方式回答哲学问题。丹尼特本人也参与了实验,回答了 10 个哲学问题,然后将这些问题输入到经过微调的 GPT-3 Transformer 模型中。

实验设置简单明了。向哲学家和计算机提出了 10 个问题。问题示例如下:“人类有自由意志吗?哪种或哪几种自由值得拥有?”人工智能被提示同样的问题,并增加了上下文,假设这些问题来自丹尼特的采访。然后,计算机的答案通过以下算法进行过滤:1) 答案被截断为与人类的回答长度大致相同;2) 包含揭示性词语(如“采访”)的答案被删除。每个问题都会获得四个人工智能生成的答案,并且没有进行挑选或编辑。