ChatGPT 不是“幻觉”——而是胡说八道!

在讨论 AI 聊天机器人如何编造信息时,使用准确的术语非常重要

来源:科学美国人

现在人工智能无处不在。当你写文档时,你可能会被问到是否需要“AI 助手”。打开 PDF 时,你可能会被问到是否希望 AI 为你提供摘要。但如果你使用过 ChatGPT 或类似程序,你可能对某个问题并不陌生——它会编造东西,导致人们对它所说的话持怀疑态度。

ChatGPT 它编造东西

人们常常将这些错误描述为“幻觉”。但以这种方式谈论 ChatGPT 具有误导性,并且可能造成损害。相反,应该称其为胡说八道。

幻觉

我们不是随便说说的。在哲学家中,“胡说八道”具有专业含义,由已故美国哲学家 Harry Frankfurt 推广。当有人胡说八道时,他们不是在说实话,但也不是真的在撒谎。法兰克福说,胡说八道者的特点是,他们根本不在乎自己说的话是否属实。ChatGPT 及其同行不在乎,从技术意义上讲,他们是胡说八道的机器。

专家的意思 哈里·法兰克福

关于支持科学新闻

如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻。通过购买订阅,您将帮助确保未来关于塑造当今世界的发现和想法的有影响力的故事。

订阅

我们可以很容易地看到为什么这是真的,为什么这很重要。例如,去年,一位律师在撰写法律摘要时使用 ChatGPT 进行研究时陷入了困境。不幸的是,ChatGPT 包含了虚构的案例引文。它引用的案例根本不存在。

在撰写法律摘要时 异常 这些程序如何工作 初始训练数据 语言标记 人类训练师改进预测 ChatGPT 说种族主义的话 AI 幻觉 麦克白看到一把匕首 在 6 月份的一份报告中 道德与信息技术 甚至这也可能有点虚伪 “自动驾驶”汽车 ELIZA 效应 例如医疗保健