一个聊天机器人能发现另一个聊天机器人的谎言吗?

一种新方法使用语言模型来查询其他语言模型并嗅出谎言

来源:科学美国人

一个聊天机器人能发现另一个聊天机器人的谎言吗?

一种新方法使用语言模型来询问其他语言模型并嗅出谎言

作者:Max Springer

Max Springer

如果您向 ChatGPT 等人工智能系统询问埃菲尔铁塔在哪里,聊天机器人很可能会正确地回答“巴黎”。但是反复向该人工智能询问同样的问题,您最终可能会被告知不,实际上,答案是罗马。这个错误可能看起来微不足道,但它预示着困扰生成人工智能的一个更严重的问题:幻觉,或者当人工智能创建的内容与现实不符时。

有时,就像埃菲尔铁塔的例子一样,幻觉是显而易见且无害的。但有时故障可能会产生危险的后果:人工智能在生成医疗建议时可能会产生幻觉。由于尖端聊天机器人的构建方式,它们倾向于以统一的信心提出所有主张——无论主题或准确性如何。“对于语言模型来说,真实与虚假之间没有区别,”曾在牛津大学工作的人工智能研究员 Andreas Kirsch 说。

尖端聊天机器人的构建 另一项 在《自然》杂志上发表的新研究 自然

关于支持科学新闻

如果您喜欢这篇文章,请考虑通过订阅来支持我们屡获殊荣的新闻。通过购买订阅,您将帮助确保未来关于塑造当今世界的发现和想法的有影响力的故事。

订阅

AI 测谎仪

研究作者专注于一种 LLM 幻觉,他们将其称为“虚构”——任意和不正确的陈述。与其他类型的 AI 错误(可能源于错误的训练数据或推理失败)不同,虚构是由模型生成过程固有的随机性引起的。

逃避检测