神经符号 AI 如何解决生成 AI 的可靠性问题

近年来,生成式人工智能取得了令人瞩目的进步。它可以写文章、创作艺术作品,甚至作曲。但在正确处理事实方面,它往往做得不够好。它可能会自信地告诉你斑马生活在水下,或者埃菲尔铁塔在罗马。虽然这些错误看似无害,但它们 […] 文章《神经符号人工智能如何解决生成式人工智能的可靠性问题》首次出现在 Unite.AI 上。

来源:Unite.AI

近年来,生成式人工智能取得了令人瞩目的进步。它可以写文章、创作艺术作品,甚至作曲。但在正确获取事实方面,它往往做得不够好。它可能会自信地告诉你,斑马生活在水下,或者埃菲尔铁塔在罗马。虽然这些错误看似无害,但它们指向一个更大的问题:信任。在医疗保健、法律或金融等领域,我们不能让人工智能犯这样的错误。

生成式人工智能

这正是神经符号人工智能可以提供帮助的地方。通过将神经网络的力量与符号人工智能的逻辑相结合,它可以解决生成式人工智能面临的一些可靠性问题。借助神经符号人工智能,我们可以构建不仅能生成答案而且能生成我们可以信任的答案的系统。

生成式人工智能为什么不可靠

生成式人工智能的工作原理是分析大量数据中的模式。这就是它预测接下来会出现什么单词或图像的方式。它就像一个功能极其丰富的高级自动完成工具,但它实际上并不“知道”任何事情。它只是在玩概率。这种对概率的依赖可能会让它变得不可预测。生成式人工智能并不总是选择最有可能的选项。相反,它会根据所学的模式从一系列可能性中进行选择。这种随机性可以让它富有创造力,但也意味着相同的输入可能导致不同的输出。在我们需要可靠答案的严肃情况下,这种不一致会成为一个问题。

生成式人工智能不理解事实。它模仿模式,这就是为什么它有时会编造一些东西并将它们呈现为真实的。人工智能的这种倾向通常被称为幻觉。例如,人工智能可能会编造名人的名言或创建一个不存在的引文。当我们需要创建新内容时,这很有用,但可能是一个严重的问题,尤其是当人工智能用于提供医疗、法律或财务方面的建议时。它可以误导人们相信根本不真实的信息。

幻觉 神经符号人工智能 符号人工智能 GraphRAG