详细内容或原文请订阅后点击阅览
人工智能要发挥关键作用,就必须减少幻觉
[赞助] 通过大型语言模型的新验证过程对人工智能进行事实核查,可以将幻觉从 5-10% 降低到 0.1%。
来源:美国防务快讯网空军CIO和空军研究实验室正在加快为监护人,飞行员和承包商提供负责任的AI的能力,并提供足够的保障措施。 (美国空军图形)。
国防部已将由人工智能赋予的数据驱动的军事力量增加了一倍。然而,特别是一种原因(幻觉),将AI用于关键任务申请国防。
幻觉发生在大型语言模型(LLM)(例如ChatGpt)产生合理听起来但事实不正确的信息时。卡内基·梅隆大学(Carnegie Mellon University)的一项研究说,LLM的幻觉频率并不少见。这是10%的错误率降低了DOD中AI的全部可能性。
现在,有一个新的软件解决方案称为检索增强生成验证(RAG-V),该解决方案通过大大减少其发生来解决LLMS中的幻觉。 Rag-V由Primer引入,它为复杂的企业环境构建了实用和可信赖的AI,几乎通过添加一个新颖的验证阶段来消除幻觉。
底漆John Bohanon是Primer数据科学副总裁。
“ rag-v使得采用大型语言模型并将其置于关键任务环境中,以便战士可以依靠它;这就是问题的核心。” Primer数据科学副总裁John Bohanon说。 “在某些情况下,您想要幻觉;这就是所谓的创造力,例如当您想要举办聚会的想法时。这些型号非常有创造力,并从稀薄的空气中提出了东西。
rag-v减少幻觉
备受瞩目的AI幻觉已经发布了这一消息,尤其是在法律界,律师在法院提交了与Chatgpt的法院摘要,该法院发明了判例法。
Matthew MacNak是Primer客户解决方案工程高级副总裁。