LLMS在跟踪指导中估计不确定性是否很好?

大型语言模型(LLMS)可能是各个域中有价值的个人AI代理,只要它们可以准确地遵循用户说明即可。但是,最近的研究表明,LLMS的指导遵循功能有显着局限性,这引起了人们对其在高风险应用中的可靠性的担忧。准确地估计LLM在遵守指令中的不确定性对于减轻部署风险至关重要。据我们所知,我们介绍了在遵循教学的背景下对LLM的不确定性估计能力的第一个系统评估。我们的研究确定了……

来源:Apple机器学习研究

大型语言模型(LLMS)可能是各个域中有价值的个人AI代理,只要它们可以准确地遵循用户说明即可。但是,最近的研究表明,LLMS的指导遵循功能有显着局限性,这引起了人们对其在高风险应用中的可靠性的担忧。准确地估计LLM在遵守指令中的不确定性对于减轻部署风险至关重要。据我们所知,我们介绍了在遵循教学的背景下对LLM的不确定性估计能力的第一个系统评估。我们的研究通过以下指导遵循的基准确定了关键挑战,其中多个因素与遵循指导的指导相关的不确定性,使方法和模型之间的隔离和比较变得复杂。为了解决这些问题,我们介绍了具有两个基准版本的数据的受控评估设置,从而可以对各种条件下的不确定性估计方法进行全面比较。我们的发现表明,现有的不确定性方法挣扎,尤其是当模型在以下教学中犯错误时。尽管内部模型状态提供了一些改进,但在更复杂的情况下它们仍然不足。我们受控评估设置中的见解提供了对LLM的局限性和潜在的不确定性估计任务中的不确定性估算的重要理解,为更值得信赖的AI代理铺平了道路