自动语音识别(ASR)系统近年来见证了显着的进步。上下文化的ASR任务需要识别语音不是孤立的话语,而是在更广泛的情况下。常规方法经常采用第二通范式来重新排列初始转录,但它们有可能在候选假设中遇到预测错误,从而损害了识别精度。在这项研究中,我们引入了一个新颖的框架,该框架与典型的第二频繁撤退方法不同。给出了n-最佳假设,我们利用大型语言模型来提示上下文化的第二通过。除了追求更高的准确性外,我们还旨在探索性能边界,而无需实质上改变潜在的预培训的语言和语言模型。我们通过零拍的提示和战略性的低级适应调整来提高所提出的范式的有效性。在多个价值的口语阅读理解基准基准SRC上,促使模型和微调模型的表现优于1好的ASR假设,分别达到了13.6%和45.9%的明显相关性单词错误率(WER)改善。结果表明,提出的方法增强了转录准确性和上下文理解。