调试和追踪LLM,例如Pro

调试LLM很重要,因为它们的工作流程很复杂,并且涉及链,提示,API,工具,猎犬等多个部分。

来源:KDnuggets
作者的图像| canva

#简介

使用Print()或记录作品的传统调试,但LLMS缓慢而笨拙。 Phoenix提供了每个步骤,提示和响应检查,错误检测,重试,可见性和成本的可见性以及对应用程序的完全视觉理解的时间表。 Arize AI的Phoenix是专门为LLM应用程序设计的强大的开源可观察性和跟踪工具。它可以通过视觉上的LLM管道中监视,调试和跟踪所有发生的一切。在本文中,我们将介绍凤凰城的工作以及为什么重要的原因,如何将凤凰城与兰链逐步集成在一起,以及如何可视化凤凰UI中的痕迹。

print()

#什么是凤凰?

Phoenix是针对大型语言模型应用程序制作的开源可观察性和调试工具。它从LLM工作流中捕获了详细的遥测数据,包括提示,响应,延迟,错误和工具使用情况,并在直观的交互式仪表板中介绍此信息。 Phoenix允许开发人员深入了解其LLM管道如何在系统内部表现,通过及时输出来识别和调试问题,分析性能瓶颈,使用令牌和相关成本进行监控,并在执行阶段跟踪任何错误/重试逻辑。它支持与Langchain和LlamainDex等流行框架的一致集成,还为更定制的设置提供了OpenTelemetry的支持。

#逐步设置

// 1。安装所需库

//

确保您有Python 3.8+并安装依赖项:

pip安装arize-phoenix langchain langchain-toperther openInference-intrumentation-langchain langchain-community

// 2。启动Phoenix

添加此行以启动Phoenix仪表板:

将凤凰导入为PX
px.launch_app()

这在http:// localhost:6006启动了本地仪表板。

http:// localhost:6006

// 3。用Phoenix回调构建Langchain管道

  • 调试提示是否正常
  • 链接 跟踪: 跨度: 公制 延迟(MS)