用简化和链条快速聊天机器人的快速原型

端到端的演示,优缺点的比较以及实用的建议,在聊天机器人的快速原型制作中,聊天机器人的简化和链条首先出现在数据科学方面。

来源:走向数据科学

建筑过程 - 并收集有关产品简单版本的定期用户反馈,以快速验证重要的假设和假设,并评估关键风险。这种方法与敏捷软件开发的实践和精益启动方法中的“建筑量 - 学习”过程非常一致,并且可以大大降低开发成本并缩短市场时间。鉴于相关技术,用例和用户期望的早期性质,快速原型制作对于运输成功的AI产品特别有用。

为此,Sparlit于2019年作为Python框架启动,简化了需要用户接口(UIS)的原型AI应用程序的过程。数据科学家和工程师可以专注于后端零件(例如,训练ML模型并通过API揭示预测端点),并且只有几行Python代码,Shertlit可以旋转一个用户友好,可自定义的UI。 Chainlit也是一个Python框架,最近在2023年推出,以专门解决原型对话AI应用程序(即聊天机器人)的痛点。尽管精简和链条在某些方面相似,但也存在重要差异。在本文中,我们将通过构建端到端的演示聊天机器人应用程序来研究这两个框架的利弊,并提供实用的建议。

注意:以下各节中的所有数字均由本文的作者创建。

注意:

端到端聊天机器人演示

本地设置

为简单起见,我们将构建演示应用程序,以便可以使用Ollama访问的开源大语模型(LLMS)在本地环境中轻松测试,这是一种用于下载,管理和与开放源代码LLMS以用户友好的方式进行本地化机器的工具。

转到这里下载并安装Ollama。通过在终端中运行此命令来检查安装是否成功:

在这里
ollama- version
Ollama Pull Gemma:2B
ollama列表
uv
uv  -  version
- -bare c