集成
LiteLLM
在本教程中,我们将指导您完成创建与 LiteLLM Proxy 集成的 Chainlit 应用程序的步骤
使用 Chainlit 和 LiteLLM Proxy 的好处是
- 您可以以 OpenAI API 格式调用 100+ 个 LLMs
- 使用虚拟密钥设置预算限制并跟踪使用情况
- 在 UI 的步骤中查看 LLM API 调用,并在提示词演练场中探索它们。
如果您已在使用 Langchain 或 LlamaIndex 等其他集成,则不应配置此集成。这两种集成都会记录相同的生成内容,并在 UI 中创建重复的步骤。
前提条件
开始之前,请确保您已具备以下条件
- 已安装 Chainlit 并能正常工作
- 已安装 OpenAI 包
- LiteLLM Proxy 正在运行
- LiteLLM Proxy API 密钥
- 对 Python 编程有基本了解
步骤 1:创建一个 Python 文件
在您的项目目录中创建一个名为 app.py
的新 Python 文件。此文件将包含您的 LLM 应用程序的主要逻辑。
步骤 2:编写应用逻辑
在 app.py
中,导入必要的包并定义一个函数来处理来自 UI 的传入消息。
步骤 3:运行应用程序
要启动您的应用程序,请打开终端并导航到包含 app.py
的目录。然后运行以下命令
-w
标志告诉 Chainlit 启用自动重新加载,这样您每次更改应用程序时都不需要重新启动服务器。您的聊天机器人 UI 现在应该可以在 https://:8000 访问了。