CometLLM 类,作为与 CometAPI 的一等集成。使用它可以通过 CometAPI 目录中的任意模型,为 RAG 流水线、agents 和 LLM chains 提供支持。
前置条件
- Python 3.8+
- 一个拥有有效 API key 的 CometAPI 账户 —— 在这里获取
提示与故障排查
提示与故障排查
- 模型:请参阅 CometAPI Models 页面 查看所有可用选项。
- 使用其他模型:使用其他当前模型 ID 进行初始化,例如
CometLLM(api_key=api_key, model="your-model-id", max_tokens=1024)。 - 微调(Fine-tuning):可将
temperature和max_tokens直接传递给CometLLM(...)。 - 错误处理:将调用包装在
try/except中,以捕获 key 错误或网络问题。 - 安全性:切勿将 API key 提交到版本控制中。请使用环境变量。
- 更多文档:LlamaIndex 文档 — CometAPI 快速开始 — Colab 示例