CometLLM như một tích hợp chính thức với CometAPI. Hãy dùng nó để vận hành các pipeline RAG, agent và chuỗi LLM với bất kỳ model nào trong danh mục của CometAPI.
Điều kiện tiên quyết
- Python 3.8+
- Tài khoản CometAPI có API key đang hoạt động — lấy tại đây
Thiết lập API key của bạn
Sử dụng biến môi trường an toàn hơn so với hardcode thông tin xác thực trong script.
Mẹo và khắc phục sự cố
Mẹo và khắc phục sự cố
- Model: Xem trang Models của CometAPI để biết tất cả các tùy chọn hiện có.
- Sử dụng model khác: Khởi tạo với một ID model hiện tại khác, ví dụ
CometLLM(api_key=api_key, model="your-model-id", max_tokens=1024). - Fine-tuning: Truyền trực tiếp
temperaturevàmax_tokensvàoCometLLM(...). - Xử lý lỗi: Bọc các lệnh gọi trong
try/exceptđể bắt lỗi key hoặc sự cố mạng. - Bảo mật: Không bao giờ commit API key vào hệ thống quản lý phiên bản. Hãy dùng biến môi trường.
- Tài liệu thêm: tài liệu LlamaIndex — bắt đầu nhanh với CometAPI — ví dụ Colab