| 参数名 | 默认值 | 数据类型 | 描述 |
|---|---|---|---|
| ollama_generate_query_model | qwen3:32b | str | 用于生成查询的 Ollama 模型 |
| ollama_chat_model | qwen3:14b | str | 用于闲聊对话的 Ollama 模型 |
| ollama_summary_model | qwen3:32b | str | 用于总结对话的 Ollama 模型 |
| ollama_generate_answer_model | qwen3:32b | str | 用于生成答案的 Ollama 模型 |
| ollama_reflect_model | qwen3:14b | str | 用于结果反思的 Ollama 模型 |
| max_reflect_retries | 2 | int | 反思流程的最大重试次数 |
| summary_max_tokens | 2048 | int | 触发对话摘要的令牌阈值 |
| summary_max_tokens_before | 2048 | int | 摘要前保留的最大上下文令牌数 |
| summary_max_summary_tokens | 512 | int | 摘要内容的最大令牌限制 |
LANGSMITH_API_KEY (注意是 export 到 环境变量上)export LANGSMITH_API_KEY=your_api_key
export CNB_REPO_SLUG=cnb/docs
docker compose up
# 如果是远程开发, 注意 XXX 是转发后会在端口 Tab 中展示
https://xxx-8123.cnb.run/app/
# 如果是本地
http://localhost:8123/app/