fine-tuning-lesson7-v2-260107/ ├── 1-ollama/ # Ollama 框架实践 ├── 2-vllm/ # vLLM 框架实践 ├── 3-sglang/ # SGLang 框架实践 └── 4-evalscope/ # EvalScope 模型评估
1-install-ollama.sh: 安装 Ollama2-launch-ollama.sh: 启动 Ollama 服务3-download-model.sh: 下载 ChatGLM3 和 Qwen3 模型4-chat-model.sh: 运行模型对话5-validation-ollama.sh: 验证 Ollama API 接口6-validation-openai.sh: 验证 OpenAI 兼容接口7-loadtest.sh: 负载测试request.json: API 请求示例文件1-install-vllm.sh: 安装 vLLM 和 ModelScope2-download-model.sh: 使用 ModelScope 下载 Qwen3-0.6B 模型3-launch-vllm.sh: 启动 vLLM 服务4-validation.sh: 验证 vLLM 服务5-loadtest.sh: 负载测试request.json: API 请求示例文件1-install-sglang.sh: 安装 SGLang2-download-model.sh: 下载 Qwen3 模型3-launch-sglang.sh: 启动 SGLang 服务4-validation.sh: 验证 SGLang 服务5-loadtest.sh: 负载测试request.json: API 请求示例文件1-install-evalscope.sh: 安装 EvalScope2-download-model.sh: 下载本地模型3-eval-local-model.sh: 评估本地模型4-check-eval-result.sh: 检查评估结果pyproject.toml: Python 项目配置文件