启动后,新开终端执行 03 下载模型,再新开终端拉 docker 镜像(05) 最近 CNB fork别人的仓库会占用自己的 LFS 空间,免费空间不足,其实aria2c下载比gitclone-yyds更快 04 模型暂时可以不用下载,当前使用 llama.cpp 运行。待 vLLM 0.20及之后的版本稳定后可以下载 04的原始模型
Powered by llama.cpp