logo
0
0
WeChat Login
init: 一键部署GLM-5.1-FP8大模型基于Ollama

GLM-5.1 一键部署 on CNB

基于 Ollama 在 CNB 一键部署智谱清言 GLM-5.1 大模型。

使用方法

  1. Fork 本仓库到你的 CNB 组织
  2. 在仓库页面点击「运行」即可自动拉取模型并启动服务
  3. 服务启动后,通过 https://你的实例地址:11434 访问 Ollama API

配置说明

  • 端口:默认暴露 11434 端口
  • 存储:使用持久化卷存储模型数据,重启不会重复下载
  • 资源要求:建议分配 1 张 GPU + 16GB 内存,可流畅运行 9B 版本

API 调用示例

curl http://localhost:11434/api/generate -d '{ "model": "zai-org/glm-5.1", "prompt": "你好,请介绍一下你自己" }'

作者

BUG_G0D

许可证

MIT