Anyexyz
/
Ollama
Search/Ask
WeChat Login
Login
Overview
Repositories
Sub-groups
3
Missions
Registries
Members
12
Ollama
🚀 CNB x Ollama 一键模型启动站 ✈️
https://cnb.cool/ai-models/Ollama
Pinned
ai-models/Ollama/
models
全新存储办法,全速拉取
Shell
4
9
1
0
ai-models/Ollama/
Env
在 CNB 中直接运行 Ollama 的预置环境。
Dockerfile
3
61
0
0
ai-models/Ollama/
OpenWebUI
Shell
2
23
0
0
ai-models/Ollama/OneClick/
qwen3.6
2
23
0
0
Recent updates
ai-models/Ollama/OneClick/
qwen3.6
2
23
0
0
ai-models/Ollama/demo/
qwen3.5
在 CNB 中直接 使用 Ollama 运行 qwen3.5,预置模型,无需等待,零帧起步。
0
1
0
0
ai-models/Ollama/
OpenWebUI
Shell
2
23
0
0
ai-models/Ollama/OneClick/
gemma
在 CNB 中直接 使用 Ollama 运行 gemma,预置模型,无需等待,零帧起步。
Dockerfile
1
43
0
0
ai-models/Ollama/OneClick/
qwen3-embedding
0
1
0
0
ai-models/Ollama/Tools/
Puller
Python
0
0
0
0
ai-models/Ollama/OneClick/
Template
在 CNB 中直接运行 Ollama 的预置环境。
0
0
0
0
ai-models/Ollama/OneClick/
OneClick
0
0
0
0
ai-models/Ollama/OneClick/
gemma4
在 CNB 中直接 使用 Ollama 运行 gemma4,预置模型,无需等待,零帧起步。
5
75
0
0
ai-models/Ollama/OneClick/
qwen3
在 CNB 中直接 使用 Ollama 运行 qwen3,预置模型,无需等待,零帧起步。
Dockerfile
6
711
0
0
ai-models/Ollama/OneClick/
qwen3.5
在 CNB 中直接 使用 Ollama 运行 qwen3.5,预置模型,无需等待,零帧起步。
18
185
1
0
ai-models/Ollama/demo/
ollama-cpu
在 CNB 中直接运行 Ollama 的预置环境。
0
9
0
0