Anyexyz
/
Ollama
Search/Ask
WeChat Login
Login
Overview
Repositories
Sub-groups
3
Missions
Registries
Members
12
Ollama
🚀 CNB x Ollama 一键模型启动站 ✈️
https://cnb.cool/ai-models/Ollama
Pinned
ai-models/Ollama/
models
全新存储办法,全速拉取
Shell
4
8
1
0
ai-models/Ollama/
Env
在 CNB 中直接运行 Ollama 的预置环境。
Dockerfile
4
63
0
0
ai-models/Ollama/
OpenWebUI
Shell
2
23
0
0
ai-models/Ollama/OneClick/
qwen3.6
4
46
0
0
Recent updates
ai-models/Ollama/OneClick/
qwen3.6
4
46
0
0
ai-models/Ollama/demo/
qwen3.5
在 CNB 中直接 使用 Ollama 运行 qwen3.5,预置模型,无需等待,零帧起步。
0
1
0
0
ai-models/Ollama/
OpenWebUI
Shell
2
23
0
0
ai-models/Ollama/OneClick/
gemma
在 CNB 中直接 使用 Ollama 运行 gemma,预置模型,无需等待,零帧起步。
Dockerfile
1
43
0
0
ai-models/Ollama/OneClick/
qwen3-embedding
1
1
0
0
ai-models/Ollama/Tools/
Puller
Python
0
0
0
0
ai-models/Ollama/OneClick/
Template
在 CNB 中直接运行 Ollama 的预置环境。
0
0
0
0
ai-models/Ollama/OneClick/
OneClick
0
0
0
0
ai-models/Ollama/OneClick/
gemma4
在 CNB 中直接 使用 Ollama 运行 gemma4,预置模型,无需等待,零帧起步。
5
81
0
0
ai-models/Ollama/OneClick/
qwen3
在 CNB 中直接 使用 Ollama 运行 qwen3,预置模型,无需等待,零帧起步。
Dockerfile
7
710
0
0
ai-models/Ollama/OneClick/
qwen3.5
在 CNB 中直接 使用 Ollama 运行 qwen3.5,预置模型,无需等待,零帧起步。
21
178
1
0
ai-models/Ollama/demo/
ollama-cpu
在 CNB 中直接运行 Ollama 的预置环境。
0
10
0
0
ai-models/Ollama/
Ollama
Markdown
2
8
0
0
ai-models/Ollama/
models
全新存储办法,全速拉取
Shell
4
8
1
0
ai-models/Ollama/
Env
在 CNB 中直接运行 Ollama 的预置环境。
Dockerfile
4
63
0
0
ai-models/Ollama/OneClick/
deepseek-ocr
在 CNB 中直接 使用 Ollama 运行 deepseek-ocr,预置模型,无需等待,零帧起步。
0
3
0
0
ai-models/Ollama/OneClick/
qwen3-vl
在 CNB 中直接 使用 Ollama 运行 qwen3-vl,预置模型,无需等待,零帧起步。
1
4
0
0
ai-models/Ollama/OneClick/
qwen2.5
在 CNB 中直接 使用 Ollama 运行 qwen2.5,预置模型,无需等待,零帧起步。
Dockerfile
5
34
0
0
ai-models/Ollama/OneClick/
glm-ocr
在 CNB 中直接 使用 Ollama 运行 glm-ocr,预置模型,无需等待,零帧起步。
0
1
0
0
ai-models/Ollama/OneClick/
glm4
在 CNB 中直接 使用 Ollama 运行 glm,预置模型,无需等待,零帧起步。
4
24
0
0