k8m 是一款AI驱动的 Mini Kubernetes AI Dashboard 轻量级控制台工具,专为简化集群管理设计。它基于 AMIS 构建,并通过 kom 作为 Kubernetes API 客户端,k8m 内置了 Qwen2.5-Coder-7B 模型交互能力,同时支持接入您自己的私有化大模型。
k8m 的设计理念是“AI驱动,轻便高效,化繁为简”,它帮助开发者和运维人员快速上手,轻松管理 Kubernetes 集群。
./k8m 命令启动,访问http://127.0.0.1:3618。./k8m -h --add_dir_header If true, adds the file directory to the header of the log messages --alsologtostderr log to standard error as well as files (no effect when -logtostderr=true) -k, --chatgpt-key string API Key for ChatGPT (default "sk-XXXX") -u, --chatgpt-url string API URL for ChatGPT (default "https://api.siliconflow.cn/v1") -d, --debug Debug mode,same as GIN_MODE -c, --kubeconfig string Absolute path to the kubeConfig file (default "/Users/xxx/.kube/config") --log_backtrace_at traceLocation when logging hits line file:N, emit a stack trace (default :0) --log_dir string If non-empty, write log files in this directory (no effect when -logtostderr=true) --log_file string If non-empty, use this log file (no effect when -logtostderr=true) --log_file_max_size uint Defines the maximum size a log file can grow to (no effect when -logtostderr=true). Unit is megabytes. If the value is 0, the maximum file size is unlimited. (default 1800) --logtostderr log to standard error instead of files (default true) --one_output If true, only write logs to their native severity level (vs also writing to each lower severity level; no effect when -logtostderr=true) -p, --port int Port for the server to listen on (default 3618) --skip_headers If true, avoid header prefixes in the log messages --skip_log_headers If true, avoid headers when opening log files (no effect when -logtostderr=true) --stderrthreshold severity logs at or above this threshold go to stderr when writing to files and stderr (no effect when -logtostderr=true or -alsologtostderr=true) (default 2) -v, --v Level number for the log level verbosity (default 0) --vmodule moduleSpec comma-separated list of pattern=N settings for file-filtered logging
从v0.0.8版本开始,将内置GPT,无需配置。 如果您需要使用自己的GPT,请参考以下步骤。
需要设置环境变量,以启用ChatGPT。
export OPENAI_API_KEY="sk-XXXXX"
export OPENAI_API_URL="https://api.siliconflow.cn/v1"
如果设置参数后,依然没有效果,请尝试使用./k8m -v 6获取更多的调试信息。
会输出以下信息,通过查看日志,确认是否启用ChatGPT。
ChatGPT 开启状态:true
ChatGPT 启用 key:sk-hl**********************************************,url:https://api.siliconflow.cn/v1
本项目集成了github.com/sashabaranov/go-openaiSDK。 国内访问推荐使用硅基流动的服务。 登录后,在https://cloud.siliconflow.cn/account/ak创建API_KEY
brew install kind
kind create cluster --name k8sgpt-demo
kubectl apply -f https://raw.githubusercontent.com/weibaohui/k8m/refs/heads/main/deploy/k8m.yaml
本项目中的 Makefile 用于自动化常见任务,如构建、测试和清理项目。以下是详细的使用说明,帮助你了解如何使用 Makefile 中定义的各个目标。
在使用 Makefile 之前,请确保你的系统上已安装以下工具:
make
make build
make build-all
bin/ 目录中,命名格式为 k8m-<GOOS>-<GOARCH>(例如 k8m-linux-amd64、k8m-windows-amd64.exe)。bin/ 目录及其中的所有编译生成的可执行文件。make clean
bin/ 目录及其内容将被删除。make run
make help
build-all 目标支持以下操作系统和架构组合的交叉编译:
amd64arm64ppc64les390xmips64leriscv64amd64arm64amd64arm64构建适用于当前操作系统和架构的 k8m 可执行文件:
make build
交叉编译 k8m 为所有指定的平台和架构:
make build-all
在 Unix 系统上构建并运行 k8m:
make run
删除所有编译生成的可执行文件和 bin/ 目录:
make clean
显示所有可用的 Makefile 目标及其描述:
make help
VERSION 变量来指定自定义版本:
make build VERSION=v2.0.0
.exe 扩展名。GIT_COMMIT 哈希值。make、go 等),请确保所有先决条件已安装并正确配置在系统的 PATH 中。make run 时收到权限被拒绝的错误,请确保 bin/ 目录和编译后的二进制文件具有必要的执行权限:
chmod +x bin/k8m






k8m 提供集成的 YAML 浏览、编辑和文档查看功能,支持自动翻译 YAML 属性。无论是查找字段含义还是确认配置细节,您都无需再费时费力地搜索,极大提高了工作效率。

在 Event 页面,k8m 内置了 AI 问诊功能,可智能分析异常事件,并提供详细的解释。点击事件前的“AI大脑”按钮,稍等片刻即可查看诊断结果,快速定位问题原因。

日志分析是定位问题的重要环节,但面对大量报错信息,如何高效排查?k8m 支持 AI 日志诊断,帮助快速识别关键错误并生成解决建议。只需选中相关日志,点击 AI 问诊按钮,即可获得诊断报告。

日常运维中,Pod 内命令操作不可避免。借助 AI,您只需输入需求描述,k8m 即可自动生成合适的命令供参考,减少查找时间,提高效率。

如果你有任何进一步的问题或需要额外的帮助,请随时与我联系!
微信(大罗马的太阳) 搜索ID:daluomadetaiyang,备注k8m。