查看原文
其他

Kubernetes Master 误执行 reset,雪崩

概述:由于不小心在K8S唯一的master上误执行kubeadm reset产生的一系列问题

背景:

公司准备迁移一个K8S集群,当前集群是kubeadm+外部etcd的架构,准备把若干原来的虚拟机节点和etcd,移到新买的高配物理机上


首先:迁移etcd

由于没有足够的机器,打算用恢复快照的方式起新etcd。迁移并不顺利,用恢复快照的方式发现配置项kubeadmin-config数据有误,(时间紧迫没有深追原因)只好通过把整个文件/var/lib/etcd拷贝还有证书(server、server-key、ca)到新机器上,然后在启动选项中加入--initial-cluster-state=new强行启动etcd服务。

第二:把旧master的etcd指向新etcd

发现仅在配置中更换etcd的地址不能成功,因为原etcd自签证书并不包括新机器IP,所以重签证书,然后下发到旧master上,然后修改/etc/kubernetes/manifests/kube-apiserver.yaml中etcd地址为新IP

第三:添加新master到现有集群

1.15.1 jion master的方式

首先在旧master上生成token、cert和它们的hash值

kubeadm init phase upload-certs --upload-certs

得到--certificate-key的hash值


kubeadm token create --print-join-command

得到token和 --discovery-token-ca-cert-hash值


完整命令:

kubeadm join <API_HA_IP:6443> --token <TOKEN>  --discovery-token-ca-cert-hash <TOKEN-HASH>  --certificate-key <certificate-key> control-plane


(以上操作其实失败,还在摸索原因)


中间在执行的过程中,出了几次麻烦,所以会时不时执行kubeadm reset操作重置节点。突然不小心在旧master上执行了reset,崩溃!这下新master还没进来,唯一的旧master被重置,apiserver失去通讯。。。整个k8s相当于挂了。


紧急补救措施:

所幸etcd在外部,并且正常运行,这意味着只要恢复master和apiserver,那集群的数据应该还在


首先,在旧master所在的机器上重新初始化

可是初始化后,kubectl get node 发下只有master在线,其他节点全部notready

分析半天日志发现是flannel认证失败

把已有的flannel相关资源全部删除(serviceaccount、configmap、daemonsets)

用官方的yaml文件重新生成flannel


然后,每个旧worker节点执行reset并再次join到集群,这波操作后貌似正常了


但是第二天发现所有proxy、coredns、flannel都crash,集群还是垮的


这时发现新情况如下:

flannel报连接:10.0.96.1 time out

1.说明apiserver的service访问超时

2.apiserver由kube-proxy创建的endpoint不存在

3.kube-proxy报认证失败 Failed to list *v1.Service: Unauthorized


认证失败的原因是:etcd保存的serviceaccount产生的secret数据是旧master的ca,而新master的ca已经变化,所以认证失败


解决办法:


1.删除所有现有proxy、cordns的serviceaccount
kubectl get sa -n kube-system|grep -E "kube-proxy|coredns"|awk '{print "kubectl delete sa",$1,"-n kube-system"}'|/bin/bash

2.重新初始化master,让K8S自动生成和ca匹配的serviceaccount和secret,该secret是proxy的认证依据。
yes|kubeadm reset
kubeadm init --config <yourconfig.yaml>

3.删除所有旧flannel资源
kubectl delete -f   <kube-fannel.yaml>

4.重新生成flannel
kubectl applay -f   <kube-fannel.yaml>

5.重新reset其他节点再jion
yes|kubeadm reset
kubeadm join <API_HA_IP:6443> --token <TOKEN>  --discovery-token-ca-cert-hash <CERT-HASH>


全部操作后,proxy、coredns、flannel均正常运行了,继续观察中


其中有个statefulset一直报错,查看日志,发现还是认证失败

经查,也是因为启用了serviceaccount导致etcd保存的secret还是旧值,删除该secret

该pod终于正常了


kubect get pod -A -o wide | more

检查所有pod全部正常


以上,集群终于全部恢复


结语:这次故障最万幸的是采取了外部etcd,并且etcd正常迁移了。如果是默认kubeadm捆绑式etcd,那master被reset后,重新搭建集群事小,关键是所有配置还得重新建立,损失就大了.


- END -


往期推荐:

Kubernetes 上对应用程序进行故障排除的 6 个技巧

Kubernetes 常见故障:Pod 无法解析域名

运维必备的DevOps工具链大盘点

你真的需要 Kubernetes 吗?

Kubernetes中容器到容器通信

10 分钟部署一个 Kubernetes 集群

Kubernetes日志输出方式与采集方案

Kubernetes 高可用方案

容器日志采集利器:Filebeat 深度剖析与实践



订阅,一起成长

K8s生态圈






点在看,K8s一年不出问题 👇

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存