误执行 kubeadm reset 产生的一系列问题!
导读
概述:由于不小心在K8S唯一的master上误执行kubeadm reset产生的一系列问题!
背景:
公司准备迁移一个K8S集群,当前集群是kubeadm+外部etcd的架构,准备把若干原来的虚拟机节点和etcd,移到新买的高配物理机上。
首先:迁移etcd
由于没有足够的机器,打算用恢复快照的方式起新etcd。迁移并不顺利,用恢复快照的方式发现配置项kubeadmin-config数据有误,(时间紧迫没有深追原因)只好通过把整个文件/var/lib/etcd拷贝还有证书(server、server-key、ca)到新机器上,然后在启动选项中加入--initial-cluster-state=new强行启动etcd服务。
第二:把旧master的etcd指向新etcd
发现仅在配置中更换etcd的地址不能成功,因为原etcd自签证书并不包括新机器IP,所以重签证书,然后下发到旧master上,然后修改/etc/kubernetes/manifests/kube-apiserver.yaml中etcd地址为新IP:
第三:添加新master到现有集群
1.15.1 join master的方式:
首先在旧master上生成token、cert和它们的hash值
kubeadm init phase upload-certs --upload-certs
得到--certificate-key的hash值
kubeadm token create --print-join-command
得到token和 --discovery-token-ca-cert-hash值
完整命令:
kubeadm join <API_HA_IP:6443> --token <TOKEN> --discovery-token-ca-cert-hash <TOKEN-HASH> --certificate-key <certificate-key> control-plane
(以上操作其实失败,还在摸索原因)
中间在执行的过程中,出了几次麻烦,所以会时不时执行kubeadm reset操作重置节点。突然不小心在旧master上执行了reset,崩溃!这下新master还没进来,唯一的旧master被重置,apiserver失去通讯。。。整个k8s相当于挂了。
紧急补救措施:
所幸etcd在外部,并且正常运行,这意味着只要恢复master和apiserver,那集群的数据应该还在!
首先,在旧master所在的机器上重新初始化,可是初始化后,kubectl get node 发下只有master在线,其他节点全部notready
分析半天日志发现是flannel认证失败,把已有的flannel相关资源全部删除(serviceaccount、configmap、daemonsets),用官方的yaml文件重新生成flannel,然后,每个旧worker节点执行reset并再次join到集群,这波操作后貌似正常了!
但是第二天发现所有proxy、coredns、flannel都crash,集群还是垮的!
这时发现新情况如下:
flannel报连接:10.0.96.1 time out
说明apiserver的service访问超时;
apiserver由kube-proxy创建的endpoint不存在;
kube-proxy报认证失败 Failed to list *v1.Service: Unauthorized。
认证失败的原因是:etcd保存的serviceaccount产生的secret数据是旧master的ca,而新master的ca已经变化,所以认证失败!
解决办法:
1.删除所有现有proxy、cordns的serviceaccount
kubectl get sa -n kube-system|grep -E "kube-proxy|coredns"|awk '{print "kubectl delete sa",$1,"-n kube-system"}'|/bin/bash
2.重新初始化master,让K8S自动生成和ca匹配的serviceaccount和secret,该secret是proxy的认证依据。
yes|kubeadm reset
kubeadm init --config <yourconfig.yaml>
3.删除所有旧flannel资源
kubectl delete -f <kube-fannel.yaml>
4.重新生成flannel
kubectl applay -f <kube-fannel.yaml>
5.重新reset其他节点再jion
yes|kubeadm reset
kubeadm join <API_HA_IP:6443> --token <TOKEN> --discovery-token-ca-cert-hash <CERT-HASH>
全部操作后,proxy、coredns、flannel均正常运行了,继续观察中...
其中有个statefulset一直报错,查看日志,发现还是认证失败:
经查,也是因为启用了serviceaccount导致etcd保存的secret还是旧值,删除该secret:
该pod终于正常了!
检查所有pod全部正常:
以上,集群终于全部恢复!
结语:这次故障最万幸的是采取了外部etcd,并且etcd正常迁移了。如果是默认kubeadm捆绑式etcd,那master被reset后,重新搭建集群事小,关键是所有配置还得重新建立,损失就大了!
- END -
往期推荐:
Kubernetes事件离线工具kube-eventer正式开源
Kubernetes + Jenkins + Helm + Springboot 实践
Kubelet 配置不当引发的 K8S 集群雪崩
Kubernetes 常见运维技巧
在 Kubernetes 中部署 Jenkins
🔥 1万位K8S爱好者都在这里,您值得关注!