查看原文
其他

误执行 kubeadm reset 产生的一系列问题!

导读

概述:由于不小心在K8S唯一的master上误执行kubeadm reset产生的一系列问题!
背景:
公司准备迁移一个K8S集群,当前集群是kubeadm+外部etcd的架构,准备把若干原来的虚拟机节点和etcd,移到新买的高配物理机上。

首先:迁移etcd

由于没有足够的机器,打算用恢复快照的方式起新etcd。迁移并不顺利,用恢复快照的方式发现配置项kubeadmin-config数据有误,(时间紧迫没有深追原因)只好通过把整个文件/var/lib/etcd拷贝还有证书(server、server-key、ca)到新机器上,然后在启动选项中加入--initial-cluster-state=new强行启动etcd服务。

第二:把旧master的etcd指向新etcd

发现仅在配置中更换etcd的地址不能成功,因为原etcd自签证书并不包括新机器IP,所以重签证书,然后下发到旧master上,然后修改/etc/kubernetes/manifests/kube-apiserver.yaml中etcd地址为新IP:


第三:添加新master到现有集群


1.15.1 join master的方式:

首先在旧master上生成token、cert和它们的hash值

kubeadm init phase upload-certs --upload-certs

得到--certificate-key的hash值


kubeadm token create --print-join-command

得到token和 --discovery-token-ca-cert-hash值


完整命令:
kubeadm join <API_HA_IP:6443> --token <TOKEN> --discovery-token-ca-cert-hash <TOKEN-HASH> --certificate-key <certificate-key> control-plane


(以上操作其实失败,还在摸索原因)


中间在执行的过程中,出了几次麻烦,所以会时不时执行kubeadm reset操作重置节点。突然不小心在旧master上执行了reset,崩溃!这下新master还没进来,唯一的旧master被重置,apiserver失去通讯。。。整个k8s相当于挂了。


紧急补救措施:

所幸etcd在外部,并且正常运行,这意味着只要恢复master和apiserver,那集群的数据应该还在!


首先,在旧master所在的机器上重新初始化,可是初始化后,kubectl get node 发下只有master在线,其他节点全部notready

分析半天日志发现是flannel认证失败,把已有的flannel相关资源全部删除(serviceaccount、configmap、daemonsets),用官方的yaml文件重新生成flannel,然后,每个旧worker节点执行reset并再次join到集群,这波操作后貌似正常了!


但是第二天发现所有proxy、coredns、flannel都crash,集群还是垮的!


这时发现新情况如下:

flannel报连接:10.0.96.1 time out

  • 说明apiserver的service访问超时;

  • apiserver由kube-proxy创建的endpoint不存在;

  • kube-proxy报认证失败 Failed to list *v1.Service: Unauthorized。


认证失败的原因是:etcd保存的serviceaccount产生的secret数据是旧master的ca,而新master的ca已经变化,所以认证失败!


解决办法:


1.删除所有现有proxy、cordns的serviceaccount

kubectl get sa -n kube-system|grep -E "kube-proxy|coredns"|awk '{print "kubectl delete sa",$1,"-n kube-system"}'|/bin/bash

2.重新初始化master,让K8S自动生成和ca匹配的serviceaccount和secret,该secret是proxy的认证依据。

yes|kubeadm reset

kubeadm init --config <yourconfig.yaml>

3.删除所有旧flannel资源

kubectl delete -f <kube-fannel.yaml>

4.重新生成flannel

kubectl applay -f <kube-fannel.yaml>

5.重新reset其他节点再jion

yes|kubeadm reset

kubeadm join <API_HA_IP:6443> --token <TOKEN> --discovery-token-ca-cert-hash <CERT-HASH>


全部操作后,proxy、coredns、flannel均正常运行了,继续观察中...


其中有个statefulset一直报错,查看日志,发现还是认证失败:

经查,也是因为启用了serviceaccount导致etcd保存的secret还是旧值,删除该secret:

该pod终于正常了!


检查所有pod全部正常:


以上,集群终于全部恢复!


结语:这次故障最万幸的是采取了外部etcd,并且etcd正常迁移了。如果是默认kubeadm捆绑式etcd,那master被reset后,重新搭建集群事小,关键是所有配置还得重新建立,损失就大了!


- END -


往期推荐:

Kubernetes事件离线工具kube-eventer正式开源

优秀架构师必须掌握的 4 种架构思维

Etcd 分布式存储系统应用场景与工作原理

回顾 Kubernetes 最近 6 个版本重点更新

Kubernetes + Jenkins + Helm + Springboot 实践

Kubelet 配置不当引发的 K8S 集群雪崩

Kubernetes 常见运维技巧

在 Kubernetes 中部署 Jenkins

Kubernetes 常见运维技巧

Kubernetes 污点与容忍详解

编写 Dockerfile 最佳实践

100个容器周边项目,点亮你的容器集群技能树


🔥
1万位K8S爱好者都在这里,您值得关注!

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存