k8s集群删除和添加node节点


在已有k8s云平台中误删除node节点,然后将误删除的节点添加进集群中。如果是一台新服务器必须还要安装docker和k8s基础组件。
1.查看节点数和删除node节点(master节点)


[root@k8s01 ~]# kubectl get nodes

NAME STATUS ROLES AGE VERSION

k8s01 Ready master 40d v1.15.3

k8s02 Ready 40d v1.15.3

k8s03 Ready 40d v1.15.3


[root@k8s01 ~]# kubectl delete nodes k8s03

node “k8s03” deleted

[root@k8s01 ~]# kubec开发云主机域名tl get nodes

NAME STATUS ROLES AGE VERSION

k8s01 Ready master 40d v1.15.3

k8s02 Ready 40d v1.15.3

[root@k8s01 ~]#


2.在被删除的node节点清空集群信息


The reset process does not clean your kubeconfig files and you must remove them manually.

Please, check the contents of the $HOME/.kube/config file.

[root@k8s03 ~]#


3.在master节点查看集群的token值
[root@k8s01 ~]# kubeadm token create –print-join-command

kubeadm join 192.168.54.128:6443 –token mg4o13.4ilr1oi605tj850w –discovery-token-ca-cert-hash sha256:363b5b8525ddb86f4dc157f059e40c864223add26ef53d0cfc9becc3cbae8ad3

[root@k8s01 ~]#


4.将node节点重新添加到k8s集群中
[root@k8s03 ~]#


5.查看整个集群状态
[root@k8s01 ~]# kubectl get nodes

NAME STATUS ROLES AGE VERSION

k8s01 Ready master 40d v1.15.3

k8s02 Ready 40d v1.15.3

k8s03 Ready 41s v1.15.3

[root@k8s01 ~]#

相关推荐: VMware虚拟化平台排错–存储

排错方法:查看事件错误和警告,理解不了时查看报警的上下事件,确定影响范围,查看影响因素1.查看事件错误和警告2.确定范围:如果影响的是主机,看看该集群其它主机有没有影响3.本次是存储路径问题,由于该路径一时断掉,一时又恢复,呈规开发云主机域名律性变化,加上服务…

免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。

(0)
打赏 微信扫一扫 微信扫一扫
上一篇 05/14 17:04
下一篇 05/14 17:04

相关推荐