龙空技术网

「云原生」K8S master节点更换IP以及master高可用故障模拟测试

大数据老司机 2587

前言:

目前你们对“kubernets获取不了nodes”大概比较关怀,姐妹们都想要剖析一些“kubernets获取不了nodes”的相关内容。那么小编同时在网络上汇集了一些对于“kubernets获取不了nodes””的相关内容,希望我们能喜欢,咱们一起来学习一下吧!

一、前言

根据小伙伴提的问题,这里专门出一篇文章分析master节点挂了不可用的场景分析,希望这篇文章对小伙伴有用;其实VIP的方案实现高可用,还有更可靠的方案,也是我们目前生成环境在使用的高可用方案,后面也会分享出来,请小伙伴耐心等待~

二、配置 多个master 节点

如果直接部署单master或者多master k8s环境,可以参考我这篇文章:「云原生」Kubernetes(k8s)最完整版环境部署(V1.24.1)

1)节点信息

hostname

IP

节点类型

local-168-182-110,cluster-endpoint

192.168.182.110,VIP:192.168.182.220

master

local-168-182-111

192.168.182.111

node

local-168-182-112

192.168.182.112

node

local-168-182-113

192.168.182.112

master backup1

local-168-182-130

192.168.182.112

master backup2

1)安装docker或containerd

# 配置yum源cd /etc/yum.repos.d ; mkdir bak; mv CentOS-Linux-* bak/# centos7wget -O /etc/yum.repos.d/CentOS-Base.repo  centos8wget -O /etc/yum.repos.d/CentOS-Base.repo  安装yum-config-manager配置工具yum -y install yum-utils# 设置yum源yum-config-manager --add-repo  安装docker-ce版本yum install -y docker-ce# 启动systemctl start docker# 开机自启systemctl enable docker# 查看版本号docker --version# 查看版本具体信息docker version# Docker镜像源设置# 修改文件 /etc/docker/daemon.json,没有这个文件就创建# 添加以下内容后,重启docker服务:cat >/etc/docker/daemon.json<<EOF{   "registry-mirrors": [";]}EOF# 加载systemctl reload docker# 查看systemctl status docker containerd
2)安装kubeadm,kubelet和kubectl1、配置k8s yum源
cat > /etc/yum.repos.d/kubernetes.repo << EOF[k8s]name=k8senabled=1gpgcheck=0baseurl=
2、修改sandbox_image 镜像源
# 导出默认配置,config.toml这个文件默认是不存在的containerd config default > /etc/containerd/config.tomlgrep sandbox_image  /etc/containerd/config.tomlsed -i "s#k8s.gcr.io/pause#registry.aliyuncs.com/google_containers/pause#g"       /etc/containerd/config.toml# 或者sed -i "s#registry.k8s.io/pause#registry.aliyuncs.com/google_containers/pause#g"       /etc/containerd/config.toml# 检查grep sandbox_image  /etc/containerd/config.toml
3、配置containerd cgroup 驱动程序systemd

kubernets自v1.24.0后,就不再使用docker.shim,替换采用containerd作为容器运行时端点。因此需要安装containerd(在docker的基础下安装),上面安装docker的时候就自动安装了containerd了。这里的docker只是作为客户端而已。容器引擎还是containerd

sed -i 's#SystemdCgroup = false#SystemdCgroup = true#g' /etc/containerd/config.toml# 应用所有更改后,重新启动containerdsystemctl restart containerd
4、开始安装kubeadm,kubelet和kubectl
# 不指定版本就是最新版本,当前最新版就是1.25.4yum install -y kubelet-1.25.4  kubeadm-1.25.4  kubectl-1.25.4 --disableexcludes=kubernetes# disableexcludes=kubernetes:禁掉除了这个kubernetes之外的别的仓库# 设置为开机自启并现在立刻启动服务 --now:立刻启动服务systemctl enable --now kubelet# 查看状态,这里需要等待一段时间再查看服务状态,启动会有点慢systemctl status kubelet# 查看版本kubectl versionyum info kubeadm
5、master节点加入k8s集群
# 证如果过期了,可以使用下面命令生成新证书上传,这里会打印出certificate key,后面会用到CERT_KEY=`kubeadm init phase upload-certs --upload-certs|tail -1`# 其中 --ttl=0 表示生成的 token 永不失效. 如果不带 --ttl 参数, 那么默认有效时间为24小时. 在24小时内, 可以无数量限制添加 worker.echo `kubeadm token create --print-join-command --ttl=0` " --control-plane --certificate-key $CERT_KEY --v=5"# 拿到上面打印的命令在需要添加的节点上执行# --control-plane 标志通知 kubeadm join 创建一个新的控制平面。加入master必须加这个标记# --certificate-key ... 将导致从集群中的 kubeadm-certs Secret 下载控制平面证书并使用给定的密钥进行解密。这里的值就是上面这个命令(kubeadm init phase upload-certs --upload-certs)打印出的key。mkdir -p $HOME/.kubesudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/configsudo chown $(id -u):$(id -g) $HOME/.kube/config

查看节点

kubectl get nodeskubectl get nodes -owide
三、更换 K8S master 节点 IP(master 高可用)1)节点信息

hostname

IP

节点类型

local-168-182-110,cluster-endpoint

192.168.182.110,VIP:192.168.182.220

master

local-168-182-111

192.168.182.111

node

local-168-182-112

192.168.182.112

node

local-168-182-113

192.168.182.112

master backup1

local-168-182-130

192.168.182.112

master backup2

2)master节点安装keepalived1、安装 keepalived

yum install keepalived -y
2、配置 keepalived

master

cat > /etc/keepalived/keepalived.conf << EOFglobal_defs {   notification_email {     acassen@firewall.loc     failover@firewall.loc     sysadmin@firewall.loc   }   notification_email_from fage@qq.com   smtp_server 127.0.0.1   smtp_connect_timeout 30   router_id NGINX_MASTER}vrrp_instance VI_1 {    state MASTER    interface ens33    virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的    priority 100    # 优先级,备服务器设置 90    advert_int 1    # 指定VRRP 心跳包通告间隔时间,默认1秒    authentication {        auth_type PASS        auth_pass 1111    }    # 虚拟IP    virtual_ipaddress {        192.168.182.220/24    }    track_script {        check_nginx    }}EOF

master backup1

cat > /etc/keepalived/keepalived.conf << EOFglobal_defs {   notification_email {     acassen@firewall.loc     failover@firewall.loc     sysadmin@firewall.loc   }   notification_email_from fage@qq.com   smtp_server 127.0.0.1   smtp_connect_timeout 30   router_id NGINX_MASTER}vrrp_instance VI_1 {    state MASTER    interface ens33    virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的    priority 90    # 优先级,备服务器设置 90    advert_int 1    # 指定VRRP 心跳包通告间隔时间,默认1秒    authentication {        auth_type PASS        auth_pass 1111    }    # 虚拟IP    virtual_ipaddress {        192.168.182.220/24    }    track_script {        check_nginx    }}EOF

master backup2

cat > /etc/keepalived/keepalived.conf << EOFglobal_defs {   notification_email {     acassen@firewall.loc     failover@firewall.loc     sysadmin@firewall.loc   }   notification_email_from fage@qq.com   smtp_server 127.0.0.1   smtp_connect_timeout 30   router_id NGINX_MASTER}vrrp_instance VI_1 {    state MASTER    interface ens33    virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的    priority 80    # 优先级,备服务器设置 80    advert_int 1    # 指定VRRP 心跳包通告间隔时间,默认1秒    authentication {        auth_type PASS        auth_pass 1111    }    # 虚拟IP    virtual_ipaddress {        192.168.182.220/24    }    track_script {        check_nginx    }}EOF
3、启动并设置开机启动
systemctl daemon-reloadsystemctl restart keepalived && systemctl enable keepalived && systemctl status keepalived# 查看ip a
3)配置hosts
192.168.182.110 local-168-182-110192.168.182.111 local-168-182-111192.168.182.112 local-168-182-112192.168.182.113 local-168-182-113# VIP192.168.182.220 cluster-endpoint
4)修改配置

到K8S master节点/etc/kubernetes/manifests目录下,我们主要修改etcd.yamlkube-apiserver.yaml这两个配置文件。

# 这里使用sed批量替换cd /etc/kubernetes/# 先查grep -rn '192.168.182' *# 替换ipsed -i 's/192.168.182.110/192.168.182.220/g' `grep -rl  ./`# 替换域名sed -i 's/local-168-182-110/cluster-endpoint/g' `grep -rl  ./`# 检查grep -r '192.168.182' *
5)生成新的admin用config文件
cd /etc/kubernetesmv admin.conf admin.conf_bak# 使用如下命令生成新的admin.confkubeadm init phase kubeconfig admin --apiserver-advertise-address 192.168.182.220 # cluster-endpoint-》192.168.182.220sed -i 's/192.168.182.220/cluster-endpoint/g' admin.conf
6)删除旧的证书,生成新证书
cd /etc/kubernetes/pki# 先备份mv apiserver.key apiserver.key.bakmv apiserver.crt apiserver.crt.bak# 使用如下命令生成kubeadm init phase certs apiserver --apiserver-advertise-address 192.168.182.220 --apiserver-cert-extra-sans "192.168.182.220,cluster-endpoint"#  --apiserver-cert-extra-sans "192.168.182.220,cluster-endpoint":设置了这个,之后加入节点验证证书阶段就不会报错了。
7)重启docker或者containerd,kubelet
systemctl restart docker containerd kubelet# 查看,可以看到master节点现在已经起来了cd /etc/kuberneteskubectl get nodes --kubeconfig=admin.conf# 修改配置,后续可以使用kubectl get nodes查看K8S集群状态了cd /etc/kubernetescp admin.conf ~/.kube/configkubectl get nodes
8)查看ETCD
# 查看etcd podkubectl get pods -n kube-system |grep etcd# 登录POD_NAME=`kubectl get pods -n kube-system |grep etcd|head -1|awk '{print $1}'`kubectl exec -it $POD_NAME -n kube-system -- sh## 配置环境alias etcdctl='etcdctl --endpoints= --cacert=/etc/kubernetes/pki/etcd/ca.crt --cert=/etc/kubernetes/pki/etcd/server.crt --key=/etc/kubernetes/pki/etcd/server.key' ## 查看 etcd 集群成员列表etcdctl member list
9)解决 node 节点 NotReady状态1、从master节点拷贝ca.crt到node节点对应的目录
scp /etc/kubernetes/pki/ca.crt local-168-182-111:/etc/kubernetes/pki/scp /etc/kubernetes/pki/ca.crt local-168-182-112:/etc/kubernetes/pki/
2、修改node节点的kubelet.conf

server: 修改为现在master节点的地址server:

sed -i 's/local-168-182-110/cluster-endpoint/g' /etc/kubernetes/kubelet.conf
3、重启docker或者containerd,kubelet
systemctl restart docker containerd kubelet
四、故障模式测试1)模拟VIP漂移
# 将master节点上的keepalived 停掉systemctl stop keepalived

查看节点信息

kubectl get nodes

从上图可知VIP已经漂移到master backup1节点了,不影响集群,接下来恢复故障。

# 将master节点上的keepalived 启动systemctl start keepalived

【结论】master节点故障恢复后,VIP会从新漂移回到原先的master节点。

查看节点信息

kubectl get nodes
2)节点故障测试(一台master故障)

模拟master节点故障(手动关机)

# 关机192.168.182.110showdown -h now# 在192.168.182.113	backup master节点查看集群节点状态kubectl get nodes

【结论】一台master故障,不影响集群。

3)master节点故障模拟(两台master故障)

2、模拟master节点故障(手动关机)

# 关机192.168.182.113showdown -h now# 在192.168.182.130	backup master节点查看集群节点状态kubectl get nodes

【错误】The connection to the server cluster-endpoint:6443 was refused - did you specify the right host or port?

发现两个master节点,挂了一个master节点是不可用的。原因:当两个master节点还是需要2个节点可用。只有大于2个master节点才允许挂master节点,我们可以查一下允许的容器。会发现api-server的容器一直在重启或者直接挂了,小伙伴也可以去查看一下日志。stackoverflow答案

crictl ps 2>/dev/null

【建议】所以我们部署多master高可用节点数量必须大于等于3,这样才能保证挂一个master节点,集群不会受影响。

K8S master节点更换IP以及master高可用故障模拟测试就先到这里,有任何疑问欢迎给我留言,后续会持续更新【云原生+大数据】相关的文章~

标签: #kubernets获取不了nodes