龙空技术网

kubectl常用命令(二)

小猪精选只做优质 216

前言:

而今同学们对“ganglia监控nginx”都比较注意,各位老铁们都想要剖析一些“ganglia监控nginx”的相关文章。那么小编也在网上收集了一些对于“ganglia监控nginx””的相关资讯,希望朋友们能喜欢,姐妹们快快来了解一下吧!

四、进入容器

# 进入pod容器,但是对权限要求也较多

kubectl exec -it podName sh

# 通过bash获得 pod 中某个容器的TTY,相当于登录容器 kubectl exec -it <pod-name> -c <container-name> -- bash

五、扩缩容、滚动更新

# Pod容器端口转发/端口映射,expose

kubectl expose deployment/<Deployment Name> --type="NodePort" --port=80 --name=nginx

# Pod扩容与缩容

kubectl scale deployment/<Deployment Name> --replicas 5 # 扩容

kubectl scale deployment/<Deployment Name> --replicas 3 # 缩容

# autoscale命令会给一个rc指定一个副本数的范围,在实际运行中根据pod中运行的程序的负载自动在指定的范围内对pod进行扩容或缩容。

kubectl autoscale rc rc-nginx-3 --min=1 --max=4

# 滚动更新(在不中断业务的情况下更新Pod)

kubectl rolling-update <pod_name> -f <new_yaml_file>

rolling-update每次起一个新的pod,等新pod完全起来后删除一个旧的pod,直到替换掉所有的pod。

需要注意的是当我们执行rolling-update命令前需要准备好新的RC配置文件以及ConfigMap配置文件,

RC配置文件中需要指定升级后需要使用的镜像名称,或者可以使用

kubectl rolling-update redis –image=redis-2.0直接指定镜像名称的方式直接升级

# 中止update回滚到之前的版本:

kubectl rolling-update <pod_name> -rollback

六、删除资源

# 删除容器(带副本数的)

kubectl delete deployment nginx-shooter #先删除控制器数量

kubectl get pod

kubectl delete pod [podName]

kubectl delete svc nginx-shooter

# 删除所有Pod

kubectl delete deployment --all

kubectl get pod

kubectl delete pod --all

kubectl delete svc [服务名称]

# 删除服务

kubectl get svc

kubectl delete svc 服务名

# 使用yaml文件也可以直接删除所创建出来的内容

[root@ku8-1 tmp] # kubectl delete -f yamls/sonar.yaml replicationcontroller "sonarqube" deleted

# 根据label删除

kubectl delete po -lapp=nginx-2

七、集群管理(Cluster Management Commands)

kubectl rollout对资源进行管理。可用资源包括:deployment、daemonset。

子命令:

DaemonSet保证在每个Node上都运行一个容器副本,常用来部署一些集群的日志、监控或者其他系统管理应用。

典型的应用包括:

日志收集,比如fluentd,logstash等

系统监控,比如Prometheus Node Exporter,collectd,New Relic agent,Ganglia gmond等

系统程序,比如kube-proxy, kube-dns, glusterd, ceph等

# 节点维护 cordon, drain, uncordon

这三个命令是正式release的1.2新加入的命令,三个命令一起介绍,是因为三个命令配合使用可以实现节点的维护。

在1.2之前,因为没有相应的命令支持,如果要维护一个节点,只能stop该节点上的kubelet将该节点退出集群,使集群不在将新的pod调度到该节点上。如果该节点上本生就没有pod在运行,则不会对业务有任何影响。如果该节点上有pod正在运行,kubelet停止后,master会发现该节点不可达,而将该节点标记为notReady状态,不会将新的pod调度到该节点上。同时,会在其他节点上创建新的pod替换该节点上的pod。

这种方式虽然能够保证集群的健壮性,但是仍然有些暴力,如果业务只有一个副本,而且该副本正好运行在被维护节点上的话,可能仍然会造成业务的短暂中断。

1.2中新加入的这3个命令可以保证维护节点时,平滑的将被维护节点上的业务迁移到其他节点上,保证业务不受影响。

1)首先查看当前集群所有节点状态,可以看到共四个节点都处于ready状态;

2)查看当前nginx两个副本分别运行在d-node1和k-node2两个节点上;

3)使用cordon命令将d-node1标记为不可调度;

4)再使用kubectl get nodes查看节点状态,发现d-node1虽然还处于Ready状态,但是同时还被禁止了调度,这意味着新的pod将不会被调度到d-node1上。

5)再查看nginx状态,没有任何变化,两个副本仍运行在d-node1和k-node2上;

6)执行drain命令,将运行在d-node1上运行的pod平滑的赶到其他节点上;

7)再查看nginx的状态发现,d-node1上的副本已经被迁移到k-node1上;这时候就可以对d-node1进行一些节点维护的操作,如升级内核,升级Docker等;

8)节点维护完后,使用uncordon命令解锁d-node1,使其重新变得可调度;

9)检查节点状态,发现d-node1重新变回Ready状态。

# top 命令:用于查看资源的cpu,内存磁盘等资源的使用率# 打印当前集群支持的api版本

kubectl api-versions

八、生成文件

生成yaml资源配置文件方法:

# 用run命令生成yaml文件

kubectl create deployment nginx --image=nginx:1.14 -o yaml --dry-run > my.deploy.yaml

# 用get命令导出yaml文件

kubectl get deploy nginx-deployment -o yaml --export > my.deploy.yaml

# Pod容器的字段拼写忘记了

kubectl explain pods.spec.container

标签: #ganglia监控nginx