容器化部署----Kubernetes(K8S)快速入门

发布时间 2023-03-22 21:16:12作者: 张Sir6

容器化部署

随着Docker技术的流行,对项目的容器化部署方式越来越流行,容器化部署的优点如下:

      ①可以保证每个容器拥有自己的文件系统、CPU、内存、进程空间等

      ②运行应用程序所需要的资源都被容器包装,并和底层基础架构解耦

      ③容器化的应用程序可以跨云服务商、跨Linux操作系统发行版进行部署

虽然容器化部署可以带来很多便利,但是也会出现一些问题,比如说:

      ①一个容器故障停机了,怎么样让另外一个容器立刻启动去替补停机的容器

      ②当并发访问量变大的时候,怎么样做到横向扩展容器数量

这些容器管理的问题统称为容器编排问题,为了解决这些容器编排问题,就产生了一些容器编排技术:

      ①Swarm:Docker自己的容器编排工具

      ②Mesos:Apache的一个资源统一管控的工具,需要和Marathon结合使用

      ③Kubernetes:Google开源的的容器编排工具

目前为止Kubernetes是最为流行的一种容器编排技术。

k8s

kubernetes,由于k和s之间有8个字符,所以简称k8s,是一个全新的基于容器技术的分布式架构领先方案,是谷歌严格保密十几年的秘密武器----Borg系统的一个开源版本,于2015年7月发布第一个正式版本,它的本质是一组服务器集群,可以在集群的每个节点上运行特定的程序,来对节点中的容器进行管理,主要提供了如下主要功能:

      ①自我修复:一旦某一个容器崩溃,能够在1秒中左右迅速启动新的容器

      ②弹性伸缩:可以根据需要,自动对集群中正在运行的容器数量进行调整

      ③服务发现:服务可以通过自动发现的形式找到它所依赖的服务

      ④负载均衡:如果一个服务起动了多个容器,能够自动实现请求的负载均衡

      ⑤版本回退:如果发现新发布的程序版本有问题,可以立即回退到原来的版本

      ⑥存储编排:可以根据容器自身的需求自动创建存储卷

组件

一个k8s集群主要是由控制节点(master)工作节点(node)构成,每个节点上都会安装不同的组件。

master:集群的控制平面,负责集群的决策 ( 管理 )

ApiServer : 资源操作的唯一入口,接收用户输入的命令,提供认证、授权、API注册和发现等机制

Scheduler : 负责集群资源调度,按照预定的调度策略将Pod调度到相应的node节点上

ControllerManager : 负责维护集群的状态,比如程序部署安排、故障检测、自动扩展、滚动更新等

Etcd :负责存储集群中各种资源对象的信息

node:集群的数据平面,负责为容器提供运行环境 ( 干活 )

Kubelet : 负责维护容器的生命周期,即通过控制docker,来创建、更新、销毁容器

KubeProxy : 负责提供集群内部的服务发现和负载均衡

Docker : 负责节点上容器的各种操作

下面,以部署一个nginx服务来说明kubernetes系统各个组件调用关系:

      ①首先要明确,一旦kubernetes环境启动之后,master和node都会将自身的信息存储到etcd数据库中

      ②一个nginx服务的安装请求会首先被发送到master节点的apiServer组件

      ③apiServer组件会调用scheduler组件来决定到底应该把这个服务安装到哪个node节点上

          在此时,它会从etcd中读取各个node节点的信息,然后按照一定的算法进行选择,并将结果告知apiServer

      ④apiServer调用controller-manager去调度Node节点安装nginx服务

          kubelet接收到指令后,会通知docker,然后由docker来启动一个nginx的pod

      ⑤pod是kubernetes的最小操作单元,容器必须跑在pod中至此,

      ⑥一个nginx服务就运行了,如果需要访问nginx,就需要通过kube-proxy来对pod产生访问的代理

这样,外界用户就可以访问集群中的nginx服务了

核心概念

Master:集群控制节点,每个集群需要至少一个master节点负责集群的管控

Node:工作负载节点,由master分配容器到这些node工作节点上,然后node节点上的docker负责容器的运行

Pod:kubernetes的最小控制单元,容器都是运行在pod中的,一个pod中可以有1个或者多个容器

Controller:控制器,通过它来实现对pod的管理,比如启动pod、停止pod、伸缩pod的数量等等

Service:pod对外服务的统一入口,下面可以维护者同一类的多个pod

Label:标签,用于对pod进行分类,同一类pod会拥有相同的标签

NameSpace:命名空间,用来隔离pod的运行环境

 

环境搭建

主机准备

本次搭建的是一台Master节点和多台Node节点构成的集群

作用IP地址操作系统配置
Master 192.168.109.101 Centos7.5 基础设施服务器 2颗CPU 2G内存 50G硬盘
Node1 192.168.109.102 Centos7.5 基础设施服务器 2颗CPU 2G内存 50G硬盘
Node2 192.168.109.103 Centos7.5 基础设施服务器 2颗CPU 2G内存 50G硬盘

环境初始化

1)检查操作系统的版本

  1.  
    # 此方式下安装kubernetes集群要求Centos版本要在7.5或之上
  2.  
    [root@master ~]# cat /etc/redhat-release
  3.  
    CentOS Linux release 7.5.1804 (Core)

2) 主机名解析

为了方便后面集群节点间的直接调用,在这配置一下主机名解析,企业中推荐使用内部DNS服务器

  1.  
    # 主机名成解析 编辑三台服务器的/etc/hosts文件,添加下面内容
  2.  
    192.168.109.100 master
  3.  
    192.168.109.101 node1
  4.  
    192.168.109.102 node2

3) 时间同步

kubernetes要求集群中的节点时间必须精确一致,这里直接使用chronyd服务从网络同步时间。

企业中建议配置内部的时间同步服务器

  1.  
    # 启动chronyd服务
  2.  
    [root@master ~]# systemctl start chronyd
  3.  
    # 设置chronyd服务开机自启
  4.  
    [root@master ~]# systemctl enable chronyd
  5.  
    # chronyd服务启动稍等几秒钟,就可以使用date命令验证时间了
  6.  
    [root@master ~]# date

4) 禁用iptables和firewalld服务

kubernetes和docker在运行中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

  1.  
    # 1 关闭firewalld服务
  2.  
    [root@master ~]# systemctl stop firewalld
  3.  
    [root@master ~]# systemctl disable firewalld
  4.  
    # 2 关闭iptables服务
  5.  
    [root@master ~]# systemctl stop iptables
  6.  
    [root@master ~]# systemctl disable iptables

5) 禁用selinux

selinux是linux系统下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

  1.  
    # 编辑 /etc/selinux/config 文件,修改SELINUX的值为disabled
  2.  
    # 注意修改完毕之后需要重启linux服务
  3.  
    SELINUX=disabled

6) 禁用swap分区

swap分区指的是虚拟内存分区,它的作用是在物理内存使用完之后,将磁盘空间虚拟成内存来使用

启用swap设备会对系统的性能产生非常负面的影响,因此kubernetes要求每个节点都要禁用swap设备

但是如果因为某些原因确实不能关闭swap分区,就需要在集群安装过程中通过明确的参数进行配置说明

  1.  
    # 编辑分区配置文件/etc/fstab,注释掉swap分区一行
  2.  
    # 注意修改完毕之后需要重启linux服务
  3.  
    UUID=455cc753-7a60-4c17-a424-7741728c44a1 /boot xfs defaults 0 0
  4.  
    /dev/mapper/centos-home /home xfs defaults 0 0
  5.  
    # /dev/mapper/centos-swap swap swap defaults 0 0

7)修改linux的内核参数

  1.  
    # 修改linux的内核参数,添加网桥过滤和地址转发功能
  2.  
    # 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
  3.  
    net.bridge.bridge-nf-call-ip6tables = 1
  4.  
    net.bridge.bridge-nf-call-iptables = 1
  5.  
    net.ipv4.ip_forward = 1
  6.  
     
  7.  
    # 重新加载配置
  8.  
    [root@master ~]# sysctl -p
  9.  
     
  10.  
    # 加载网桥过滤模块
  11.  
    [root@master ~]# modprobe br_netfilter
  12.  
     
  13.  
    # 查看网桥过滤模块是否加载成功
  14.  
    [root@master ~]# lsmod | grep br_netfilter

8)配置ipvs功能

在kubernetes中service有两种代理模型,一种是基于iptables的,一种是基于ipvs的

两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

  1.  
    # 1 安装ipset和ipvsadm
  2.  
    [root@master ~]# yum install ipset ipvsadmin -y
  3.  
  4.  
    # 2 添加需要加载的模块写入脚本文件
  5.  
    [root@master ~]# cat < /etc/sysconfig/modules/ipvs.modules
  6.  
    #!/bin/bash
  7.  
    modprobe -- ip_vs
  8.  
    modprobe -- ip_vs_rr
  9.  
    modprobe -- ip_vs_wrr
  10.  
    modprobe -- ip_vs_sh
  11.  
    modprobe -- nf_conntrack_ipv4
  12.  
    EOF
  13.  
  14.  
    # 3 为脚本文件添加执行权限
  15.  
    [root@master ~]# chmod +x /etc/sysconfig/modules/ipvs.modules
  16.  
  17.  
    # 4 执行脚本文件
  18.  
    [root@master ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
  19.  
  20.  
    # 5 查看对应的模块是否加载成功
  21.  
    [root@master ~]# lsmod | grep -e ip_vs -e nf_conntrack_ipv4

9) 重启服务器

上面步骤完成之后,需要重新启动linux系统

[root@master ~]# reboot
 

安装docker

  1.  
    # 1 切换镜像源
  2.  
    [root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
  3.  
     
  4.  
    # 2 查看当前镜像源中支持的docker版本
  5.  
    [root@master ~]# yum list docker-ce --showduplicates
  6.  
     
  7.  
    # 3 安装特定版本的docker-ce
  8.  
    # 必须指定--setopt=obsoletes=0,否则yum会自动安装更高版本
  9.  
    [root@master ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y
  10.  
     
  11.  
    # 4 添加一个配置文件
  12.  
    # Docker在默认情况下使用的Cgroup Driver为cgroupfs,而kubernetes推荐使用systemd来代替cgroupfs
  13.  
    [root@master ~]# mkdir /etc/docker
  14.  
    [root@master ~]# cat < /etc/docker/daemon.json
  15.  
    {
  16.  
    "exec-opts": ["native.cgroupdriver=systemd"],
  17.  
    "registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
  18.  
    }
  19.  
    EOF
  20.  
     
  21.  
    # 5 启动docker
  22.  
    [root@master ~]# systemctl restart docker
  23.  
    [root@master ~]# systemctl enable docker
  24.  
     
  25.  
    # 6 检查docker状态和版本
  26.  
    [root@master ~]# docker version

安装k8s

  1.  
    # 由于kubernetes的镜像源在国外,速度比较慢,这里切换成国内的镜像源
  2.  
    # 编辑/etc/yum.repos.d/kubernetes.repo,添加下面的配置
  3.  
    [kubernetes]
  4.  
    name=Kubernetes
  5.  
    baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
  6.  
    enabled=1
  7.  
    gpgcheck=0
  8.  
    repo_gpgcheck=0
  9.  
    gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
  10.  
    http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
  11.  
     
  12.  
    # 安装kubeadm、kubelet和kubectl
  13.  
    [root@master ~]# yum install --setopt=obsoletes=0 kubeadm-1.17.4-0 kubelet-1.17.4-0 kubectl-1.17.4-0 -y
  14.  
     
  15.  
    # 配置kubelet的cgroup
  16.  
    # 编辑/etc/sysconfig/kubelet,添加下面的配置
  17.  
    KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
  18.  
    KUBE_PROXY_MODE="ipvs"
  19.  
     
  20.  
    # 4 设置kubelet开机自启
  21.  
    [root@master ~]# systemctl enable kubelet

准备集群镜像

  1.  
    # 在安装kubernetes集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
  2.  
    [root@master ~]# kubeadm config images list
  3.  
     
  4.  
    # 下载镜像
  5.  
    # 此镜像在kubernetes的仓库中,由于网络原因,无法连接,下面提供了一种替代方案
  6.  
    images=(
  7.  
    kube-apiserver:v1.17.4
  8.  
    kube-controller-manager:v1.17.4
  9.  
    kube-scheduler:v1.17.4
  10.  
    kube-proxy:v1.17.4
  11.  
    pause:3.1
  12.  
    etcd:3.4.3-0
  13.  
    coredns:1.6.5
  14.  
    )
  15.  
     
  16.  
    for imageName in ${images[@]} ; do
  17.  
    docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
  18.  
    docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
  19.  
    docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
  20.  
    done

集群初始化

下面开始对集群进行初始化,并将node节点加入到集群中

下面的操作只需要在master节点上执行即可

  1.  
    # 创建集群
  2.  
    [root@master ~]# kubeadm init
  3.  
    --kubernetes-version=v1.17.4
  4.  
    --pod-network-cidr=10.244.0.0/16
  5.  
    --service-cidr=10.96.0.0/12
  6.  
    --apiserver-advertise-address=192.168.109.100
  7.  
     
  8.  
    # 创建必要文件
  9.  
    [root@master ~]# mkdir -p $HOME/.kube
  10.  
    [root@master ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  11.  
    [root@master ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

下面的操作只需要在node节点上执行即可

  1.  
    # 将node节点加入集群
  2.  
    [root@master ~]# kubeadm join 192.168.109.100:6443
  3.  
    --token 8507uc.o0knircuri8etnw2
  4.  
    --discovery-token-ca-cert-hash
  5.  
    sha256:acc37967fb5b0acf39d7598f8a439cc7dc88f439a3f4d0c9cae88e7901b9d3f
  6.  
     
  7.  
    # 查看集群状态 此时的集群状态为NotReady,这是因为还没有配置网络插件
  8.  
    [root@master ~]# kubectl get nodes
  9.  
    NAME STATUS ROLES AGE VERSION
  10.  
    master NotReady master 6m43s v1.17.4
  11.  
    node1 NotReady 22s v1.17.4
  12.  
    node2 NotReady 19s v1.17.4

安装网络插件

kubernetes支持多种网络插件,比如flannel、calico、canal等等,任选一种使用即可,本次选择flannel

下面操作依旧只在master节点执行即可,插件使用的是DaemonSet的控制器,它会在每个节点上都运行

  1.  
    # 获取fannel的配置文件
  2.  
    [root@master ~]# wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
  3.  
     
  4.  
    # 修改文件中quay.io仓库为quay-mirror.qiniu.com
  5.  
     
  6.  
    # 使用配置文件启动fannel
  7.  
    [root@master ~]# kubectl apply -f kube-flannel.yml
  8.  
     
  9.  
    # 稍等片刻,再次查看集群节点的状态
  10.  
    [root@master ~]# kubectl get nodes
  11.  
    NAME STATUS ROLES AGE VERSION
  12.  
    master Ready master 15m v1.17.4
  13.  
    node1 Ready 8m53s v1.17.4
  14.  
    node2 Ready 8m50s v1.17.4

至此,kubernetes的集群环境搭建完成

服务部署

接下来在kubernetes集群中部署一个nginx程序,测试下集群是否在正常工作。

  1.  
    # 部署nginx
  2.  
    [root@master ~]# kubectl create deployment nginx --image=nginx:1.14-alpine
  3.  
     
  4.  
    # 暴露端口
  5.  
    [root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort
  6.  
     
  7.  
    # 查看服务状态
  8.  
    [root@master ~]# kubectl get pods,service
  9.  
    NAME READY STATUS RESTARTS AGE
  10.  
    pod/nginx-86c57db685-fdc2k 1/1 Running 0 18m
  11.  
     
  12.  
    NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
  13.  
    service/kubernetes ClusterIP 10.96.0.1 443/TCP 82m
  14.  
    service/nginx NodePort 10.104.121.45 80:30073/TCP 17m
  15.  
     
  16.  
    # 4 最后在电脑上访问下部署的nginx服务

 

资源管理

在kubernetes中,所有的内容都抽象为资源,用户需要通过操作资源来管理kubernetes。

kubernetes的本质上就是一个集群系统,用户可以在集群中部署各种服务,也就是在kubernetes集群中运行一个个的容器,并将指定的程序跑在容器中。

kubernetes的最小管理单元是pod而不是容器,所以只能将容器放在Pod中,而kubernetes一般也不会直接管理Pod,而是通过Pod控制器来管理Pod的。

Pod可以提供服务之后,就要考虑如何访问Pod中服务,kubernetes提供了Service资源实现这个功能。

k8s提供了三种资源管理方式

命令式对象管理:直接使用命令去操作kubernetes资源

kubectl run nginx-pod --image=nginx:1.17.1 --port=80

命令式对象配置:通过命令配置和配置文件去操作kubernetes资源

kubectl create/patch -f nginx-pod.yaml

声明式对象配置:通过apply命令和配置文件去操作kubernetes资源

kubectl apply -f nginx-pod.yaml

命令式对象管理

kubectl命令

kubectl是kubernetes集群的命令行工具,通过它能够对集群本身进行管理,并能够在集群上进行容器化应用的安装部署。kubectl命令的语法如下:

kubectl [command] [type] [name] [flags]
 

comand:指定要对资源执行的操作,例如create、get、delete

type:指定资源类型,比如deployment、pod、service

name:指定资源的名称,名称大小写敏感

flags:指定额外的可选参数

  1.  
    # 查看所有pod
  2.  
    kubectl get pod
  3.  
     
  4.  
    # 查看某个pod
  5.  
    kubectl get pod pod_name
  6.  
     
  7.  
    # 查看某个pod,以yaml格式展示结果
  8.  
    kubectl get pod pod_name -o yaml

下面以一个namespace / pod的创建和删除简单演示下命令的使用:

  1.  
    # 创建一个namespace
  2.  
    [root@master ~]# kubectl create namespace dev
  3.  
    namespace/dev created
  4.  
     
  5.  
    # 获取namespace
  6.  
    [root@master ~]# kubectl get ns
  7.  
    NAME STATUS AGE
  8.  
    default Active 21h
  9.  
    dev Active 21s
  10.  
    kube-node-lease Active 21h
  11.  
    kube-public Active 21h
  12.  
    kube-system Active 21h
  13.  
     
  14.  
    # 在此namespace下创建并运行一个nginx的Pod
  15.  
    [root@master ~]# kubectl run pod --image=nginx -n dev
  16.  
    kubectl run --generator=deployment/apps.v1 is DEPRECATED and will be removed in a future version. Use kubectl run --generator=run-pod/v1 or kubectl create instead.
  17.  
    deployment.apps/pod created
  18.  
     
  19.  
    # 查看新创建的pod
  20.  
    [root@master ~]# kubectl get pod -n dev
  21.  
    NAME READY STATUS RESTARTS AGE
  22.  
    pod-864f9875b9-pcw7x 1/1 Running 0 21s
  23.  
     
  24.  
    # 删除指定的pod
  25.  
    [root@master ~]# kubectl delete pod pod-864f9875b9-pcw7x
  26.  
    pod "pod-864f9875b9-pcw7x" deleted
  27.  
     
  28.  
    # 删除指定的namespace
  29.  
    [root@master ~]# kubectl delete ns dev
  30.  
    namespace "dev" deleted

命令式对象配置

命令式对象配置就是使用命令配合配置文件一起来操作kubernetes资源。

1) 创建一个nginxpod.yaml,内容如下:

  1.  
    apiVersion: v1
  2.  
    kind: Namespace
  3.  
    metadata:
  4.  
    name: dev
  5.  
     
  6.  
    ---
  7.  
     
  8.  
    apiVersion: v1
  9.  
    kind: Pod
  10.  
    metadata:
  11.  
    name: nginxpod
  12.  
    namespace: dev
  13.  
    spec:
  14.  
    containers:
  15.  
    - name: nginx-containers
  16.  
    image: nginx:1.17.1

2)执行create命令,创建资源:

  1.  
    [root@master ~]# kubectl create -f nginxpod.yaml
  2.  
    namespace/dev created
  3.  
    pod/nginxpod created

此时发现创建了两个资源对象,分别是namespace和pod

3)执行get命令,查看资源:

  1.  
    [root@master ~]# kubectl get -f nginxpod.yaml
  2.  
    NAME STATUS AGE
  3.  
    namespace/dev Active 18s
  4.  
     
  5.  
    NAME READY STATUS RESTARTS AGE
  6.  
    pod/nginxpod 1/1 Running 0 17s

这样就显示了两个资源对象的信息

4)执行delete命令,删除资源:

  1.  
    [root@master ~]# kubectl delete -f nginxpod.yaml
  2.  
    namespace "dev" deleted
  3.  
    pod "nginxpod" deleted

此时发现两个资源对象被删除了

  1.  
    总结:
  2.  
    命令式对象配置的方式操作资源,可以简单的认为:命令 + yaml配置文件(里面是命令需要的各种参数)

声明式对象配置

声明式对象配置跟命令式对象配置很相似,但是它只有一个命令apply。

  1.  
    # 首先执行一次kubectl apply -f yaml文件,发现创建了资源
  2.  
    [root@master ~]# kubectl apply -f nginxpod.yaml
  3.  
    namespace/dev created
  4.  
    pod/nginxpod created
  5.  
     
  6.  
    # 再次执行一次kubectl apply -f yaml文件,发现说资源没有变动
  7.  
    [root@master ~]# kubectl apply -f nginxpod.yaml
  8.  
    namespace/dev unchanged
  9.  
    pod/nginxpod unchanged

实战

本章节将介绍如何在kubernetes集群中部署一个nginx服务,并且能够对其进行访问。

Namespace

Namespace是kubernetes系统中的一种非常重要资源,它的主要作用是用来实现多套环境的资源隔离或者多租户的资源隔离

默认情况下,kubernetes集群中的所有的Pod都是可以相互访问的。但是在实际中,可能不想让两个Pod之间进行互相的访问,那此时就可以将两个Pod划分到不同的namespace下。kubernetes通过将集群内部的资源分配到不同的Namespace中,可以形成逻辑上的"组",以方便不同的组的资源进行隔离使用和管理。

可以通过kubernetes的授权机制,将不同的namespace交给不同租户进行管理,这样就实现了多租户的资源隔离。此时还能结合kubernetes的资源配额机制,限定不同租户能占用的资源,例如CPU使用量、内存使用量等等,来实现租户可用资源的管理。

kubernetes在集群启动之后,会默认创建几个namespace

  1.  
    [root@master ~]# kubectl get namespace
  2.  
    NAME STATUS AGE
  3.  
    default Active 45h # 所有未指定Namespace的对象都会被分配在default命名空间
  4.  
    kube-node-lease Active 45h # 集群节点之间的心跳维护,v1.13开始引入
  5.  
    kube-public Active 45h # 此命名空间下的资源可以被所有人访问(包括未认证用户)
  6.  
    kube-system Active 45h # 所有由Kubernetes系统创建的资源都处于这个命名空间

下面来看namespace资源的具体操作:

查看

  1.  
    # 1 查看所有的ns 命令:kubectl get ns
  2.  
    [root@master ~]# kubectl get ns
  3.  
    NAME STATUS AGE
  4.  
    default Active 45h
  5.  
    kube-node-lease Active 45h
  6.  
    kube-public Active 45h
  7.  
    kube-system Active 45h
  8.  
     
  9.  
    # 2 查看指定的ns 命令:kubectl get ns ns名称
  10.  
    [root@master ~]# kubectl get ns default
  11.  
    NAME STATUS AGE
  12.  
    default Active 45h
  13.  
     
  14.  
    # 3 指定输出格式 命令:kubectl get ns ns名称 -o 格式参数
  15.  
    # kubernetes支持的格式有很多,比较常见的是wide、json、yaml
  16.  
    [root@master ~]# kubectl get ns default -o yaml
  17.  
    apiVersion: v1
  18.  
    kind: Namespace
  19.  
    metadata:
  20.  
    creationTimestamp: "2020-04-05T04:44:16Z"
  21.  
    name: default
  22.  
    resourceVersion: "151"
  23.  
    selfLink: /api/v1/namespaces/default
  24.  
    uid: 7405f73a-e486-43d4-9db6-145f1409f090
  25.  
    spec:
  26.  
    finalizers:
  27.  
    - kubernetes
  28.  
    status:
  29.  
    phase: Active
  30.  
     
  31.  
    # 4 查看ns详情 命令:kubectl describe ns ns名称
  32.  
    [root@master ~]# kubectl describe ns default
  33.  
    Name: default
  34.  
    Labels:
  35.  
    Annotations:
  36.  
    Status: Active # Active 命名空间正在使用中 Terminating 正在删除命名空间
  37.  
     
  38.  
    # ResourceQuota 针对namespace做的资源限制
  39.  
    # LimitRange针对namespace中的每个组件做的资源限制
  40.  
    No resource quota.
  41.  
    No LimitRange resource.

创建

  1.  
    # 创建namespace
  2.  
    [root@master ~]# kubectl create ns dev
  3.  
    namespace/dev created

删除

  1.  
    # 删除namespace
  2.  
    [root@master ~]# kubectl delete ns dev
  3.  
    namespace "dev" deleted

配置方式

首先准备一个yaml文件:ns-dev.yaml

  1.  
    apiVersion: v1
  2.  
    kind: Namespace
  3.  
    metadata:
  4.  
    name: dev

然后就可以执行对应的创建和删除命令了:

创建:kubectl create -f ns-dev.yaml

删除:kubectl delete -f ns-dev.yaml

Pod

Pod是kubernetes集群进行管理的最小单元,程序要运行必须部署在容器中,而容器必须存在于Pod中。

Pod可以认为是容器的封装,一个Pod中可以存在一个或者多个容器。

kubernetes在集群启动之后,集群中的各个组件也都是以Pod方式运行的。可以通过下面命令查看:

  1.  
    [root@master ~]# kubectl get pod -n kube-system
  2.  
    NAMESPACE NAME READY STATUS RESTARTS AGE
  3.  
    kube-system coredns-6955765f44-68g6v 1/1 Running 0 2d1h
  4.  
    kube-system coredns-6955765f44-cs5r8 1/1 Running 0 2d1h
  5.  
    kube-system etcd-master 1/1 Running 0 2d1h
  6.  
    kube-system kube-apiserver-master 1/1 Running 0 2d1h
  7.  
    kube-system kube-controller-manager-master 1/1 Running 0 2d1h
  8.  
    kube-system kube-flannel-ds-amd64-47r25 1/1 Running 0 2d1h
  9.  
    kube-system kube-flannel-ds-amd64-ls5lh 1/1 Running 0 2d1h
  10.  
    kube-system kube-proxy-685tk 1/1 Running 0 2d1h
  11.  
    kube-system kube-proxy-87spt 1/1 Running 0 2d1h
  12.  
    kube-system kube-scheduler-master 1/1 Running 0 2d1h

创建并运行

kubernetes没有提供单独运行Pod的命令,都是通过Pod控制器来实现的

  1.  
    # 命令格式: kubectl run (pod控制器名称) [参数]
  2.  
    # --image 指定Pod的镜像
  3.  
    # --port 指定端口
  4.  
    # --namespace 指定namespace
  5.  
    [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --namespace dev
  6.  
    deployment.apps/nginx created

查看pod信息

  1.  
    # 查看Pod基本信息
  2.  
    [root@master ~]# kubectl get pods -n dev
  3.  
    NAME READY STATUS RESTARTS AGE
  4.  
    nginx-5ff7956ff6-fg2db 1/1 Running 0 43s
  5.  
     
  6.  
    # 查看Pod的详细信息
  7.  
    [root@master ~]# kubectl describe pod nginx-5ff7956ff6-fg2db -n dev
  8.  
    Name: nginx-5ff7956ff6-fg2db
  9.  
    Namespace: dev
  10.  
    Priority: 0
  11.  
    Node: node1/192.168.109.101
  12.  
    Start Time: Wed, 08 Apr 2020 09:29:24 +0800
  13.  
    Labels: pod-template-hash=5ff7956ff6
  14.  
    run=nginx
  15.  
    Annotations:
  16.  
    Status: Running
  17.  
    IP: 10.244.1.23
  18.  
    IPs:
  19.  
    IP: 10.244.1.23
  20.  
    Controlled By: ReplicaSet/nginx-5ff7956ff6
  21.  
    Containers:
  22.  
    nginx:
  23.  
    Container ID: docker://4c62b8c0648d2512380f4ffa5da2c99d16e05634979973449c98e9b829f6253c
  24.  
    Image: nginx:1.17.1
  25.  
    Image ID: docker-pullable://nginx@sha256:485b610fefec7ff6c463ced9623314a04ed67e3945b9c08d7e53a47f6d108dc7
  26.  
    Port: 80/TCP
  27.  
    Host Port: 0/TCP
  28.  
    State: Running
  29.  
    Started: Wed, 08 Apr 2020 09:30:01 +0800
  30.  
    Ready: True
  31.  
    Restart Count: 0
  32.  
    Environment:
  33.  
    Mounts:
  34.  
    /var/run/secrets/kubernetes.io/serviceaccount from default-token-hwvvw (ro)
  35.  
    Conditions:
  36.  
    Type Status
  37.  
    Initialized True
  38.  
    Ready True
  39.  
    ContainersReady True
  40.  
    PodScheduled True
  41.  
    Volumes:
  42.  
    default-token-hwvvw:
  43.  
    Type: Secret (a volume populated by a Secret)
  44.  
    SecretName: default-token-hwvvw
  45.  
    Optional: false
  46.  
    QoS Class: BestEffort
  47.  
    Node-Selectors:
  48.  
    Tolerations: node.kubernetes.io/not-ready:NoExecute for 300s
  49.  
    node.kubernetes.io/unreachable:NoExecute for 300s
  50.  
    Events:
  51.  
    Type Reason Age From Message
  52.  
    ---- ------ ---- ---- -------
  53.  
    Normal Scheduled default-scheduler Successfully assigned dev/nginx-5ff7956ff6-fg2db to node1
  54.  
    Normal Pulling 4m11s kubelet, node1 Pulling image "nginx:1.17.1"
  55.  
    Normal Pulled 3m36s kubelet, node1 Successfully pulled image "nginx:1.17.1"
  56.  
    Normal Created 3m36s kubelet, node1 Created container nginx
  57.  
    Normal Started 3m36s kubelet, node1 Started container nginx

访问Pod

  1.  
    # 获取podIP
  2.  
    [root@master ~]# kubectl get pods -n dev -o wide
  3.  
    NAME READY STATUS RESTARTS AGE IP NODE ...
  4.  
    nginx-5ff7956ff6-fg2db 1/1 Running 0 190s 10.244.1.23 node1 ...
  5.  
     
  6.  
    #访问POD
  7.  
    [root@master ~]# curl http://10.244.1.23:80
  8.  
     
  9.  
     
  10.  
     
  11.  
    Welcome to nginx!
  12.  
     
  13.  
    Thank you for using nginx.
  14.  
     

删除指定Pod

  1.  
    # 删除指定Pod
  2.  
    [root@master ~]# kubectl delete pod nginx-5ff7956ff6-fg2db -n dev
  3.  
    pod "nginx-5ff7956ff6-fg2db" deleted
  4.  
     
  5.  
    # 此时,显示删除Pod成功,但是再查询,发现又新产生了一个
  6.  
    [root@master ~]# kubectl get pods -n dev
  7.  
    NAME READY STATUS RESTARTS AGE
  8.  
    nginx-5ff7956ff6-jj4ng 1/1 Running 0 21s
  9.  
     
  10.  
    # 这是因为当前Pod是由Pod控制器创建的,控制器会监控Pod状况,一旦发现Pod死亡,会立即重建
  11.  
    # 此时要想删除Pod,必须删除Pod控制器
  12.  
     
  13.  
    # 先来查询一下当前namespace下的Pod控制器
  14.  
    [root@master ~]# kubectl get deploy -n dev
  15.  
    NAME READY UP-TO-DATE AVAILABLE AGE
  16.  
    nginx 1/1 1 1 9m7s
  17.  
     
  18.  
    # 接下来,删除此PodPod控制器
  19.  
    [root@master ~]# kubectl delete deploy nginx -n dev
  20.  
    deployment.apps "nginx" deleted
  21.  
     
  22.  
    # 稍等片刻,再查询Pod,发现Pod被删除了
  23.  
    [root@master ~]# kubectl get pods -n dev
  24.  
    No resources found in dev namespace.

配置操作

创建一个pod-nginx.yaml,内容如下:

  1.  
    apiVersion: v1
  2.  
    kind: Pod
  3.  
    metadata:
  4.  
    name: nginx
  5.  
    namespace: dev
  6.  
    spec:
  7.  
    containers:
  8.  
    - image: nginx:1.17.1
  9.  
    name: pod
  10.  
    ports:
  11.  
    - name: nginx-port
  12.  
    containerPort: 80
  13.  
    protocol: TCP

然后就可以执行对应的创建和删除命令了:

创建:kubectl create -f pod-nginx.yaml

删除:kubectl delete -f pod-nginx.yaml

Label

Label是kubernetes系统中的一个重要概念。它的作用就是在资源上添加标识,用来对它们进行区分和选择。

Label的特点:

    ①.一个Label会以key/value键值对的形式附加到各种对象上,如Node、Pod、Service等等

    ②.一个资源对象可以定义任意数量的Label ,同一个Label也可以被添加到任意数量的资源对象上去

    ③.Label通常在资源对象定义时确定,当然也可以在对象创建后动态添加或者删除

可以通过Label实现资源的多维度分组,以便灵活、方便地进行资源分配、调度、配置、部署等管理工作。

一些常用的Label 示例如下:

①版本标签:"version":"release", "version":"stable"......

②环境标签:"environment":"dev","environment":"test","environment":"pro"

③架构标签:"tier":"frontend","tier":"backend"

标签定义完毕之后,还要考虑到标签的选择,这就要使用到Label Selector,即:

Label用于给某个资源对象定义标识

Label Selector用于查询和筛选拥有某些标签的资源对象

当前有两种Label Selector:

①基于等式的Label Selector

        name = slave: 选择所有包含Label中key="name"且value="slave"的对象

        env != production: 选择所有包括Label中的key="env"且value不等于"production"的对象

②基于集合的Label Selector

        name in (master, slave): 选择所有包含Label中的key="name"且value="master"或"slave"的对象

        name not in (frontend): 选择所有包含Label中的key="name"且value不等于"frontend"的对象

标签的选择条件可以使用多个,此时将多个Label Selector进行组合,使用逗号","进行分隔即可。例如:

name=slave,env!=production

name not in (frontend),env!=production

命令方式

  1.  
    # 为pod资源打标签
  2.  
    [root@master ~]# kubectl label pod nginx-pod version=1.0 -n dev
  3.  
    pod/nginx-pod labeled
  4.  
     
  5.  
    # 为pod资源更新标签
  6.  
    [root@master ~]# kubectl label pod nginx-pod version=2.0 -n dev --overwrite
  7.  
    pod/nginx-pod labeled
  8.  
     
  9.  
    # 查看标签
  10.  
    [root@master ~]# kubectl get pod nginx-pod -n dev --show-labels
  11.  
    NAME READY STATUS RESTARTS AGE LABELS
  12.  
    nginx-pod 1/1 Running 0 10m version=2.0
  13.  
     
  14.  
    # 筛选标签
  15.  
    [root@master ~]# kubectl get pod -n dev -l version=2.0 --show-labels
  16.  
    NAME READY STATUS RESTARTS AGE LABELS
  17.  
    nginx-pod 1/1 Running 0 17m version=2.0
  18.  
    [root@master ~]# kubectl get pod -n dev -l version!=2.0 --show-labels
  19.  
    No resources found in dev namespace.
  20.  
     
  21.  
    #删除标签
  22.  
    [root@master ~]# kubectl label pod nginx-pod version- -n dev
  23.  
    pod/nginx-pod labeled

配置方式

  1.  
    apiVersion: v1
  2.  
    kind: Pod
  3.  
    metadata:
  4.  
    name: nginx
  5.  
    namespace: dev
  6.  
    labels:
  7.  
    version: "3.0"
  8.  
    env: "test"
  9.  
    spec:
  10.  
    containers:
  11.  
    - image: nginx:1.17.1
  12.  
    name: pod
  13.  
    ports:
  14.  
    - name: nginx-port
  15.  
    containerPort: 80
  16.  
    protocol: TCP

然后就可以执行对应的更新命令了:kubectl apply -f pod-nginx.yaml

Deployment

在kubernetes中,Pod是最小的控制单元,但是kubernetes很少直接控制Pod,一般都是通过Pod控制器来完成的。Pod控制器用于pod的管理,确保pod资源符合预期的状态,当pod的资源出现故障时,会尝试进行重启或重建pod。

在kubernetes中Pod控制器的种类有很多,本章节只介绍一种:Deployment。

命令操作

  1.  
    # 命令格式: kubectl run deployment名称 [参数]
  2.  
    # --image 指定pod的镜像
  3.  
    # --port 指定端口
  4.  
    # --replicas 指定创建pod数量
  5.  
    # --namespace 指定namespace
  6.  
    [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --replicas=3 -n dev
  7.  
    deployment.apps/nginx created
  8.  
     
  9.  
    # 查看创建的Pod
  10.  
    [root@master ~]# kubectl get pods -n dev
  11.  
    NAME READY STATUS RESTARTS AGE
  12.  
    nginx-5ff7956ff6-6k8cb 1/1 Running 0 19s
  13.  
    nginx-5ff7956ff6-jxfjt 1/1 Running 0 19s
  14.  
    nginx-5ff7956ff6-v6jqw 1/1 Running 0 19s
  15.  
     
  16.  
    # 查看deployment的信息
  17.  
    [root@master ~]# kubectl get deploy -n dev
  18.  
    NAME READY UP-TO-DATE AVAILABLE AGE
  19.  
    nginx 3/3 3 3 2m42s
  20.  
     
  21.  
    # UP-TO-DATE:成功升级的副本数量
  22.  
    # AVAILABLE:可用副本的数量
  23.  
    [root@master ~]# kubectl get deploy -n dev -o wide
  24.  
    NAME READY UP-TO-DATE AVAILABLE AGE CONTAINERS IMAGES SELECTOR
  25.  
    nginx 3/3 3 3 2m51s nginx nginx:1.17.1 run=nginx
  26.  
     
  27.  
    # 查看deployment的详细信息
  28.  
    [root@master ~]# kubectl describe deploy nginx -n dev
  29.  
    Name: nginx
  30.  
    Namespace: dev
  31.  
    CreationTimestamp: Wed, 08 Apr 2020 11:14:14 +0800
  32.  
    Labels: run=nginx
  33.  
    Annotations: deployment.kubernetes.io/revision: 1
  34.  
    Selector: run=nginx
  35.  
    Replicas: 3 desired | 3 updated | 3 total | 3 available | 0 unavailable
  36.  
    StrategyType: RollingUpdate
  37.  
    MinReadySeconds: 0
  38.  
    RollingUpdateStrategy: 25% max unavailable, 25% max surge
  39.  
    Pod Template:
  40.  
    Labels: run=nginx
  41.  
    Containers:
  42.  
    nginx:
  43.  
    Image: nginx:1.17.1
  44.  
    Port: 80/TCP
  45.  
    Host Port: 0/TCP
  46.  
    Environment:
  47.  
    Mounts:
  48.  
    Volumes:
  49.  
    Conditions:
  50.  
    Type Status Reason
  51.  
    ---- ------ ------
  52.  
    Available True MinimumReplicasAvailable
  53.  
    Progressing True NewReplicaSetAvailable
  54.  
    OldReplicaSets:
  55.  
    NewReplicaSet: nginx-5ff7956ff6 (3/3 replicas created)
  56.  
    Events:
  57.  
    Type Reason Age From Message
  58.  
    ---- ------ ---- ---- -------
  59.  
    Normal ScalingReplicaSet 5m43s deployment-controller Scaled up replicaset nginx-5ff7956ff6 to 3
  60.  
     
  61.  
    # 删除
  62.  
    [root@master ~]# kubectl delete deploy nginx -n dev
  63.  
    deployment.apps "nginx" deleted

配置操作

创建一个deploy-nginx.yaml,内容如下:

  1.  
    apiVersion: apps/v1
  2.  
    kind: Deployment
  3.  
    metadata:
  4.  
    name: nginx
  5.  
    namespace: dev
  6.  
    spec:
  7.  
    replicas: 3
  8.  
    selector:
  9.  
    matchLabels:
  10.  
    run: nginx
  11.  
    template:
  12.  
    metadata:
  13.  
    labels:
  14.  
    run: nginx
  15.  
    spec:
  16.  
    containers:
  17.  
    - image: nginx:1.17.1
  18.  
    name: nginx
  19.  
    ports:
  20.  
    - containerPort: 80
  21.  
    protocol: TCP

然后就可以执行对应的创建和删除命令了:

创建:kubectl create -f deploy-nginx.yaml

删除:kubectl delete -f deploy-nginx.yaml

Service

通过上节课的学习,已经能够利用Deployment来创建一组Pod来提供具有高可用性的服务。

虽然每个Pod都会分配一个单独的Pod IP,然而却存在如下两问题:

      ①Pod IP 会随着Pod的重建产生变化

      ②Pod IP 仅仅是集群内可见的虚拟IP,外部无法访问

这样对于访问这个服务带来了难度。因此,kubernetes设计了Service来解决这个问题。

Service可以看作是一组同类Pod对外的访问接口。借助Service,应用可以方便地实现服务发现和负载均衡。

操作一:创建集群内部可访问的Service

  1.  
    # 暴露Service
  2.  
    [root@master ~]# kubectl expose deploy nginx --name=svc-nginx1 --type=ClusterIP --port=80 --target-port=80 -n dev
  3.  
    service/svc-nginx1 exposed
  4.  
     
  5.  
    # 查看service
  6.  
    [root@master ~]# kubectl get svc svc-nginx -n dev -o wide
  7.  
    NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
  8.  
    svc-nginx1 ClusterIP 10.109.179.231 80/TCP 3m51s run=nginx
  9.  
     
  10.  
    # 这里产生了一个CLUSTER-IP,这就是service的IP,在Service的生命周期中,这个地址是不会变动的
  11.  
    # 可以通过这个IP访问当前service对应的POD
  12.  
    [root@master ~]# curl 10.109.179.231:80
  13.  
     
  14.  
     
  15.  
     
  16.  
    Welcome to nginx!
  17.  
     
  18.  
    Welcome to nginx!
  19.  
    .......
  20.  
     

操作二:创建集群外部也可访问的Service

  1.  
    # 上面创建的Service的type类型为ClusterIP,这个ip地址只用集群内部可访问
  2.  
    # 如果需要创建外部也可以访问的Service,需要修改type为NodePort
  3.  
    [root@master ~]# kubectl expose deploy nginx --name=svc-nginx2 --type=NodePort --port=80 --target-port=80 -n dev
  4.  
    service/svc-nginx2 exposed
  5.  
     
  6.  
    # 此时查看,会发现出现了NodePort类型的Service,而且有一对Port(80:31928/TC)
  7.  
    [root@master ~]# kubectl get svc svc-nginx-1 -n dev -o wide
  8.  
    NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
  9.  
    svc-nginx2 NodePort 10.100.94.0 80:31928/TCP 9s run=nginx
  10.  
     
  11.  
    # 接下来就可以通过集群外的主机访问 节点IP:31928访问服务了
  12.  
    # 例如在的电脑主机上通过浏览器访问下面的地址
  13.  
    http://192.168.109.100:31928/

删除Service

[root@master ~]# kubectl delete svc svc-nginx-1 -n dev                                   service "svc-nginx-1" deleted
 

配置方式

创建一个svc-nginx.yaml,内容如下:

  1.  
    apiVersion: v1
  2.  
    kind: Service
  3.  
    metadata:
  4.  
    name: svc-nginx
  5.  
    namespace: dev
  6.  
    spec:
  7.  
    clusterIP: 10.109.179.231
  8.  
    ports:
  9.  
    - port: 80
  10.  
    protocol: TCP
  11.  
    targetPort: 80
  12.  
    selector:
  13.  
    run: nginx
  14.  
    type: ClusterIP

然后就可以执行对应的创建和删除命令了:

创建:kubectl create -f svc-nginx.yaml

删除:kubectl delete -f svc-nginx.yaml