侧边栏壁纸
博主头像
逢尔Seyu 博主等级

星光不负赶路人,时光不负追梦人

  • 累计撰写 30 篇文章
  • 累计创建 20 个标签
  • 累计收到 2 条评论

目 录CONTENT

文章目录

kubernetes集群部署

逢尔Seyu
2024-03-13 / 0 评论 / 0 点赞 / 105 阅读 / 0 字

kubernetes概述

K8S概述:

Kubernetes 也称为 K8s,是用于自动部署、扩缩和管理容器化应用程序的开源系统。

K8S架构图:

170AD6E9-9CF6-404B-8468-C778A14ADED9.png

K8S各个组件的作用

Scheduler:

kube-scheduler根据调度算法为新创建的Pod选择一个Node节点,可以任意部署,可以部署在同一个节点上,也可以部署在不同的节点上。

Controller Manager:

Kube-controller-manager,处理集群中常规后台任务,一个资源对应一个控制器,而ControllerManager就是负责管理这些控制器的。

Cloud Controller Manager:

用在云平台上的Kube-controller-manager组件。如果我们直接在物理机上部署的话,可以不使用该组件。

API Server:

kube-apiserver,集群的统一入口,各组件协调者,以RESTFUL API提供接口服务,所有对象资源的增删改查和监听操作都交给APIServer处理后再提交给etcd存储。

Etcd:

分布式键值存储系统,用于保存集群状态元数据信息,比如Pod,Service等对象信息。这个数据库是可以单独拿出来部署,只需要API server可以连接到该分布式数据库集群即可。

kubelet:

可以理解为Master在工作节点上的Agent,管理本机运行容器的生命周期,比如创建容器,Pod挂载数据卷,下载secret,获取容器的节点状态等工作。kubelet将每一个Pod转换成一组容器。

kube-proxy:

在工作节点上实现Pod网络代理,维护网络规则和四层负载均衡工作。换句话说,就是用于负责Pod网络路由,用于对外提供访问的实现。可以找到你关心的项目所在的pod节点。

POD:

用户划分容器的最小单位,一个POD可以存在多个容器。

Centos部署K8S集群

环境准备

节点

主机名

10.0.0.231

master231

10.0.0.232

worker232

10.0.0.233

worker233

1.首先所有节点安装Docker

此处省略,相信难不倒各位小伙伴......

2.虚拟机操作系统环境准备(所有环境都需要准备)

2.1 所有节点将主节点的映射写到/etc/hosts中

cat >> /etc/hosts << EOF
10.0.0.231 master231
EOF

2.2 关闭swap分区

#临时关闭
swapoff -a && sysctl -w vm.swappiness=0
	
#基于配置文件关闭
sed -ri '/^[^#]*swap/s@^@#@' /etc/fstab

2.3 确保各个节点MAC地址或product_uuid唯一

ifconfig  ens33  | grep ether | awk '{print $2}'

cat /sys/class/dmi/id/product_uuid 

2.4 检查网络节点是否互通

使用ping命令

2.5 允许iptable检查桥接流量

cat <<EOF | tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF

cat <<EOF | tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1
EOF

#应用配置
sysctl --system

2.6 检查端口是否被占用

参考官方:https://kubernetes.io/zh-cn/docs/reference/networking/ports-and-protocols/

2.8 禁用防火墙

systemctl disable --now firewalld

2.9 禁用selinux

sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config 

#检查一下
grep ^SELINUX= /etc/selinux/config

2.10 所有节点修改cgroup的管理进程为systemd

[root@master231 ~]# vim /etc/docker/daemon.json
{
  "registry-mirrors": ["https://v99d4ic9.mirror.aliyuncs.com","https://docker.mirrors.ustc.edu.cn/","https://hub-mirror.c.163.com/","https://reg-mirror.qiniu.com"],
  "exec-opts": ["native.cgroupdriver=systemd"]
}

#重启docker
systemctl restart docker

#检查配置
#温馨提示:如果不修改cgroup的管理驱动为systemd,则默认值为cgroupfs,在初始化master节点时会失败
 [root@master231 ~]#docker info | grep "Cgroup Driver"
 Cgroup Driver: systemd

3.所有节点安装kubeadm,kubelet,kubectl

3.1 配置K8S软件源

cat  > /etc/yum.repos.d/kubernetes.repo <<EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64/
enabled=1
gpgcheck=0
repo_gpgcheck=0
EOF

3.2 查看kubeadm的版本(将来你要安装的K8S时请所有组件版本均保持一致!)

yum -y list kubeadm --showduplicates | sort -r

3.3 安装kubeadm,kubelet,kubectl软件包

yum -y install kubeadm-1.20.9-0 kubelet-1.20.9-0 kubectl-1.20.9-0

3.4 启动kubelet服务(若服务启动失败时正常现象,其会自动重启,因为缺失配置文件,初始化集群后恢复!)

systemctl enable --now kubelet

4.初始化Master节点(master主机执行)

4.1 使用kubeadm初始化master节点

kubeadm init --apiserver-advertise-address=10.0.0.231 --control-plane-endpoint=master231 --kubernetes-version=v1.20.9 --image-repository registry.aliyuncs.com/google_containers  --pod-network-cidr=171.25.0.0/16 --service-cidr=172.25.0.0/16

相关参数说明

--apiserver-advertise-address

主节点地址

--control-plane-endpoint

/etc/hosts中主节点域名映射的值

--kubernetes-version:

指定K8S master组件的版本号。

--image-repository:

指定下载k8s master组件的镜像仓库地址。

--pod-network-cidr:

指定Pod的网段地址。

--service-cidr:

指定SVC的网段

注意:

1.所有的网络范围均不能重叠

2.生成的时候会有生成信息,一定不要删除......

4.1.1 使用kubeadm初始化集

时,可能会出现如下的输出信息:

[init] 
	使用初始化的K8S版本。
	
[preflight] 
	主要是做安装K8S集群的前置工作,比如下载镜像,这个时间取决于你的网速。

[certs] 
	生成证书文件,默认存储在"/etc/kubernetes/pki"目录哟。

[kubeconfig]
	生成K8S集群的默认配置文件,默认存储在"/etc/kubernetes"目录哟。

[kubelet-start] 
	启动kubelet,
    环境变量默认写入:"/var/lib/kubelet/kubeadm-flags.env"
    配置文件默认写入:"/var/lib/kubelet/config.yaml"

[control-plane]
	使用静态的目录,默认的资源清单存放在:"/etc/kubernetes/manifests"。
	此过程会创建静态Pod,包括"kube-apiserver","kube-controller-manager"和"kube-scheduler"

[etcd] 
	创建etcd的静态Pod,默认的资源清单存放在:""/etc/kubernetes/manifests"
	
[wait-control-plane] 
	等待kubelet从资源清单目录"/etc/kubernetes/manifests"启动静态Pod。

[apiclient]
	等待所有的master组件正常运行。
	
[upload-config] 
	创建名为"kubeadm-config"的ConfigMap在"kube-system"名称空间中。
	
[kubelet] 
	创建名为"kubelet-config-1.22"的ConfigMap在"kube-system"名称空间中,其中包含集群中kubelet的配置

[upload-certs] 
	跳过此节点,详情请参考”--upload-certs"
	
[mark-control-plane]
	标记控制面板,包括打标签和污点,目的是为了标记master节点。
	
[bootstrap-token] 
	创建token口令,例如:"kbkgsa.fc97518diw8bdqid"。
	这个口令将来在加入集群节点时很有用,而且对于RBAC控制也很有用处哟。

[kubelet-finalize] 
	更新kubelet的证书文件信息

[addons] 
	添加附加组件,例如:"CoreDNS"和"kube-proxy”

4.2 拷贝授权文件,用于管理K8S集群

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config	

4.3 查看集群节点

[root@master231 ~]# kubectl get cs
Warning: v1 ComponentStatus is deprecated in v1.19+
NAME                 STATUS    MESSAGE                         ERROR
controller-manager   Healthy   ok                              
scheduler            Healthy   ok                              
etcd-0               Healthy   {"health":"true","reason":""}  

5. K8S集群部署之配置worker节点加入集群

5.1 worker节点加入集群(在两台woker节点执行)

kubeadm join 10.0.0.231:6443 --token a21xo4.jhw58p88n4pg1zxb --discovery-token-ca-cert-hash sha256:bee09fe869935d8ec3721510a5a838f8c5e5853145b7e1d30647a5217b7d8e0e

注意,你的环境和我的不一样,需要拷贝你上一步产生的输出信息。

5.2 master节点查看集群现有的worker节点

[root@master231 ~]# kubectl get no
NAME        STATUS     ROLES                  AGE     VERSION
master231   NotReady   control-plane,master   8m27s   v1.23.17
worker232   NotReady   <none>                 104s    v1.23.17
worker233   NotReady   <none>                 8s      v1.23.17

status显示NotReady是因为还没有部署flannel服务,稍后会部署

6. 部署CNI组件之flannel(Master节点操作)

6.1 下载flannel的资源清单

wget https://github.com/flannel-io/flannel/releases/latest/download/kube-flannel.yml

6.2 修改flannel的资源清单配置文件,修改和咱们Pod网络相同的网段即可

[root@master231 ~]# vim kube-flannel.yml 

#注意此处的IP是初始化Master集群的时候指定的--pod-network-cidr参数
[root@master231 ~]# grep 16 kube-flannel.yml 
      "Network": "171.25.0.0/16",
[root@master231 ~]# 

6.3 部署flannel组件

[root@master231 ~]# kubectl apply -f kube-flannel.yml 
namespace/kube-flannel created
serviceaccount/flannel created
clusterrole.rbac.authorization.k8s.io/flannel created
clusterrolebinding.rbac.authorization.k8s.io/flannel created
configmap/kube-flannel-cfg created
daemonset.apps/kube-flannel-ds created

6.4 查看是否部署成功

[root@master231 ~]# kubectl get pods -n kube-flannel -o wide
NAME                    READY   STATUS    RESTARTS   AGE     IP           NODE        NOMINATED NODE   READINESS GATES
kube-flannel-ds-fkxx4   1/1     Running   0          3m16s   10.0.0.232   worker232   <none>           <none>
kube-flannel-ds-h9rmk   1/1     Running   0          3m16s   10.0.0.233   worker233   <none>           <none>
kube-flannel-ds-wq9c5   1/1     Running   0          3m16s   10.0.0.231   master231   <none>           <none>

6.5查看集群信息

[root@master231 ~]# kubectl get no
NAME        STATUS   ROLES                  AGE   VERSION
master231   Ready    control-plane,master   20m   v1.23.17
worker232   Ready    <none>                 14m   v1.23.17
worker233   Ready    <none>                 12m   v1.23.17

这时候可以看到集群的STATUS就变成Ready状态

7. Master节点设置kubectl自动补全(可选操作)

kubectl completion bash > ~/.kube/completion.bash.inc

echo "source '$HOME/.kube/completion.bash.inc'" >> ~/.bash_profile

source ~/.bash_profile

至此,K8S集群就部署完成了

0

评论区