debian

K8s在Debian上的安装流程是怎样的

小樊
68
2025-04-24 08:51:47
栏目: 智能运维

在Debian上安装Kubernetes(K8s)集群的流程大致如下:

准备工作

  1. 硬件要求:至少2核CPU、2GB RAM、20GB硬盘空间。
  2. 网络要求:稳定的互联网连接,确保所有节点之间可以互相通信。
  3. 用户要求:具有管理权限的sudo用户。

安装步骤

设置主机名和更新hosts文件

在每个节点上设置主机名,并在 /etc/hosts 文件中添加相应的条目。

sudo hostnamectl set-hostname "k8s-master01.test.local"
# 在第一个工作节点运行
sudo hostnamectl set-hostname "k8s-worker01.test.local"
# 在第二个工作节点运行
sudo hostnamectl set-hostname "k8s-worker02.test.local"

# 在所有节点的 /etc/hosts 文件中添加以下条目:
192.168.16.20 k8s-master01.test.local k8s-master01
192.168.16.21 k8s-worker01.test.local k8s-worker01
192.168.16.22 k8s-worker02.test.local k8s-worker02

关闭所有节点的swap分区

为了让kubelet顺利运行,建议禁用swap。

sudo swapoff -a
sudo sed -i '/ swap / s/1/g' /etc/fstab

为K8s集群添加防火墙规则

如果Debian系统已启用操作系统防火墙,请在主控节点和工作节点上分别允许以下端口。

主控节点

sudo ufw allow 6443/tcp
sudo ufw allow 2379/tcp
sudo ufw allow 2380/tcp
sudo ufw allow 10250/tcp
sudo ufw allow 10251/tcp
sudo ufw allow 10252/tcp
sudo ufw allow 10255/tcp
sudo ufw reload

工作节点

sudo ufw allow 10250/tcp
sudo ufw allow 30000:32767/tcp
sudo ufw reload

在所有节点上安装containerd运行时

添加containerd镜像源

curl -fsSL https://mirrors.aliyun.com/docker-ce/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg
echo "deb [archamd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://mirrors.aliyun.com/docker-ce/linux/debian $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list

安装containerd

sudo apt update
sudo apt install -y containerd

初始化containerd

sudo mkdir -p /etc/containerd
sudo containerd init

启动containerd服务

sudo systemctl enable --now containerd

在所有节点上安装Kubernetes工具

添加Kubernetes镜像源

curl -s https://packages.cloud.google.com/apt/doc/apt-key.gpg | sudo apt-key add -
echo "deb https://apt.kubernetes.io/ kubernetes-xenial main" | sudo tee /etc/apt/sources.list.d/kubernetes.list
sudo apt update

安装kubelet、kubeadm和kubectl

sudo apt install -y kubelet kubeadm kubectl
sudo systemctl enable kubelet && sudo systemctl start kubelet

使用kubeadm安装Kubernetes集群

初始化主控节点

sudo kubeadm init --pod-network-cidr 10.244.0.0/16

配置kubectl

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

在工作节点上加入集群

sudo kubeadm join 192.168.16.20:6443 --token <token> --discovery-token-ca-cert-hash sha256:<hash>

使用Calico设置Pod网络(可选)

下载Calico配置文件

wget https://docs.projectcalico.org/manifests/tigera-operator.yaml

应用Calico配置

kubectl apply -f tigera-operator.yaml

开放Calico端口(如果防火墙启用)

sudo ufw allow 179/tcp
sudo ufw allow 4789/udp
sudo ufw allow 51820/udp
sudo ufw allow 51821/udp
sudo ufw reload

验证集群

验证集群信息

kubectl cluster-info

查看节点状态

kubectl get nodes

部署一个测试应用(如Nginx)并验证

kubectl create deployment nginx-app --image=nginx --replicas=2
kubectl expose deployment nginx-app --name=nginx-web-svc --type=NodePort --port=80 --target-port=80
curl http://<node-ip>:31743

请注意,以上步骤可能会根据具体的Kubernetes版本和Debian版本有所不同。建议参考最新的官方文档以获取最准确的信息。

0
看了该问题的人还看了