Setup Kubernetes Cluster Using Kubeadm

From wiki.baghirzade.pro
Revision as of 07:35, 19 November 2025 by Sadmin (talk | contribs)
Jump to navigation Jump to search

Kubeadm Setup Prerequisites

Following are the prerequisites for Kubeadm Kubernetes cluster setup.

  1. Minimum two Ubuntu nodes [One master and one worker node]. You can have more worker nodes as per your requirement.
  2. The master node should have a minimum of 2 vCPU and 2GB RAM.
  3. For the worker nodes, a minimum of 1vCPU and 2 GB RAM is recommended.
  4. 10.X.X.X/X network range with static IPs for master and worker nodes. We will be using the 192.x.x.x series as the pod network range that will be used by the Calico network plugin. Make sure the Node IP range and pod IP range don't overlap.

На cp1:

sudo hostnamectl set-hostname cp1

На worker1:

sudo hostnamectl set-hostname w1

На worker2:

sudo hostnamectl set-hostname w2

На всех нодах добавь записи в /etc/hosts:

sudo nano /etc/hosts

В конец файла допиши, подставив свои IP:

10.0.0.10 cp1 10.0.0.11 w1 10.0.0.12 w2

Это позволяет нодам обращаться друг к другу по имени, а не по IP.

1. Общая подготовка системы (все ноды)

1.1. Обновляем пакеты

sudo apt update
sudo apt upgrade -y

Просто приводим систему в свежий вид, чтобы избежать багов из-за старых пакетов.

1.2. Отключаем swap (обязательно для kubeadm)

На всех нодах:

sudo swapoff -a
sudo sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab

Проверка:

free -h

1.3. Модули ядра и sysctl (для сетки) На каждой ноде:

cat <<EOF | sudo tee /etc/modules-load.d/containerd.conf
overlay
br_netfilter
EOF

sudo modprobe overlay
sudo modprobe br_netfilter

Теперь sysctl:

cat <<EOF | sudo tee /etc/sysctl.d/kubernetes.conf net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 net.ipv4.ip_forward = 1 EOF

sudo sysctl --system

Это включает корректную обработку трафика через Linux bridge и форвардинг — обязательно для CNI (Calico).

1.4. (Для лаба) Отключить UFW

Если UFW включён и это чистый лаб:

sudo ufw disable

В проде, конечно, лучше открыть нужные порты, но для первой сборки проще без firewall.

2. Устанавливаем containerd (все ноды)

На каждой ноде:

sudo apt install -y containerd

Генерируем дефолтный конфиг:

sudo mkdir -p /etc/containerd sudo containerd config default | sudo tee /etc/containerd/config.toml > /dev/null

Рестарт и включение:

sudo systemctl restart containerd sudo systemctl enable containerd sudo systemctl status containerd

SystemdCgroup = true → kubelet и containerd используют один и тот же cgroup-драйвер (systemd). Это теперь “best practice”.

3. Устанавливаем kubeadm/kubelet/kubectl 1.34 (все ноды)

По официальным докам для v1.34:

3.1. Пакеты для репо

На каждой ноде:

sudo apt-get update
sudo apt-get install -y apt-transport-https ca-certificates curl gpg

3.2. GPG-ключ и репозиторий pkgs.k8s.io (v1.34) Ubuntu 22.04 уже имеет /etc/apt/keyrings, но если вдруг нет:

sudo mkdir -p -m 755 /etc/apt/keyrings

Ключ репозитория:

curl -fsSL https://pkgs.k8s.io/core:/stable:/v1.34/deb/Release.key \

 | sudo gpg --dearmor -o /etc/apt/keyrings/kubernetes-apt-keyring.gpg

Добавляем репо именно для Kubernetes 1.34:

echo "deb [signed-by=/etc/apt/keyrings/kubernetes-apt-keyring.gpg] https://pkgs.k8s.io/core:/stable:/v1.34/deb/ /" \

 | sudo tee /etc/apt/sources.list.d/kubernetes.list

3.3. Установка kubeadm/kubelet/kubectl

sudo apt-get update sudo apt-get install -y kubelet kubeadm kubectl sudo apt-mark hold kubelet kubeadm kubectl

Репозиторий v1.34 гарантирует, что ставится именно ветка 1.34.x. apt-mark hold не даст случайно обновиться до другой минорной версии при apt upgrade

(Не обязательно, но можно сразу включить kubelet, он будет крутиться и ждать kubeadm init / join):

sudo systemctl enable --now kubelet

5. Инициализация control-plane (только cp1)

Теперь на cp1 создаём кластер.

5.1. kubeadm init с pod-CIDR для Calico

Calico по умолчанию использует 192.168.0.0/16. Для удобства берём его же:

На cp1:

sudo kubeadm init \
  --apiserver-advertise-address=10.0.0.10 \
  --pod-network-cidr=192.168.0.0/16
  • --apiserver-advertise-address — IP cp1, по которому все будут ходить на API.
  • --pod-network-cidr — диапазон IP для pod’ов, который будет использовать Calico.

В конце kubeadm выдаст:

  • сообщение об успешной инициализации;
  • команду kubeadm join ... — обязательно скопируй её куда-нибудь (будем использовать на worker’ах).

5.2. Настраиваем kubectl для юзера sadmin (cp1)

Сейчас kubeconfig лежит в /etc/kubernetes/admin.conf и принадлежит root’у.

На cp1 под sadmin:

mkdir -p $HOME/.kube
sudo cp /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config

Проверка:

kubectl get nodes

Пока сеть не поднята, нода может быть NotReady — это нормально.

6. Устанавливаем Calico 3.31 (только cp1)

Берём свежий Calico 3.31.1 из официальной инструкции для on-prem.

6.1. Tigera Operator + CRD

На cp1:

kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.31.1/manifests/operator-crds.yaml
kubectl create -f https://raw.githubusercontent.com/projectcalico/calico/v3.31.1/manifests/tigera-operator.yaml

Это ставит оператор Calico, который потом сам раскатает нужные компоненты по нодам.

6.2. Конфигурация Calico (custom-resources)

По дефолту используем iptables-датаплейн (без eBPF, чтоб пока не усложнять).

На cp1:

curl -O https://raw.githubusercontent.com/projectcalico/calico/v3.31.1/manifests/custom-resources.yaml
kubectl create -f custom-resources.yaml

(Если хочешь eBPF в будущем — там же есть custom-resources-bpf.yaml.)

6.3. Проверяем, что Calico поднялся

На cp1:

watch kubectl get tigerastatus

Ждём, пока всё будет AVAILABLE=True:

NAME AVAILABLE PROGRESSING DEGRADED SINCE calico True False False ... ippools True False False ... ...

И смотрим pod’ы:

kubectl get pods -n calico-system kubectl get pods -n kube-system kubectl get nodes

cp1 должен перейти в статус Ready.

7. Делаем control-plane “чистым” (без workload-подов)

По умолчанию в 1.34 control-plane может принимать обычные поды (taint не ставится автоматически).

Тебе этого не нужно, поэтому сразу ставим taint:

На cp1:

kubectl taint nodes cp1 node-role.kubernetes.io/control-plane=:NoSchedule

Проверка:

kubectl describe node cp1 | grep -i Taint

Должно быть что-то типа:

Taints: node-role.kubernetes.io/control-plane:NoSchedule

Теперь scheduler НЕ будет ставить обычные pod’ы на cp1. Там останутся только системные компоненты (kube-apiserver, etcd, kube-controller-manager, scheduler, Calico DaemonSet и т.п.).

8. Подключаем worker1 и worker2

8.1. Получаем join-команду (если потерял)

Если не сохранил вывод kubeadm init, на cp1:

sudo kubeadm token create --print-join-command

Пример:

kubeadm join 10.0.0.10:6443 --token abcdef.0123456789abcdef \

 --discovery-token-ca-cert-hash sha256:xxxxxxxx...

8.2. Выполняем join на worker1 / worker2 На worker1:

sudo kubeadm join 10.0.0.10:6443 --token abcdef.0123456789abcdef \
  --discovery-token-ca-cert-hash sha256:xxxxxxxx...

На worker2:

sudo kubeadm join 10.0.0.10:6443 --token abcdef.0123456789abcdef \

 --discovery-token-ca-cert-hash sha256:xxxxxxxx...

Здесь используется токен и хеш CA, чтобы worker’ы безопасно присоединились к кластеру.

После этого на cp1:

kubectl get nodes

Ожидаемый результат:

NAME STATUS ROLES AGE VERSION cp1 Ready control-plane 20m v1.34.x worker1 Ready <none> 5m v1.34.x worker2 Ready <none> 3m v1.34.x

Если worker’ы какое-то время NotReady — подожди, пока на них подтянутся и стартанут kube-proxy + Calico.

9. Проверка: поды только на worker-нодах

Создадим тестовый deployment:

На cp1:

kubectl create deployment nginx --image=nginx --replicas=3
kubectl expose deployment nginx --port=80 --type=NodePort

Смотрим:

kubectl get pods -o wide

Все pod’ы nginx должны сидеть на worker1 и worker2, но не на cp1. Если вдруг увидишь под на cp1, значит taint не применился → ещё раз:

kubectl taint nodes cp1 node-role.kubernetes.io/control-plane=:NoSchedule --overwrite
kubectl rollout restart deploy nginx

1. Как удалить эти pod’ы (Deployment + Service)

Ты создал:

  • Deployment: nginx
  • Service: nginx

Чтобы удалить:

kubectl delete service nginx

Удалить Deployment:

kubectl delete deployment nginx

Проверяем:

kubectl get pods kubectl get svc

📌 Если хочешь удалить ВСЁ, что относится к nginx, одной командой:

kubectl delete deploy,svc nginx