З'явилася необхідність побудувати кластер Kubernetes з високою доступністю. В цьому випадку я вирішив зафіксувати весь процес побудови та залишити записи про це. У цьому розділі я спочатку опишу, як я планую здійснити побудову. Оскільки кількість серверів обмежена, я буду використовувати всього 7 машин для побудови кластера. Ідеальна кількість вузлів для такого кластера — це зазвичай 3 вузли для etcd, 3 для control-plane, 2 для loadbalancer, що разом дає 8 вузлів. До цього потрібно додати worker вузли та клієнт для управління кластером, що реалізує zero touch, і це буде 9 + α. У цій статті я приєднаю 4 worker вузли до кластера.
Всього буде 3 вузли для etcd:
- 192.168.1.241
- 192.168.1.39
- 192.168.1.141
Всього буде 3 вузли для control-plane:
- 192.168.1.241
- 192.168.1.39
- 192.168.1.141
Всього буде 2 вузли для loadbalancer:
- 192.168.1.241
- 192.168.1.39
Всього буде 4 вузли для worker:
- 192.168.1.113
- 192.168.1.137
- 192.168.1.89
- 192.168.1.105
Ось як виглядає конфігурація control-plane для цього кластера.
Нижче наведена схема ідеальної конфігурації control-plane для кластера.
Ось версії сервісів, необхідні для побудови.
Перекладено з: External Etcd K8s cluster with Systemd - 1