OpenShift 在线部署04:扩容节点

最近准备做 OpenShift ODF 的实验,前期规划的 worker 节点只有两个,Ceph 集群最少需要三个副本,如果跑在 master 节点上的话,负载较高,也不推荐。
比较稳妥的做法就是再创建一个 worker 节点出来。

节点资源规划

与前面的 worker 节点一样,节点信息和规格如下:

属性
Hostnameworker03
IP172.25.1.23
DNS nameworker03.ocp4.ocp.icu
OSRHCOS
CPU8
RAM16G
DISK120GB

基础架构配置

需要配置新增节点的正向和反向解析。
正向解析:

root@support ~]# cat /var/named/ocp4.ocp.icu.zone
$ORIGIN ocp4.ocp.icu.
$TTL 1D
@       IN SOA ocp4.ocp.icu. admin.ocp4.ocp.icu. (
                0       ;serial
                1D      ;refresh
                1H      ;retry
                1W      ;expire
                3H )     ;minimum

@       IN      NS      dns.ocp.icu.
api     IN      A       172.25.1.10
api-int IN      A       172.25.1.10
*.apps  IN      A       172.25.1.10

bootstrap        IN      A       172.25.1.20
master01        IN      A       172.25.1.11
master02        IN      A       172.25.1.12
master03        IN      A       172.25.1.13
worker01        IN      A       172.25.1.21
worker02        IN      A       172.25.1.22
worker03        IN      A       172.25.1.23

反向解析:

[root@support ~]# cat /var/named/25.172.in-addr.arpa.zone 
$TTL 1D
@       IN SOA ocp.icu. admin.ocp.icu. (
                0       ;serial
                1D      ;refresh
                1H      ;retry
                1W      ;expire
                3H )     ;minimum

@       IN      NS      dns.ocp.icu.
10.1.25.172.in-addr.arpa. IN PTR support.ocp.icu.
10.1.25.172.in-addr.arpa. IN PTR dns.ocp.icu.
10.1.25.172.in-addr.arpa. IN PTR api.ocp4.ocp.icu.
10.1.25.172.in-addr.arpa. IN PTR api-int.ocp4.ocp.icu.


20.1.25.172.in-addr.arpa. IN PTR bootstrap.ocp4.ocp.icu.
11.1.25.172.in-addr.arpa. IN PTR master01.ocp4.ocp.icu.
12.1.25.172.in-addr.arpa. IN PTR master02.ocp4.ocp.icu.
13.1.25.172.in-addr.arpa. IN PTR master03.ocp4.ocp.icu.
21.1.25.172.in-addr.arpa. IN PTR worker01.ocp4.ocp.icu.
22.1.25.172.in-addr.arpa. IN PTR worker02.ocp4.ocp.icu.
23.1.25.172.in-addr.arpa. IN PTR worker03.ocp4.ocp.icu.

重启 BIND 服务:

[root@support ~]# systemctl enable --now named

如果 worker3 不运行 ingress ,haproxy 不需要更改,如果需要运行 ingress ,需要在 haproxy 的 ingress-route-80ingress-route-443 的后端添加 worker3 的地址。

引导节点

在 support 节点中,新增 /var/www/html/ign/set-worker03 的配置文件,内容如下:

[root@support ~]# cat ocp4/ign/set-worker02
nmcli connection modify "Wired connection 1" ipv4.address 172.25.1.23/24
nmcli connection modify "Wired connection 1" ipv4.dns 172.25.1.10
nmcli connection modify "Wired connection 1" ipv4.gateway 172.25.1.254
nmcli connection modify "Wired connection 1" ipv4.method manual
nmcli connection down "Wired connection 1"
nmcli connection up "Wired connection 1"

sudo coreos-installer install /dev/sda --insecure-ignition --ignition-url=http://support.ocp.icu:8080/ign/worker.ign --copy-network

随后根据配置表创建 worker03 虚拟机,开机之后执行:

curl -O http://172.25.1.10:8080/ign/set-worker03
source set-worker03
reboot

随后 worker03 会自动重启,同时需要在集群中对 csr 进行 approve:

oc get csr
#找到处于 Pending 状态的 csr 进行 Approve,会有多个等待 Approve 的 csr
oc adm certificate approve <csr_name>

验证集群

通过 oc get nodes 查看集群节点,发现 worker03 已经处于 ready 状态:

[root@support ~]# oc get nodes
NAME                      STATUS   ROLES                  AGE    VERSION
master01.ocp4.ocp.icu   Ready    control-plane,master   136m   v1.26.6+f245ced
master02.ocp4.ocp.icu   Ready    control-plane,master   175m   v1.26.6+f245ced
master03.ocp4.ocp.icu   Ready    control-plane,master   175m   v1.26.6+f245ced
worker01.ocp4.ocp.icu   Ready    worker                 136m   v1.26.6+f245ced
worker02.ocp4.ocp.icu   Ready    worker                 136m   v1.26.6+f245ced
worker03.ocp4.ocp.icu   Ready    worker                 136m   v1.26.6+f245ced

发表评论

您的电子邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部