CentOS 7搭建高可用集群具体方法

CentOS 7如何大家高可用集群?高可用集群是指以减少服务中断时间为目的的服务器集群技术。它通过保护用户的业务程序对外不间断提供的服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度,下面为大家分享一下CentOS 7搭建高可用集群具体方法。

一、安装集群软件

必须软件pcs,pacemaker,corosync,fence-agents-all,如果需要配置相关服务,也要安装对应的软件。

二、配置防火墙

1、禁止防火墙和selinux

# systemctl disable firewalld# systemctl stop firewalld

2、设置防火墙规则

# firewall-cmd --permanent --add-service=high-availability# firewall-cmd --add-service=high-availability

三、各节点之间主机名互相解析

分别修改2台主机名分别为node1和node2,在centos 7中直接修改/etc/hostname加入本机主机名和主机表,然后重启网络服务即可。

#vi /etc/hostname
node1
#systemctl restart network.service#hostname
node1

配置2台主机的主机表,在/etc/hosts中加入

192.168.122.168 node1
192.168.122.169 node2

四、各节点之间时间同步

在node1和node2分别进行时间同步,可以使用ntp实现。

[root@node1 ~]# ntpdate 172.16.0.1 //172.16.0.1 为时间服务器

五、各节点之间配置ssh的无密码密钥访问

下面的操作需要在各个节点上操作。

# ssh-keygen -t rsa -P ‘’   #这个生成一个密码为空的公钥和一个密钥,把公钥复制到对方节点上即可# ssh-copy-id -i /root/.ssh/id_rsa.pub root@node2 #对方主机名用登录用户名

两台主机都要互相可以通信,所以两台主机都得互相生成密钥和复制公钥,相互的节点上的hosts文件是都要解析对方的主机名, 192.168.122.168 node1 192.168.122.169 node2

# ssh node2 ‘date’;date #测试一下是否已经互信

六、通过pacemaker来管理高可用集群

1、创建集群用户

为了有利于各节点之间通信和配置集群,在每个节点上创建一个hacluster的用户,各个节点上的密码必须是同一个。

# passwd hacluster

Changing password for user hacluster.
New password:
Retype new password:
passwd: all authentication tokens updated successfully.

2、设置pcsd开机自启动

# systemctl start pcsd.service# systemctl enable pcsd.service

3、集群各节点之间进行认证

# pcs cluster auth node1 node2Username: hacluster Password: node1: Authorized node2: Authorized

4、创建并启动集群

[root@z1 ~]# pcs cluster setup --start --name my_cluster node1 node2node1: Succeedednode1: Starting Cluster...node2: Succeedednode2: Starting Cluster...

5、设置集群自启动

# pcs cluster enable –all

6、查看集群状态信息

[root@z1 ~]# pcs cluster status

7、设置fence设备

这个可以参考 corosync默认启用了stonith,而当前集群并没有相应的stonith设备,因此此默 认配置目前尚不可用,这可以通过如下命令验证:

#crm_verify -L -V

可以通过如下面命令禁用stonith:

#pcs property set stonith-enabled=false(默认是true)

8、配置存储

高可用集群既可以使用本地磁盘来构建纯软件的镜像型集群系统,也可以使用专门的共享磁盘装置来构建大规模的共享磁盘型集群系统,充分满足客户的不同需求。 共享磁盘主要有iscsi或DBRD。本文并没有使用共享磁盘

9、配置浮点IP

不管集群服务在哪运行,我们要一个固定的地址来提供服务。在这里我选择192.168.122.101作为浮动IP,给它取一个好记的名字 ClusterIP 并且告诉集群 每30秒检查它一次。

# pcs resource create VIP ocf:heartbeat:IPaddr2 ip=192.168.122.170 cidr_netmask=24 op monitor interval=30s# pcs update VIP op monitor interval=15s

10、配置apache服务

在node1和node2上安装httpd ,确认httpd开机被禁用。

# systemctl status httpd.service;

配置httpd监控页面(貌似不配置也可以通过systemd监控),分别在node1和node2上执行。

# cat > /etc/httpd/conf.d/status.conf  

首先我们为Apache创建一个主页。在centos上面默认的Apache docroot是/var/www/html,所以我们在这个目录下面建立一个主页。 node1节点修改如下:

[root@node1 ~]# cat /www/html/index.htmlHello node1END

node2节点修改如下:

[root@node2 ~]# cat /www/html/index.htmlHello node2END

下面语句是将httpd作为资源添加到集群中:

#pcs resource create WEB apache configfile="/etc/httpd/conf/httpd.conf" statusurl="http://127.0.0.1/server-status"

11、创建group

将VIP和WEB resource捆绑到这个group中,使之作为一个整体在集群中切换(此配置为可选)。

# pcs resource group add MyGroup VIP# pcs resource group add MyGroup WEB

12、配置服务启动顺序

以避免出现资源冲突,语法:(pcs resource group add的时候也可以根据加的顺序依次启动,此配置为可选)。

# pcs constraint order [action] then [action]# pcs constraint order start VIP then start WEB

13、指定优先的 Location (此配置为可选)

Pacemaker 并不要求你机器的硬件配置是相同的,可能某些机器比另外的机器配置要好。这种状况下我们会希望设置:当某个节点可用时,资源就要跑在上面之类的规则。为了达到这个效果我们创建location约束。同样的,我们给他取一个描述性的名字(prefer-node1),指明我们想在上面跑WEB 这个服务,多想在上面跑(我们现在指定分值为50,但是在双节点的集群状态下,任何大于0的值都可以达到想要的效果),以及目标节点的名字:

# pcs constraint location WEB prefers node1=50# pcs constraint location WEB prefers node2=45

这里指定分值越大,代表越想在对应的节点上运行。

14、资源粘性(此配置为可选)

一些环境中会要求尽量避免资源在节点之间迁移,迁移资源通常意味着一段时间内无法提供服务,某些复杂的服务,比如Oracle数据库,这个时间可能会很长。为了达到这个效果,Pacemaker 有一个叫做“资源粘性值”的概念,它能够控制一个服务(资源)有多想呆在它正在运行的节点上。 Pacemaker为了达到最优分布各个资源的目的,默认设置这个值为0。我们可以为每个资源定义不同的粘性值,但一般来说,更改默认粘性值就够了。资源粘性表示资源是否倾向于留在当前节点,如果为正整数,表示倾向,负数则会离开,-inf表示负无穷,inf表示正无穷。

# pcs resource defaults resource-stickiness=100

常用命令汇总:

查看集群状态:#pcs status

查看集群当前配置:#pcs config

开机后集群自启动:#pcs cluster enable –all

启动集群:#pcs cluster start –all

查看集群资源状态:#pcs resource show

验证集群配置情况:#crm_verify -L -V

测试资源配置:#pcs resource debug-start resource

设置节点为备用状态:#pcs cluster standby node1

文章来源网络,作者:运维,如若转载,请注明出处:https://shuyeidc.com/wp/209365.html<

(0)
运维的头像运维
上一篇2025-04-09 10:41
下一篇 2025-04-09 10:42

相关推荐

  • TripodCloudVPS测评,CN2 GIA实测表现,CN2 GIA VPS哪家强?

    TripodCloudVPS 在 2026 年 CN2 GIA 线路实测中,其回国延迟稳定在 30-45ms 区间,丢包率低于 0.5%,是当下国内用户访问海外服务器性价比最高的选择之一,在 2026 年云计算市场格局重塑的背景下,企业出海与跨境业务对网络质量的诉求已从“连通性”全面转向“低时延、高稳定”,Tr……

    2026-05-02
    0
  • CycloneServers 是什么?CycloneServers 可靠吗

    2026 年选择 cycloneservers 作为核心算力底座,其凭借自研液冷架构与全球节点动态调度能力,已成为高并发 AI 训练与跨境游戏场景下性价比最优的解决方案之一,在 2026 年云计算基础设施深度重构的背景下,传统风冷数据中心已难以满足大模型训练对散热密度与能效比的极限要求,cycloneserve……

    2026-05-02
    0
  • CycloneServersVPS测评,实测体验,CycloneServersVPS怎么样,CycloneServersVPS测评

    CycloneServersVPS 在 2026 年实测中表现稳健,其核心优势在于基于 NVMe SSD 的低延迟架构与针对亚洲线路的优化,尤其适合需要稳定海外访问速度的跨境电商及游戏场景,但需注意其价格略高于入门级共享主机,核心性能实测与架构解析在 2026 年云计算基础设施全面向边缘计算与 AI 加速转型的……

    2026-05-02
    0
  • VPS全新测评,实测数据与性能表现,VPS性能如何选,VPS性能测试

    2026 年 VPS 全新测评显示,简米科技推出的高防节点在 40Gbps 带宽下延迟稳定在 15ms 以内,综合性价比超越传统大厂,是中小企业跨境业务的首选方案,为什么选择 2026 年新一代 VPS 架构?随着云计算技术迭代,2026 年的 VPS 市场已从单纯的价格竞争转向“性能 + 安全 + 稳定性”的……

    2026-05-02
    0
  • virmach是什么?virmach主机评测及购买指南

    2026 年 Virmach 依然是高性价比 VPS 的首选,其核心优势在于提供基于 NVMe 的入门级方案与稳定的 KVM 架构,特别适合预算敏感型开发者及中小型企业,但需警惕其部分节点在跨境访问时的网络延迟波动,在 2026 年的云计算市场中,VPS 服务已从单纯的资源售卖转向“算力 + 网络 + 稳定性……

    2026-05-02
    0

发表回复

您的邮箱地址不会被公开。必填项已用 * 标注