
什么是脑裂?
裂脑通常用于描述集群中的两个或多个节点彼此失去连接但随后继续彼此独立运行(包括获取逻辑或物理资源)的场景,错误假设其他进程(es ) 不再运作或使用上述资源。简单来说,“大脑分裂”意味着有 2 个或更多不同的节点集或“队列”,两个队列之间没有通信。
例如:假设在以下情况下有 3 个节点。1. 节点 1,2 可以相互通信。2. 但是 1 和 2 不能和 3 对话,反之亦然。然后有两个同类群组:{1, 2} 和 {3}。
脑裂发生的原因
脑裂事件后的最大风险是破坏系统状态的可能性。损坏的三个典型原因:1. 在发生裂脑事件之前曾经合作的进程独立地修改相同的逻辑共享状态,从而导致系统状态视图发生冲突。这通常被称为“多主机问题”。2. 在Split-Brain 事件之后接受新请求,然后在可能损坏的系统状态上执行(因此可能进一步损坏系统状态)。3. 当分布式系统的进程“重新加入”在一起时,它们可能对系统状态或资源所有权有冲突的看法。在解决冲突的过程中,信息可能会丢失或损坏。
简单来说,在脑裂的情况下,从某种意义上说,有两个(或更多)独立的集群在同一个共享存储上工作。这有可能导致数据损坏。
集群件如何解决“脑裂”的情况?
在脑裂的情况下,投票磁盘将用于确定哪些节点存活以及哪些节点将被驱逐。共同投票结果将是:
- 具有更多集群节点的组(队列)存活
- 如果每个组中可用的节点数量相同,则具有较低节点成员的组(队列)将存活。
- 已经进行了一些改进,以确保负载较低的节点在系统负载高引起驱逐的情况下仍然存在。
通常,当发生裂脑时,会在 ocssd.log 中看到类似以下的消息:
[ CSSD]2011-01-1223:23:08.090 [1262557536] >TRACE: clssnmCheckDskInfo: Checkingdiskinfo...
[ CSSD]2015-01-1223:23:08.090 [1262557536] >ERROR: clssnmCheckDskInfo: Abortinglocalnodetoavoidsplitbrain.
[ CSSD]2015-01-1223:23:08.090 [1262557536] >ERROR: : mynode(2), Leader(2), Size(1) VSNode(1), Leader(1), Size(2)
[ CSSD]2015-01-1223:23:08.090 [1262557536] >ERROR:
###################################
[ CSSD]2015-01-1223:23:08.090 [1262557536] >ERROR: clssscExit: CSSDaborting
###################################
以上消息表明从节点 2 到节点 1 的通信不工作,因此节点 2 只能看到 1 个节点,但节点 1 工作正常,它可以看到集群中的两个节点。为避免脑裂,节点 2 自行中止。
为确保数据一致性,RAC 数据库的每个实例都需要与其他实例保持心跳。心跳由 LMON、LMD、LMS 和 LCK 等后台进程维护。这些进程中的任何一个遇到 IPC 发送超时都会导致通信重新配置和实例驱逐以避免脑裂。控制文件与集群件层中的投票磁盘类似,用于确定哪些实例存活以及哪些实例驱逐。投票结果类似于集群件投票结果。结果,将驱逐 1 个或多个实例。
实例警报日志中的常见消息类似于:
alertlogofinstance1:
---------
MonDec0719:43:052011
IPCSendtimeoutdetected.Sender: ospid26318
Receiver: inst2binc554466600ospid29940
IPCSendtimeoutto2.0inc8formsgtype65521fromopid20
MonDec0719:43:072011
Communicationsreconfiguration: instance_number2
MonDec0719:43:072011
Tracedumpingisperformingid=[cdmp_20091207194307]
Waitingforclusterwaresplit-brainresolution
MonDec0719:53:072011
Evictinginstance2fromcluster
Waitingforinstancestoleave:
2
...
alertlogofinstance2:
---------
MonDec0719:42:182011
IPCSendtimeoutdetected. Receiverospid29940
MonDec0719:42:182011
Errorsinfile
/u01/app/oracle/diag/rdbms/bd/BD2/trace/BD2_lmd0_29940.trc:
Tracedumpingisperformingid=[cdmp_20091207194307]
MonDec0719:42:202011
Waitingforclusterwaresplit-brainresolution
MonDec0719:44:452011
ERROR: LMS0 (ospid: 29942) detectsanidleconnectiontoinstance1
MonDec0719:44:512011
ERROR: LMD0 (ospid: 29940) detectsanidleconnectiontoinstance1
MonDec0719:45:382011
ERROR: LMS1 (ospid: 29954) detectsanidleconnectiontoinstance1
MonDec0719:52:272011
Errorsinfile
/u01/app/oracle/diag/rdbms/bd/BD2/trace/PVBD2_lmon_29938.trc
(incident=90153):
ORA-29740: evictedbymember0, groupincarnation10
Incidentdetailsin:
/u01/app/oracle/diag/rdbms/bd/BD2/incident/incdir_90153/BD2_lmon_29938_i90153.trc
在上面的示例中,实例 2 LMD0 (pid 29940) 是 IPC 发送超时的接收方。
文章来源网络,作者:运维,如若转载,请注明出处:https://shuyeidc.com/wp/228030.html<