fence_death_상황을_방지하기_위한_2노드_클러스터_설정

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

다음 판
이전 판
fence_death_상황을_방지하기_위한_2노드_클러스터_설정 [2019/01/23 10:42] – 만듦 koovfence_death_상황을_방지하기_위한_2노드_클러스터_설정 [2024/01/18 07:56] (현재) – [RHEL6, RHEL7, RHEL8 pacemaker] koov
줄 7: 줄 7:
 이런경우 어느 한쪽의 fence 동작을 몇초정도 딜레이 시킴으로서 해결이 가능하다. 이런경우 어느 한쪽의 fence 동작을 몇초정도 딜레이 시킴으로서 해결이 가능하다.
  
-2노드인경우 한쪽노드의 fencedevice 설정에 ''delay=5'' 설정을 넣어주면 해결된다.+===== RHEL6, RHEL7, RHEL8 pacemaker ===== 
 + 
 +한쪽 노드의 STONITH 장치의 delay값을 설정한다. 
 + 
 +<WRAP prewrap> 
 +<code vim> 
 +# pcs stonith create <name> <agent> [options] delay=<seconds> 
 +# Example: 
 +$ pcs stonith create node1-fence fence_ipmilan ipaddr=node1-ilo.example.com login=fenceuser passwd=S3cur3p455&! pcmk_host_list="node1.example.com" delay=5 
 +$ pcs stonith create node2-fence fence_ipmilan ipaddr=node2-ilo.example.com login=fenceuser passwd=S3cur3p455&! pcmk_host_list="node2.example.com" 
 +</code> 
 +</WRAP> 
 + 
 +===== RHEL5 ,RHEL6 cman ===== 
 + 
 +한쪽노드의 fencedevice 설정에 ''delay=5'' 설정을 넣어주면 해결된다.
  
 1. 아래는 클러스터 노드의 펜싱 설정에서 delay설정을 하는방법 1. 아래는 클러스터 노드의 펜싱 설정에서 delay설정을 하는방법
줄 35: 줄 50:
 </WRAP> </WRAP>
 둘중 어느 한 방법을 사용하기만 하면 된다. 둘중 어느 한 방법을 사용하기만 하면 된다.
 +
 +===== pacemaker 2 node 클러스터 설정 =====
 +클러스터에 노드가 2개뿐인경우 ''/etc/corosync/corosync.conf''의 ''quorum'' 섹션에서 ''two_node''및 ''wait_for_all''옵션이 활성화되어 있는지 확인합니다
 +
 +<WRAP center round info 60%>
 +만약 ''two_node''가 활성화 되어있고 ''wait_for_all''이 설정되어있지 않은경우 ''wait_for_all''은 자동으로 활성화 됩니다. ''wait_for_all''을 지정하는경우 지정된 값이 적용됩니다.
 +</WRAP>
 +
 +<WRAP prewrap>
 +<code vim /etc/corosync/corosync.conf>
 +# # wait_for_all is enabled implicitly because two_node is enabled
 +# # two_node가 활성화 되어있으므로 wait_for_all은 자동으로 활성화 됩니다.
 +quorum {
 +    provider: corosync_votequorum
 +    two_node: 1
 +}
 +
 +# # wait_for_all is enabled explicitly
 +# # wait_for_all 을 명시적으로 활성화 합니다.
 +quorum {
 +    provider: corosync_votequorum
 +    two_node: 1
 +    wait_for_all: 1
 +}
 +
 +# # wait_for_all is disabled because two_node is not enabled
 +# # two_node가 활성화되어있지 않으므로 wait_for_all 도 자동으로 비활성화 됩니다.
 +# # wait_for_all is not set explicitly so it defaults to 0 here
 +# # wait_for_all이 명시적으로 선언되어있지 않으므로 기본값은 비활성입니다.
 +quorum {
 +    provider: corosync_votequorum
 +}
 +
 +# # wait_for_all is disabled explicitly
 +# # wait_for_all 을 명시적으로 비활성화 합니다.
 +quorum {
 +    provider: corosync_votequorum
 +    two_node: 1
 +    wait_for_all: 0
 +}
 +</code>
 +</WRAP>
 +
 +위의 내용을 적용하고 클러스터 설정을 동기화 합니다.
 +
 +<WRAP prewrap>
 +<code bash>
 +$ pcs cluster sync
 +</code>
 +</WRAP>
 +
 +모든 노드의 클러스터 서비스를 재기동 합니다. 아무 노드에서나 한군데서 실행하면 양쪽 다 반영됩니다.
 +
 +<WRAP prewrap>
 +<code bash>
 +$ pcs cluster stop --all
 +$ pcs cluster start --all
 +</code>
 +</WRAP>
 +
  
 ===== 참조링크 ===== ===== 참조링크 =====
   * https://access.redhat.com/solutions/54829   * https://access.redhat.com/solutions/54829
 +  * https://access.redhat.com/solutions/3565071
 +  * https://access.redhat.com/solutions/1294873
  
  • fence_death_상황을_방지하기_위한_2노드_클러스터_설정.1548240177.txt.gz
  • 마지막으로 수정됨: 2019/01/23 10:42
  • 저자 koov