fence_death_상황을_방지하기_위한_2노드_클러스터_설정

차이

문서의 선택한 두 판 사이의 차이를 보여줍니다.

차이 보기로 링크

양쪽 이전 판 이전 판
다음 판
이전 판
fence_death_상황을_방지하기_위한_2노드_클러스터_설정 [2019/04/10 05:57] koovfence_death_상황을_방지하기_위한_2노드_클러스터_설정 [2024/01/18 07:56] (현재) – [RHEL6, RHEL7, RHEL8 pacemaker] koov
줄 13: 줄 13:
 <WRAP prewrap> <WRAP prewrap>
 <code vim> <code vim>
-# pcs stonith create <name> <agent> [options] delay=<seconds> +# pcs stonith create <name> <agent> [options] delay=<seconds> 
-# Example: +# Example: 
-pcs stonith create node1-fence fence_ipmilan ipaddr=node1-ilo.example.com login=fenceuser passwd=S3cur3p455&! pcmk_host_list="node1.example.com" delay=5 +pcs stonith create node1-fence fence_ipmilan ipaddr=node1-ilo.example.com login=fenceuser passwd=S3cur3p455&! pcmk_host_list="node1.example.com" delay=5 
-pcs stonith create node2-fence fence_ipmilan ipaddr=node2-ilo.example.com login=fenceuser passwd=S3cur3p455&! pcmk_host_list="node2.example.com"+pcs stonith create node2-fence fence_ipmilan ipaddr=node2-ilo.example.com login=fenceuser passwd=S3cur3p455&! pcmk_host_list="node2.example.com"
 </code> </code>
 </WRAP> </WRAP>
줄 50: 줄 50:
 </WRAP> </WRAP>
 둘중 어느 한 방법을 사용하기만 하면 된다. 둘중 어느 한 방법을 사용하기만 하면 된다.
 +
 +===== pacemaker 2 node 클러스터 설정 =====
 +클러스터에 노드가 2개뿐인경우 ''/etc/corosync/corosync.conf''의 ''quorum'' 섹션에서 ''two_node''및 ''wait_for_all''옵션이 활성화되어 있는지 확인합니다
 +
 +<WRAP center round info 60%>
 +만약 ''two_node''가 활성화 되어있고 ''wait_for_all''이 설정되어있지 않은경우 ''wait_for_all''은 자동으로 활성화 됩니다. ''wait_for_all''을 지정하는경우 지정된 값이 적용됩니다.
 +</WRAP>
 +
 +<WRAP prewrap>
 +<code vim /etc/corosync/corosync.conf>
 +# # wait_for_all is enabled implicitly because two_node is enabled
 +# # two_node가 활성화 되어있으므로 wait_for_all은 자동으로 활성화 됩니다.
 +quorum {
 +    provider: corosync_votequorum
 +    two_node: 1
 +}
 +
 +# # wait_for_all is enabled explicitly
 +# # wait_for_all 을 명시적으로 활성화 합니다.
 +quorum {
 +    provider: corosync_votequorum
 +    two_node: 1
 +    wait_for_all: 1
 +}
 +
 +# # wait_for_all is disabled because two_node is not enabled
 +# # two_node가 활성화되어있지 않으므로 wait_for_all 도 자동으로 비활성화 됩니다.
 +# # wait_for_all is not set explicitly so it defaults to 0 here
 +# # wait_for_all이 명시적으로 선언되어있지 않으므로 기본값은 비활성입니다.
 +quorum {
 +    provider: corosync_votequorum
 +}
 +
 +# # wait_for_all is disabled explicitly
 +# # wait_for_all 을 명시적으로 비활성화 합니다.
 +quorum {
 +    provider: corosync_votequorum
 +    two_node: 1
 +    wait_for_all: 0
 +}
 +</code>
 +</WRAP>
 +
 +위의 내용을 적용하고 클러스터 설정을 동기화 합니다.
 +
 +<WRAP prewrap>
 +<code bash>
 +$ pcs cluster sync
 +</code>
 +</WRAP>
 +
 +모든 노드의 클러스터 서비스를 재기동 합니다. 아무 노드에서나 한군데서 실행하면 양쪽 다 반영됩니다.
 +
 +<WRAP prewrap>
 +<code bash>
 +$ pcs cluster stop --all
 +$ pcs cluster start --all
 +</code>
 +</WRAP>
 +
  
 ===== 참조링크 ===== ===== 참조링크 =====
   * https://access.redhat.com/solutions/54829   * https://access.redhat.com/solutions/54829
   * https://access.redhat.com/solutions/3565071   * https://access.redhat.com/solutions/3565071
 +  * https://access.redhat.com/solutions/1294873
  
  • fence_death_상황을_방지하기_위한_2노드_클러스터_설정.1554875877.txt.gz
  • 마지막으로 수정됨: 2019/04/10 05:57
  • 저자 koov