$ ceph health detail HEALTH_ERR 7 pgs degraded; 12 pgs down; 12 pgs peering; 1 pgs recovering; 6 pgs stuck unclean; 114/3300 degraded (3.455%); 1/3 in osds are down … pg 0.5 is down+peering pg 1.4 is down+peering … osd.1 is down since epoch 69, last address 192.168.106.220:6801/8651
위중 pg 0.5
다운이된 것을 정확하게 알기 위해 다음을 실행.
$ ceph pg 0.5 query { "state": "down+peering", … "recovery_state":[ { "name": "Started\/Primary\/Peering\/GetInfo", "enter_time": "2012-03-06 14:40:16.169679", "requested_info_from": [] }, { "name": "Started\/Primary\/Peering", "enter_time": "2012-03-06 14:40:16.169659", "probing_osds": [0,1], "blocked": "peering is blocked due to down osds", "down_osds_we_would_probe": [1], "peering_blocked_by": [ { "osd": 1, "current_lost_at": 0, "comment": "starting or marking this osd lost may let us proceed" }] }, { "name": "Started", "enter_time": "2012-03-06 14:40:16.169513" }] }
위의 출력은 recovery_state
에서 보는 바와 같다.
recovery_state
섹션은 다운 ceph-osd
데몬, 특히 osd.1
로 인해 피어링이 차단되었음을 알 수 있다.
이 경우 ceph-osd
를 시작하면, 모든 것이 복구된다.
만약 osd.1
디스크 오류를 알리는 경우라면, 그에 따른 대응을 해야 한다.
osd.1
을 계속 사용하려면
$ ceph osd lost 1 #복구가 진행 될 것이다.