ceph

Ceph

Ceph 스토리지는 일년에 2번의 버전업이 이루어집니다. 각 버전의 코드명은 알파벳 A-Z 순으로 명명됩니다.(안드로이드와 비슷)
LTS(Long Term Support) 버전은 매 2회마다 지정됩니다. Infernalis 버전 이후로 마이너 버전의 규칙도 생겼습니다.
마이너 버전이 0 이면 개발버전이며 1인경우 RC(Release Candidate) 이고 2버전이 안정 배포 버전입니다.

Release code name Version LTS Release date Retirement date
Argonaut 0.48.x July 2012 retired
Bobtail 0.56.x January 2013 retired
Cuttlefish 0.61.x May 2013 retired
Dumpling 0.67.x Yes August 2013 May 2015
Emperor 0.72.x November 2013 May 2014
Firefly 0.80.x Yes May 2014 December 2015
Giant 0.87.x October 2014 May 2015
Hammer 0.94.x Yes April 2015 August 2017
Infernalis 9.2.x November 2015 April 2016
Jewel 10.2.x Yes April 2016 June 2018
Kraken 11.2.x January 2017 August 2017
Luminous 12.2.13 Yes August 2017
Mimic 13.2.10 2018-03-01 2020-06-01
Nautilus 14.2.14 2019-03-01 2021-06-01
Octopus 15.2.7 2020-03-01 2022-06-01

※ 오픈소스 커뮤니티 버전 Ceph는 Luminous 버전 이후부터 LTS 개념이 없어지고 모든 버전은 2년간 지원됩니다.

Redhat의 Ceph Storage 제품 버전은 Ceph 커뮤니티 버전중 LTS 버전을 기반으로 구성됩니다.

Release Upstream code name Upstream version General Availability End of Life ELS add-on
Inktank Ceph Enterprise 1.1 Dumpling 0.67.x 2014-02-04 2015-07-31 N/A
Red Hat Ceph Storage 1.2 Firefly 0.80.x 2014-07-16 2016-05-31 N/A
Red Hat Ceph Storage 1.3 Hammer 0.94.x 2015-06-25 2018-06-30 on request
Red Hat Ceph Storage 2 Jewel 10.2.x 2016-08-25 2019-11-16 2021-12-17
Red Hat Ceph Storage 3 Luminous 12.2.x 2017-12-05 2021-02-28 2023-06-27
Red Hat Ceph Storage 4 Nautilus 14.2.x 2020-01-31 2023-01-31 2025-04-30

※ RedHat 버전 Ceph는 모두 3년 제품지원 + 2년 ELS 추가 지원됩니다.

참조링크

운영환경 구축을 위한 하드웨어 성능 최소 요구사항

Hardware ceph-osd ceph-mon ceph-radosgw ceph-mds
Processor 1x AMD64 or Intel 64 1x AMD64 or Intel 64 1x AMD64 or Intel 64 1x AMD64 or Intel 64
RAM 16 GB for the host, plus an additional 2 GB of RAM per OSD daemon 1 GB per daemon 1 GB per daemon 1 GB per daemon (but depends heavily on configured MDS cache size)
Disk One storage device per OSD daemon, separate from the system disk 10 GB per daemon 5 GB per daemon 1 MB per daemon, plus space for log files (varies)
Network 2x Gigabit Ethernet NICs 2x Gigabit Ethernet NICs 2x Gigabit Ethernet NICs 2x Gigabit Ethernet NICs

호스트당 OSD디스크를 적절하게 설계하여야 합니다. 호스트당 OSD디스크가 과도하게 많은경우 리밸런싱 시에 많은 트래픽을 발생할 수 있습니다. 호스트당 OSD디스크가 적은경우 많은 데이터가 여러 호스트에 분산되어 저장됩니다. 이런경우 부하 분산효과를 볼 수 있습니다.

네트워크 권장사항

네트워크 대역폭은 기본적으로 기가비트 이더넷을 사용해야 하며 가급적 10기가비트 네트워크를 권장합니다.
10기가비트 네트워크는 호스트당 12개의 OSD디스크를 사용하는것을 권장합니다. (12개 OSD당 10G, 48개 OSD = 40G 권장)

  • Monitor node 최소 3개 이상
  • OSD node 최소 3개 이상
  • MGR node 최소 2개 이상
  • 복재본 수 만큼의 OSD Disk (3copy replication인 경우 3개 이상)
  • MDS node 최소 2개 이상 (CephFS 사용시)
  • RADOSGW 최소 2개 이상 (Object Gateway 사용시)
  • Ceph Storage Admin node(배포서버. 옵션사항)
로그인하면 댓글을 남길 수 있습니다.
  • ceph.txt
  • 마지막으로 수정됨: 2021/09/15 06:16
  • 저자 koov