Ceph
Upstream Release Cadence
Ceph 스토리지는 일년에 2번의 버전업이 이루어집니다. 각 버전의 코드명은 알파벳 A-Z 순으로 명명됩니다.(안드로이드와 비슷)
LTS(Long Term Support) 버전은 매 2회마다 지정됩니다. Infernalis
버전 이후로 마이너 버전의 규칙도 생겼습니다.
마이너 버전이 0
이면 개발버전이며 1
인경우 RC(Release Candidate) 이고 2
버전이 안정 배포 버전입니다.
Upstream Ceph Versions
Release code name | Version | LTS | Release date | Retirement date |
---|---|---|---|---|
Argonaut | 0.48.x | July 2012 | retired | |
Bobtail | 0.56.x | January 2013 | retired | |
Cuttlefish | 0.61.x | May 2013 | retired | |
Dumpling | 0.67.x | Yes | August 2013 | May 2015 |
Emperor | 0.72.x | November 2013 | May 2014 | |
Firefly | 0.80.x | Yes | May 2014 | December 2015 |
Giant | 0.87.x | October 2014 | May 2015 | |
Hammer | 0.94.x | Yes | April 2015 | August 2017 |
Infernalis | 9.2.x | November 2015 | April 2016 | |
Jewel | 10.2.x | Yes | April 2016 | June 2018 |
Kraken | 11.2.x | January 2017 | August 2017 | |
Luminous | 12.2.13 | Yes | August 2017 | |
Mimic | 13.2.10 | ※ | 2018-03-01 | 2020-06-01 |
Nautilus | 14.2.14 | ※ | 2019-03-01 | 2021-06-01 |
Octopus | 15.2.7 | ※ | 2020-03-01 | 2022-06-01 |
※ 오픈소스 커뮤니티 버전 Ceph는 Luminous
버전 이후부터 LTS
개념이 없어지고 모든 버전은 2년간
지원됩니다.
Redhat Ceph Storage Version
Redhat의 Ceph Storage 제품 버전은 Ceph 커뮤니티 버전중 LTS 버전을 기반으로 구성됩니다.
Release | Upstream code name | Upstream version | General Availability | End of Life | ELS add-on |
---|---|---|---|---|---|
Inktank Ceph Enterprise 1.1 | Dumpling | 0.67.x | 2014-02-04 | 2015-07-31 | N/A |
Red Hat Ceph Storage 1.2 | Firefly | 0.80.x | 2014-07-16 | 2016-05-31 | N/A |
Red Hat Ceph Storage 1.3 | Hammer | 0.94.x | 2015-06-25 | 2018-06-30 | on request |
Red Hat Ceph Storage 2 | Jewel | 10.2.x | 2016-08-25 | 2019-11-16 | 2021-12-17 |
Red Hat Ceph Storage 3 | Luminous | 12.2.x | 2017-12-05 | 2021-02-28 | 2023-06-27 |
Red Hat Ceph Storage 4 | Nautilus | 14.2.x | 2020-01-31 | 2023-01-31 | 2025-04-30 |
※ RedHat 버전 Ceph는 모두 3년
제품지원 + 2년
ELS 추가 지원됩니다.
참조링크
하드웨어 요구사항
운영환경 구축을 위한 하드웨어 성능 최소 요구사항
Hardware | ceph-osd | ceph-mon | ceph-radosgw | ceph-mds |
---|---|---|---|---|
Processor | 1x AMD64 or Intel 64 | 1x AMD64 or Intel 64 | 1x AMD64 or Intel 64 | 1x AMD64 or Intel 64 |
RAM | 16 GB for the host, plus an additional 2 GB of RAM per OSD daemon | 1 GB per daemon | 1 GB per daemon | 1 GB per daemon (but depends heavily on configured MDS cache size) |
Disk | One storage device per OSD daemon, separate from the system disk | 10 GB per daemon | 5 GB per daemon | 1 MB per daemon, plus space for log files (varies) |
Network | 2x Gigabit Ethernet NICs | 2x Gigabit Ethernet NICs | 2x Gigabit Ethernet NICs | 2x Gigabit Ethernet NICs |
호스트당 OSD디스크를 적절하게 설계하여야 합니다. 호스트당 OSD디스크가 과도하게 많은경우 리밸런싱 시에 많은 트래픽을 발생할 수 있습니다. 호스트당 OSD디스크가 적은경우 많은 데이터가 여러 호스트에 분산되어 저장됩니다. 이런경우 부하 분산효과를 볼 수 있습니다.
네트워크 권장사항
네트워크 대역폭은 기본적으로 기가비트 이더넷을 사용해야 하며 가급적 10기가비트 네트워크를 권장합니다.
10기가비트 네트워크는 호스트당 12개의 OSD디스크를 사용하는것을 권장합니다. (12개 OSD당 10G, 48개 OSD = 40G 권장)
Redhat Ceph Storage 배포 권장사항
- Monitor node 최소 3개 이상
- OSD node 최소 3개 이상
- MGR node 최소 2개 이상
- 복재본 수 만큼의 OSD Disk (3copy replication인 경우 3개 이상)
- MDS node 최소 2개 이상 (CephFS 사용시)
- RADOSGW 최소 2개 이상 (Object Gateway 사용시)
- Ceph Storage Admin node(배포서버. 옵션사항)