문서의 이전 판입니다!
Ceph
Upstream Release Cadence
Ceph 스토리지는 일년에 2번의 버전업이 이루어집니다. 각 버전의 코드명은 알파벳 A-Z 순으로 명명됩니다.(안드로이드와 비슷)
LTS(Long Term Support) 버전은 매 2회마다 지정됩니다. Infernalis
버전 이후로 마이너 버전의 규칙도 생겼습니다.
마이너 버전이 0
이면 개발버전이며 1
인경우 RC(Release Candidate) 이고 2
버전이 안정 배포 버전입니다.
Upstream Ceph Versions
Release code name | Version | LTS | Release date | Retirement date |
---|---|---|---|---|
Argonaut | 0.48.x | July 2012 | retired | |
Bobtail | 0.56.x | January 2013 | retired | |
Cuttlefish | 0.61.x | May 2013 | retired | |
Dumpling | 0.67.x | Yes | August 2013 | May 2015 |
Emperor | 0.72.x | November 2013 | May 2014 | |
Firefly | 0.80.x | Yes | May 2014 | December 2015 |
Giant | 0.87.x | October 2014 | May 2015 | |
Hammer | 0.94.x | Yes | April 2015 | August 2017 |
Infernalis | 9.2.x | November 2015 | April 2016 | |
Jewel | 10.2.x | Yes | April 2016 | June 2018 |
Kraken | 11.2.x | January 2017 | August 2017 | |
Luminous | 12.2.x | Yes | August 2017 | |
Mimic | 13.x.x | ? | In development |
Redhat Ceph Storage Version
Redhat의 Ceph Storage 제품 버전은 Ceph 커뮤니티 버전중 LTS 버전을 기반으로 구성됩니다.
Release | Upstream code name | Upstream version | General Availability | End of Life |
---|---|---|---|---|
Inktank Ceph Enterprise 1.1 | Dumpling | 0.67.x | February 2014 | July 2015 |
Red Hat Ceph Storage 1.2 | Firefly | 0.80.x | July 2014 | May 2016 |
Red Hat Ceph Storage 1.3 | Hammer | 0.94.x | June 2015 | June 2018 |
Red Hat Ceph Storage 2 | Jewel | 10.2.x | August 2016 | August 2019 |
Red Hat Ceph Storage 3 | Luminous | 12.2.x | December 2017 | December 2020 |
참조링크
하드웨어 요구사항
운영환경 구축을 위한 하드웨어 성능 최소 요구사항
Hardware | ceph-osd | ceph-mon | ceph-radosgw | ceph-mds |
---|---|---|---|---|
Processor | 1x AMD64 or Intel 64 | 1x AMD64 or Intel 64 | 1x AMD64 or Intel 64 | 1x AMD64 or Intel 64 |
RAM | 16 GB for the host, plus an additional 2 GB of RAM per OSD daemon | 1 GB per daemon | 1 GB per daemon | 1 GB per daemon (but depends heavily on configured MDS cache size) |
Disk | One storage device per OSD daemon, separate from the system disk | 10 GB per daemon | 5 GB per daemon | 1 MB per daemon, plus space for log files (varies) |
Network | 2x Gigabit Ethernet NICs | 2x Gigabit Ethernet NICs | 2x Gigabit Ethernet NICs | 2x Gigabit Ethernet NICs |
호스트당 OSD디스크를 적절하게 설계하여야 합니다. 호스트당 OSD디스크가 과도하게 많은경우 리밸런싱 시에 많은 트래픽을 발생할 수 있습니다. 호스트당 OSD디스크가 적은경우 많은 데이터가 여러 호스트에 분산되어 저장됩니다. 이런경우 부하 분산효과를 볼 수 있습니다.
네트워크 권장사항
네트워크 대역폭은 기본적으로 기가비트 이더넷을 사용해야 하며 가급적 10기가비트 네트워크를 권장합니다.
10기가비트 네트워크는 호스트당 12개의 OSD디스크를 사용하는것을 권장합니다. (12개 OSD당 10G, 48개 OSD = 40G 권장)
Redhat Ceph Storage 배포 권장사항
- Monitor node 최소 3개 이상
- OSD node 최소 3개 이상
- MGR node 최소 2개 이상
- 복재본 수 만큼의 OSD Disk (3copy replication인 경우 3개 이상)
- MDS node 최소 2개 이상 (CephFS 사용시)
- RADOSGW 최소 2개 이상 (Object Gateway 사용시)
- Ceph Storage Admin node(배포서버. 옵션사항)
로그인하면 댓글을 남길 수 있습니다.