차이
문서의 선택한 두 판 사이의 차이를 보여줍니다.
양쪽 이전 판 이전 판 다음 판 | 이전 판 | ||
ceph [2018/08/27 01:58] – [Redhat Ceph Storage Version] koov | ceph [2021/09/15 06:16] (현재) – [Redhat Ceph Storage Version] koov | ||
---|---|---|---|
줄 9: | 줄 9: | ||
==== Upstream Ceph Versions ==== | ==== Upstream Ceph Versions ==== | ||
- | ^ Release code name ^ Version | + | ^ Release code name ^ Version |
- | | Argonaut | + | | Argonaut |
- | | Bobtail | + | | Bobtail |
- | | Cuttlefish | + | | Cuttlefish |
- | | Dumpling | + | | Dumpling |
- | | Emperor | + | | Emperor |
- | | Firefly | + | | Firefly |
- | | Giant | 0.87.x | + | | Giant | 0.87.x |
- | | Hammer | + | | Hammer |
- | | Infernalis | + | | Infernalis |
- | | Jewel | 10.2.x | + | | Jewel | 10.2.x |
- | | Kraken | + | | Kraken |
- | | Luminous | + | | Luminous |
- | | Mimic | 13.x.x | ? | + | | Mimic | 13.2.10 | ※ | |
+ | | Nautilus | ||
+ | | Octopus | ||
+ | ※ 오픈소스 커뮤니티 버전 Ceph는 '' | ||
==== Redhat Ceph Storage Version ==== | ==== Redhat Ceph Storage Version ==== | ||
Redhat의 Ceph Storage 제품 버전은 Ceph 커뮤니티 버전중 LTS 버전을 기반으로 구성됩니다. | Redhat의 Ceph Storage 제품 버전은 Ceph 커뮤니티 버전중 LTS 버전을 기반으로 구성됩니다. | ||
- | ^ Release | + | ^ Release |
- | | Inktank Ceph Enterprise 1.1 | Dumpling | + | | Inktank Ceph Enterprise 1.1 | Dumpling |
- | | Red Hat Ceph Storage 1.2 | Firefly | + | | Red Hat Ceph Storage 1.2 |
- | | Red Hat Ceph Storage 1.3 | Hammer | + | | Red Hat Ceph Storage 1.3 |
- | | Red Hat Ceph Storage 2 | Jewel | 10.2.x | + | | Red Hat Ceph Storage 2 |
- | | Red Hat Ceph Storage 3 | Luminous | + | | Red Hat Ceph Storage 3 |
+ | | Red Hat Ceph Storage 4 | ||
+ | |||
+ | ※ RedHat 버전 Ceph는 모두 '' | ||
=== 참조링크 === | === 참조링크 === | ||
+ | * https:// | ||
* https:// | * https:// | ||
* https:// | * https:// | ||
+ | ===== 하드웨어 요구사항 ===== | ||
+ | |||
+ | 운영환경 구축을 위한 하드웨어 성능 최소 요구사항 | ||
+ | |||
+ | ^ Hardware | ||
+ | | Processor | ||
+ | | RAM | 16 GB for the host, plus an additional 2 GB of RAM per OSD daemon | ||
+ | | Disk | One storage device per OSD daemon, separate from the system disk | 10 GB per daemon | ||
+ | | Network | ||
+ | |||
+ | |||
+ | 호스트당 OSD디스크를 적절하게 설계하여야 합니다. 호스트당 OSD디스크가 과도하게 많은경우 리밸런싱 시에 많은 트래픽을 발생할 수 있습니다. 호스트당 OSD디스크가 적은경우 많은 데이터가 여러 호스트에 분산되어 저장됩니다. 이런경우 부하 분산효과를 볼 수 있습니다. | ||
+ | === 네트워크 권장사항 === | ||
+ | 네트워크 대역폭은 기본적으로 기가비트 이더넷을 사용해야 하며 가급적 10기가비트 네트워크를 권장합니다. | ||
+ | 10기가비트 네트워크는 호스트당 12개의 OSD디스크를 사용하는것을 권장합니다. (12개 OSD당 10G, 48개 OSD = 40G 권장) | ||
+ | ===== Redhat Ceph Storage 배포 권장사항 ===== | ||
+ | * Monitor node 최소 3개 이상 | ||
+ | * OSD node 최소 3개 이상 | ||
+ | * MGR node 최소 2개 이상 | ||
+ | * 복재본 수 만큼의 OSD Disk (3copy replication인 경우 3개 이상) | ||
+ | * MDS node 최소 2개 이상 (CephFS 사용시) | ||
+ | * RADOSGW 최소 2개 이상 (Object Gateway 사용시) | ||
+ | * Ceph Storage Admin node(배포서버. 옵션사항) | ||