Ceph
: 여러 스토리지들을 클러스터로 묶어 하나로 보이게 하는 스토리지
: SDS (Software Defined Storage) 서비스를 제공하는 오픈소스 솔루션
- Ceph에서 제공하는 서비스
: Ceph Object Strage 서비스
: Ceph Block Device 서비스
: Ceph FileSystem 서비스
- Ceph (Strage Cluster)
: Ceph Strage Cluster를 기반으로 Block, Object Strage 서비스를 제공
Ceph Storage Cluster의 구성요소
: 클러스터에는 최소 1개의 Ceph Monitor와 최소 2개의 OSD 데몬이 필요
: default로는 3개의 OSD 데몬으로 구성
- Ceph OSDs
: 데이터를 저장하고 복제 및 부하분산 등의 역할 수행하는 도구
: Ceph 데이터를 저장하는 저장소
: OSD 디스크 1TB 당 메모리 1GB 이상으로 구성해야함
: disk 하나에 OSD 하나가 할당되는 개념
: 무결성과 성능을 위한 jounal을 사용
: 클러스터내에 10~ 10000개의 OSD 생성 가능
- Monitors
: 클러스터의 상태를 체크하고 PG(Placement Group) map, OSD map 등을 관리
: Ceph를 구성하는 구성요소를 모니터링하는 도구
: Ceph의 state history를 저장하고 관리
- MDS
: Ceph 서버의 메타데이터를 저장하는 서버
: Ceph Block Device와 Object Strage는 MDS를 사용하지 않음
- 구성
: Ceph는 수많은 OSD 데몬 (서버 및 내장 디스크로 구성)
: Ceph 모니터 서버 및 MDS 서버로 구성되어 있음
: OSD를 늘리면 끝없이 확장 가능
Ceph의 하드웨어 권장 사양
Ceph의 최소 권장사양
Ceph와 RAID
: Ceph의 목표는 특정 장애 도메인에서 발생하는 모든 유형의 장애로부터 신속하게 복구하는 것
: 복제 또는 지우기 인코딩을 사용하여 데이터의 지속성을 보장
: RAID 1과 비슷하지만, 더 많은 기능을 제공
- Ceph
: 여러 스토리지들을 클러스터로 묶어 하나로 보이게 하는 스토리지 도구
: 클러스터 구성에 따라 데이터가 여러 OSD, 노드, 랙으로 복제
: 원본 데이터와 복사본은 여러 개의 작은 블록으로 나뉘어져 있으며 CRUSH 알고리즘을 사용하여
집단으로 고르게 분포됨
> 6개의 노드 클러스터에 3개의 복제본을 보유하도록 선택하면 전체 복제본을 포함하는 3개의 노드가 아닌
6개의 노드에 3개의 복제본이 분산
Ceph 활용
: 리눅스 서버에 설치하여 데이터 보존
: 오픈스택과 연동하여 클라우드 서버 운영
: 쿠버네티스와 연동하여 컨테이너 환경에서 데이터 보존
Refference
CEPH 기본 개념
CEPH란? - Ceph는 SDS(Software Defined Storage) 서비스를 제공하는 솔루션 중 하나로, 오픈소...
blog.naver.com
Ceph란?
Ceph
chohanjoo.github.io
Ceph 정리 - 작성중
1. Ceph 개요 Ceph란 분산 클러스터 위에서 object storage를 구현해 object, block, file level의 storage 인터페이스를 제공한다. 하나로 object, block storage, file system 모두를 제공한다는 것이 장점...
wcc8088.tistory.com
Ceph 데이터 지속성, 이중화 및 Ceph 사용 방법
제5편: Ceph 클러스터 운영 /var/lib/ceph/mds/ceph-{$id}, id 메타데이터 서버의 이름을 표시하고 수요에 따라 스스로 정의할 수 있습니다.예: osd를 만듭니다.3 디렉터리, 디렉터리 이름 형식 {cluster-name}-{id
intrepidgeeks.com
'InfraStructure > Openstack' 카테고리의 다른 글
오픈스택 인증 - Keystone (0) | 2024.09.22 |
---|---|
오픈스택의 노드 (0) | 2023.05.20 |
오픈스택의 컴포넌트 (1) | 2023.05.20 |
오픈스택 네트워크 종류 (0) | 2023.02.12 |
오픈스택의 구조 (0) | 2023.02.12 |