레이드
2017.03.21 14:53

디스크 어레이 컨트롤러

조회 수 1702 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄

디스크 어레이 컨트롤러

위키백과, 우리 모두의 백과사전.
 

디스크 어레이 컨트롤러 (Disk array controller)는 물리적 디스크 드라이브를 관리하고 논리적 유닛수 (LUN)로 표현하는 장치이다. 하드웨어 레이드를 수행하기 때문에 레이드 컨트롤러 (RAID controller)나 레이드 카드 (RAID card)라고도 불린다. 또한, 추가적인 디스크 캐시를 제공한다.

디스크 어레이 컨트롤러는 경우에 따라서 디스크 컨트롤러로 불리는 경우도 있다. 그러나 두 장치는 다른 기능을 제공하므로 혼동해서는 안된다.

 

입력과 출력 포트

디스크 어레이 컨트롤러는 입력 인터페이스와 출력 인터페이스를 제공한다.

단일 컨트롤러는 입력과 출력 통신에 다른 프로토콜이 사용될 것이다. 대부분의 고급 컨트롤러는 입력에 SATA가 사용되고 출력에 FC 프로토콜을 사용한다.

고급형 컨트롤러

 
아답텍 레이드 52445

현재의 고급형 디스크 어레이 컨트롤러는 스토리지 에어리어 네트워크 (SAN)과 네트워크 부착 스토리지 (NAS) 서버에 위치하는 디스크 어레이같이, 물리적으로 독립된 디스크 단위의 부품이다.

이런 외부 디스크 어레이는 일반적으로 레이드 컨트롤러, 디스크 드라이브, 전원 공급장치와 관리 소프트웨어가 내장된 하부 시스템으로 구입된다. 이런 컨트롤러는 (기업에 따라서 다른 이름으로 다양한) 고급 기능을 제공한다:

  • (컴퓨터에 전송하는 데이터가 무결성을 유지하도록 하는) 컨트롤러로 자동 페일로버가 있다.
  • 서버 정지시간 없이 오랫동안 가동되는 유지보수
    • 새로운 레이드 단위를 구성하기
    • (디스크 오류가 생긴후에) 파손된 레이드 단위를 재구성하기
    • 구동중인 레이드 단위에 디스크를 추가하기
    • (일반적으로 사용되지 않는 기능으로) 레이드 단위에서 디스크를 제거하기
    • 레이드 단위를 쪼개서 서로다른 볼륨/LUN으로 나누기
  • 스냅샷
  • 비지니스 컨티뉴어스 볼륨 (BCV)
  • 원격 제어로 디스크 미러링

저가형 컨트롤러

 
프라미스 테크놀로지 ATA 레이드 컨트롤러

저가형 디스크 어레이 컨트롤러는 PCI 버스 확장 슬롯에 삽입되거나 메인보드에 내장될 것이다. 이런 컨트롤러는 일반적으로 공간적 효율성을 위해서 호스트 어댑터 (HBA) 기능을 스스로 제공한다. 그러므로 레이드 어댑터라고도 불린다.

2007년 2월 이후에, 인텔은 고급형 메인보드에 (소켓당 속도는 3Gbit/sec인) 4개의 소켓에 2개의 소켓을 추가하여, 총 6개의 SATA 연결이 가능하도록 매트릭스 레이드 컨트롤러를 내장하였다. 또한, 2개의 (100Mbis/sec인) IDE/ATA 장치를 연결할 수 있도록 1개의 IDE 소켓도 내장되어 있다.

참조

  • Storage Basics: Choosing a RAID Controller, May 7, 2004, By Ben Freeman[1]

같이 보기

바깥 고리

?

레이드
2017.03.16 13:53

레이드의 구성종류

조회 수 4253 추천 수 0 댓글 0
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄
?

단축키

Prev이전 문서

Next다음 문서

크게 작게 위로 아래로 댓글로 가기 인쇄

1. 정의

Redundant Array of Inexpensive/Independent Disk
저장장치 여러 개를 묶어 고용량·고성능 저장 장치 한 개와 같은 효과를 얻기 위해 개발된 기법이다.

초기에는 업그레이드 후 '폐기하기엔 아깝고, 그렇다고 단독으로 쓰기에는 성능이 부족한'(Inexpensive) 저장장치를 재활용할 목적으로 사용하였다. 저장장치 기술이 발전한 현재는 Inexpensive보다는 Independent로 해석하는 추세.

RAID의 주 사용 목적은 크게 무정지 구현(안정성)과 고성능 구현으로 구분된다. 무정지 구현을 극도로 추구하면 RAID 1, 고성능 구현을 극도로 추구하면 RAID 0이 되며, RAID 5, 6은 둘 사이에서 적당히 타협한 형태. RAID 10이나 RAID 01과 같이 두 가지 방식을 혼용하는 경우도 있다.

2. 종류

동작 방식에 따라 Level 0 ~ 6으로 분류한다. 주로 사용되는 것은 0, 1, 5, 6이며 컨트롤러 개발사에 따라 다른 방식을 제공하기도 한다.

2.1. RAID 0

Striping.

여러 개의 멤버 하드디스크를 병렬로 배치하여 거대한 하나의 디스크처럼 사용한다. 데이터 입출력이 각 멤버 디스크에 공평하게 분배되며, 디스크의 수가 N개라면 입출력 속도 및 저장 공간은 이론상 N배가 된다. 다만 멤버 디스크 중 하나만 손상 또는 분실되어도 전체 데이터가 파손되며, 오류검출 기능이 없어 멤버 디스크를 늘릴수록 안정성이 떨어지는 문제가 있다.

이미지 프로세싱, 데이터베이스 캐시 등 빠른 입출력 성능을 필요로 하며, 데이터 손실이 문제되지 않는 환경에서 쓰일 수 있지만, 상용 환경에서는 위험성 문제로 RAID 5나 6을 이용하는 경우가 많다고 한다.

이 때문에 고성능을 경험하고 싶은 파워유저가 구축해 보는 경우가 많다. SSD를 단독 사용하기에는 용량이 많이 부족하니, 여러 개를 묶어서 초고속 저장 장치를 구축하는 것. 이런 점을 간파하고 컴퓨터 제조 업체에서 공식적으로 RAID0 기술을 구현한 최초의 사례로는 소니의 노트북 브랜드인 VAIO의 프리미엄 모델인 Z 시리즈가 최초[1]인데, 노트북 업계 최초로 SSD로 RAID0 기술을 구현했으며, 앞으로도 소니는 자사의 프리미엄 노트북 라인업에 이 RAID0 기술을 구현한 SSD를 계속 탑재 할 전망이다.


VAIO Z시리즈의 홍보영상에서 RAID0(0^4) SSD와 5400rpm 2.5인치 하드디스크를 비교대상으로 놓고 1GB 용량의 파일을 복사하는데 걸리는 시간을 측정하는 장면이 있는데 RAID0 SSD의 경우 1GB 파일을 복사하는데 걸리는 시간이 겨우 4초에 불과할 정도로 엄청난 속도다. 사실 VAIO Z에 장착된 SSD의 경우 일반적인 공식 SSD 규격이 아닌 소니의 자체적인 소형화 규격으로 재설계하였기 때문에 그 비좁은 메인보드 공간 안에 탑재 될 수 있었던 것이다.[3] 국내에서 판매되었던 VPCZ1의 일반형 모델의 경우 용량이 128GB로서 64GB SSD 두 개를 RAID0로 묶은 것이며, 고급형 모델의 경우 용량이 256GB로서 64GB SSD 4개를 RAID0로 묶은 형태다. 게다가 일본 내수용 주문제작 방식의 오너메이드의 모델의 경우, 현재 RAID0로 128GB SSD 4개를 묶은 512GB 용량과, 256GB SSD 4개를 묶은 1TB 용량까지도 선택이 가능하다. 물론 이들을 선택하면 견적이 어마어마하기에 이를 선택하는 사람은 실제로 얼마나 될 지 의문이지만...

삼성의 SSD 24개를 한 개의 볼륨으로 묶기 같은 것도 할 수 있으며, 2.0GB/s(MB가 아니다!)의 속도가 나오는 6TB 볼륨을 구축한 삼성 SSD 광고 영상도 있다.
여담이지만 2009년에 찍힌 저 광고영상의 속도를 달성하려면 2013년 4월 기준으로 삼성 840Pro 256G 4~6개만으로도 동등하거나 더 빠른 속도를 낼 수 있다.
2015년부터 NVMe 규격 SSD가 본격적으로 활성화 되면서 단일 SSD로 초당 2.0GB/s를 볼수 있게 되었다.

RAID 0의 경우 Stripe size를 지정할 수 있다. 컨트롤러에 따라 다르지만 Intel RST에서는 4~128KB를 지원한다. 이 Stripe size는 기록시 한 디스크에 한번에 기록할 데이터 크기이다. 즉, Stripe size가 4KB이고, 멤버 디스크가 4개라면 16KB짜리 파일을 기록할때 디스크당 4KB씩 돌아가면서 한 번씩 기록한다. Stripe size가 128KB이고, 멤버 디스크가 2개, 기록할 파일이 2MB(2048KB)라면, 첫 번째 디스크에 128KB, 두 번째 디스크에 128KB를 순차적으로 기록하는 것을 디스크당 8번씩 반복한다. SSD에서는 128KB 이상이 추천되며, 하드디스크라면 32KB정도가 추천된다. 하지만 사용자의 환경에 따라 최적의 성능을 내는 Stripe size가 다르므로 하나하나 적용해 보는것이 좋다.

2.2. RAID 1

Mirroring.

각 멤버 디스크에 같은 데이터를 중복 기록한다. 멤버 디스크 중 하나만 살아남으면 데이터는 보존되며 복원도 1:1 복사로 매우 간단하기 때문에, 서버 또는 연구목적 PC에서 혹시 모를 데이터 손실에 대비하기 위해 사용한다. 

멤버 디스크를 늘리더라도 저장 공간은 증가하지 않으며, 대신 안정성이 크게 증가하게 된다. 상용 환경에서는 디스크를 2개를 초과해서 쓰는 경우가 드물지만, 극한 환경에서는 3개 이상의 멤버 디스크를 사용하기도 한다. 데이터 가치가 하드디스크 가격이 껌값으로 여겨질 정도로 높은 경우 (국가 비밀 문서등) 사용한다. 읽기 성능은 약간 향상되지만, 쓰기 성능은 약간 떨어진다.

데이터 복구 서비스를 쓰면 되지 않냐고 반박할 수도 있지만,

  1. 복구에 장시간이 소모됨

  2. 데이터를 100% 복구하기 어려움

  3. 극비 데이터의 유출 가능성

등의 이유로 복구 서비스에만 의존할 수는 없기 때문에 RAID 1을 쓰는 것이다. 아예 데이터를 중복 저장해서 하드가 망가졌을 때 백업 등 최소한의 대처할 시간을 버는 것. 그런데 한가지 주의할 점이 있는데 RAID 1 사용 중 HDD Fail 발생시 최우선 순위는 하드 교체가 아니고 데이터 백업이다. RAID 1을 구성할 때에는 같은 제조회사의 같은 모델 같은 주차 생산품을 쓰게 되는데(그게 권장되기도 하고) 이 말은 한쪽이 맛간 상태면 다른 쪽도 맛가기 일보직전 상황일 확률이 크다는 얘기가 된다. 이 상태에서 디스크만 교체하면 RAID 컨트롤러가 리빌드(Rebuild)작업을 하면서 남은 한쪽의 하드디스크에 큰 부담을 주게 되고 결국 리빌드 중간에 남은 하나의 하드마저 뻗어버리는 사태를 당하게 된다. 

2.3. RAID 2, 3, 4

Fault Tolerance using Dedicated Parity Bit.

오류정정부호(ECC)를 기록하는 전용의 하드디스크를 이용해서 안정성을 확보한다. RAID 2는 비트 단위에 Hamming code를 적용하며, RAID 3, 4는 각각 바이트, 워드 단위로 패리티를 저장한다. 하나의 멤버 디스크가 고장나도 ECC를 이용하여 정상적으로 작동할 수 있지만, 추가적인 연산이 필요하여 입출력 속도가 매우 떨어진다.

모든 I/O에서 ECC 계산이 필요하므로 입출력 병목 현상이 발생하며, ECC 기록용으로 쓰이는 디스크의 수명이 다른 디스크들에 비해 짧아지는 문제가 있어 현재는 사용하지 않는다.

2.4. RAID 5

Fault Tolerance using Distributed Parity Bit.

기본 원리는 RAID 4와 비슷하나, 패리티를 한 디스크에 밀어넣지 않고 각 멤버 디스크에 돌아가면서 순환적으로 저장하여 입출력 병목현상을 해결한다. N개의 디스크를 사용하면 (N-1)배의 저장 공간을 사용할 수 있다. RAID 4처럼 하나의 멤버 디스크 고장에는 견딜 수 있지만 디스크가 두 개 이상 고장나면 데이터가 모두 손실된다.

매번 쓰기 작업 때마다 패리티 연산 과정이 추가되어, 성능을 보장하려면 고가의 패리티 연산 전용 프로세서와 메모리를 사용해야 한다. 멤버 디스크도 최소 3개 이상 사용해야 하므로 초기 구축비용이 비싸다는 단점이 있다. 다만 멤버 디스크의 수가 5개 이하인 중소규모 파일서버라면 소프트웨어 RAID도 괜찮다. 부팅용 하드가 별도로 필요하다는 게(그리고 부팅하드가 뻑나면 RAID까지 풀려서 복구하기 짜증난다는) 애로점이긴 하지만...

읽기 작업은 전체 디스크에 분산되어 속도가 향상되지만, 쓰기 작업은 적어도 둘 이상의 디스크(데이터+패리티)에서 진행되어야 하므로 성능이 약간 떨어진다.

데이터베이스 서버 등 큰 용량과 무정지 복구 기능을 동시에 필요로 하는 환경에서 주로 쓰인다.

하드디스크가 하나가 사망해도 데이터가 살아있어서, 안전성이 굉장히 높아보이나 실제로는 패리티 연산을 통해서 데이터를 저장한다는 특징 때문에 취급상 유의가 필요하며 까다롭다

다음은 RAID 5를 고려한다면 알아야 할 사항이다 

1. RAID 0보단 안전하다는 인식과 달리 오히려 많은 량(보통 8개 이상)의 디스크를 스토리지로 묶으면, 패리티 연산오류 발생 확률이 높아져서 인해 RAID 0으로 묶은것보다 깨질 확률이 높아진다고 한다.
그러므로 대단위로 스토리지를 만드려는 사람이 있다면 RAID 6 또는 RAID 10을 권한다.

2. 패리티로 데이터를 저장하는 특성으로 인해서, 어레이가 깨지거나, 보장되는 내결함 디스크 갯수를 초과하는 경우[4], 전자는 데이터를 살리기가 대단히 어렵고 후자는 사실상 데이터를 살릴 수 없다.

3. 1개의 디스크가 사망한 상황에서 디스크를 교체하여서 리빌딩(어레이를 복구하는 작업)을 하다가 리빌딩이 완료되기 전에 추가적으로 디스크가 하나 더 사망하여서 RAID가 깨지는 경우가 생각보다 많이 발생한다. 이는 보통 한개의 어레이를 구성할 때 같은 시기에 구매한 것으로 구성하므로, 어레이를 구성하던 하드가 하나 사망하였다면 같은 어레이에 있던 하드의 상태도 정상이 아니라는 가능성도 배제할 수가 없다.
만약 사용하다가, 하드가 사망했다면 리빌딩보다는 데이터를 먼저 백업 시키는 것이 우선이다. 리빌딩하는 시간보다는, 백업하는 시간이 훨씬 짧으니, 반드시 백업을 하고 리빌딩을 하는것을 권한다.
이런 상황은 RAID 5에서 심심지 않게 발생하니 주의하도록 할것.[5]

4. 어레이를 복구하려고 하드를 뽑았는데, 하필 정상이었던 하드를 잘못 뽑아서 어레이가 깨지는 경우도 심심치 않게 발생하니 주의하도록 할 것.[6]

5. 리빌딩을 하고 있을때 가급적이면[7] 해당 어레이에 부하를 주지 말 것.
리빌딩 도중에 사용하면 리빌딩 시간이 늘어나고, 무엇보다 리빌딩 하다가 깨질 수도 있다.

2.5. RAID 6

Fault Tolerance using Distributed Double Parity Bit.

RAID 5와 원리는 같으며, 서로 다른 방식의 패리티 2개를 동시에 사용한다. 성능과 용량을 희생해서 안정성을 높인 셈. N개의 디스크를 사용하면 (N-2)배의 저장 공간을 사용할 수 있다.

스토리지 서버와 같이 디스크를 빼곡히 꽂는(기본 10개 단위) 환경에서 RAID 5는 유지보수가 어려우며[8], 안정성을 높이기 위한 목적으로 주로 사용된다. 컨트롤러가 RAID 5보다 더 비싸고, 멤버 디스크도 기본 4개 이상 확보해야 하므로 초기 구축비용이 비싸다.

하드디스크를 대단위로 물려야 하고, 데이터 안정성의 필요성이 RAID 5보다 높아야 하는 상황에서 쓰인다.

2.6. RAID-Z3

오라클의 ZFS라는 파일 시스템에서 지원하는 소프트RAID에서 제공하는 모드. 
Z1과 Z2는 각각 RAID 5와 RAID 6와 유사하지만, Z3는 RAID 6 / Z2보다 패리티를 하나 더 쓴다. 
그만큼 최소 구성 멤버 디스크도 하나 더 많고, 위에서 언급한 것처럼 스토리지 서버와 같이 디스크를 빼곡히 꽂는(기본 10개 단위) 환경에서, 특히 최근 또는 근미래의 고용량 HDD(개당 수 TB 이상)를 이용한 구성에서 고장난 HDD를 교체시 거기에 데이터를 채워넣는데 시간이 오래걸리므로 그 사이에 또 다른 HDD가 죽고...하는 경우까지 생각해서 유지보수를 돕기 위해 패리티를 늘린 것이다.
패리티를 3중으로 사용하는 만큼 하드웨어 자원또한 대단히 많이 사용한다.
출처 https://en.wikipedia.org/wiki/ZFS

2.7. 그 외의 RAID Level

2.7.1. JBOD

Just Bunch of Disks.

그냥 여러 디스크를 하나의 디스크처럼 보이게 수평적으로 섹터를 이어붙인 개념이다. RAID0처럼 멤버 디스크 중 하나만 깨져도 모든 데이터가 손실되지는 않고 고장난 디스크에 해당하는 부분만 날아간다. 때문에 로그 기록같이 부분적으로 데이터가 파손되어도 괜찮은 환경에서 가끔 사용된다.[9]

디스크를 Spanning한 환경이기 때문에 다중 사용자 환경에서 분산도가 높은 데이터를 다루는 경우 RAID0에 근접하는 성능을 얻을 수도 있으나... 현실은 20%의 핵심 데이터에 모든 액세스가 집중되므로 현실은 시궁창... 같은 환경에서 RAID0은 20%의 핫존이 모든 디스크에 고루 분포돼있지만 JBOD는 한두개의 디스크에 몰려있다.

RAID는 모든 멤버 디스크의 성능(저장 공간이나 I/O 성능 등)이 같은 환경을 전제하기 때문에 멤버 디스크 성능에 차이가 있으면, 가장 낮은 성능으로 하향 평준화된다. (예를 들어 160GB짜리와 1000GB짜리 하드디스크를 RAID 0으로 묶으면 160 × 2인 320GB만 쓸 수 있고, 840GB는 버려진다) 반면 JBOD는 멤버 디스크의 성능이 서로 달라도 무방하므로 어떻게 돈지랄을 해도 저장해야 할 데이터 크기만큼의 하드를 확보할 수 없을 때[10]에 쓴다.

이러한 문제로 WD社에서는 Raid Edition 이라는 기업 대상 레이드 전용 제품군을 출시한 적도 있다. 이 녀석은 무상 A/S기간도 5년이나 된다.

2.7.2. Nested RAID

레이드 볼륨의 멤버로 다른 레이드 볼륨을 사용하는 형태. 볼륨 확장 과정에서 구성 편의성 문제로 형성되는 경우가 많다. 이 때 멤버 디스크를 묶는 배열을 하위 배열, 하위 배열을 묶는 배열을 상위 배열이라고 한다.

대표적인 예시로 10, 0+1, 15, 50, 0+5, 51 등이 존재한다. 표기 방법은 m(하위 배열)[11]n(상위 배열)이다.
아래 예시는 1TB 디스크 6개로 구성한다는 상황을 가정하여 작성해 두었다.

  • RAID 10
    하위 배열은 RAID 1, 상위 배열은 RAID 0이다. RAID 1로 미러링 된 볼륨을 RAID 0으로 스트라이핑 한다.
    퍼포먼스 및 용량 위주로 구성한다면, 디스크 2개를 RAID 1로 묶은 미러 볼륨 3개를 RAID 0으로 스트라이핑 한다. 이 경우 사용 가능한 총 용량은 3TB가 된다.
    안정성 위주로 구성한다면, 디스크 3개를 RAID 1로 묶은 미러 볼륨 2개를 RAID 0으로 스트라이핑 한다. 이 경우 사용 가능한 총 용량은 2TB가 된다.
    RAID 0+1에 비해 디스크 장애 발생시 복구가 수월하다.

  • RAID 0+1
    하위 배열은 RAID 0, 상위 배열은 RAID 1이다. RAID 0으로 스트라이핑 된 볼륨을 RAID 1로 미러링 한다.
    퍼포먼스 및 용량 위주로 구성한다면 디스크 3개를 RAID 0으로 묶은 스트라이프 볼륨 2개를 RAID 1로 미러링 한다. 이 경우 사용 가능한 총 용량은 3TB가 된다.
    안정성 위주로 구성한다면, 디스크 2개를 RAID 0으로 묶은 스트라이프 볼륨 3개를 RAID 1로 미러링 한다. 이 경우 사용 가능한 총 용량은 2TB가 된다.
    RAID 10에 비해 RAID 볼륨이 깨졌을 경우 복구가 번거롭다. RAID 10과 비교하자면, 미러 볼륨으로 구성된 어레이에서 디스크 하나가 고장이 났다면, 미러 볼륨 자체는 깨지지 않는다. 즉, 디스크만 바꿔 넣어주면 알아서 Rebuliding 하여 원래 상태로 돌아간다. 하지만 RAID 0+1의 경우 디스크 하나가 고장이 났다면, 해당 RAID 0 어레이 전체가 깨져버린다. 디스크를 교체한 뒤 RAID 0 어레이를 다시 구성한 다음, 미러링해야 한다.

  • RAID 15
    하위 배열은 RAID 1, 상위 배열은 RAID 5다. 개인 사용자 레벨에서는 사용할 일이 거의 없는 RAID 레벨이다. RAID 1로 미러링 된 볼륨을 RAID 5 볼륨으로 묶는다. RAID 5의 경우 최소 3개 이상의 디스크가 필요하기 때문에 디스크 6개로 구성할 수 있는 경우의 수는 하나밖에 없다.
    디스크 2개를 RAID 1로 묶은 미러 볼륨 3개를 RAID 5로 묶는다. 이 경우 사용 가능한 총 용량은 2TB가 된다.

  • RAID 50
    하위 배열은 RAID 5, 상위 배열은 RAID 0이다. 마찬가지로 개인 사용자 레벨에서는 사용할 일이 거의 없다. RAID 5 볼륨을 RAID 0으로 스트라이핑 한다. 마찬가지로 RAID 5의 경우 최소 3개 이상의 디스크가 필요하기 때문에 디스크 6개로 구성할 수 있는 경우의 수는 하나밖에 없다.
    디스크 3개를 RAID 5 볼륨으로 묶은 것을 RAID 0으로 스트라이핑 한다. 이 경우 사용 가능한 총 용량은 4TB가 된다.
    RAID 0+5에 비해서 디스크 장애 발생 시 복구가 수월하다.

  • RAID 0+5
    하위 배열은 RAID 0, 상위 배열은 RAID 5이다. 역시 개인 사용자 레벨에서는 사용할 일이 거의 없다. RAID 0 볼륨을 RAID 5 볼륨으로 묶는다. 역시 RAID 5의 경우 최소 3개 이상의 디스크를 필요로 하므로 디스크 6개로 구성할 수 있는 경우의 수는 하나밖에 없다.
    디스크 2개를 RAID 0으로 묶은 스트라이프 볼륨 3개를 RAID 5로 묶는다. 이 경우 사용 가능한 총 용량은 4TB가 된다.
    RAID 50에 비해 장애 조치가 힘들다. 이유는 RAID 0+1에도 나와 있지만 디스크 장애 발생시 해당 RAID 0 볼륨이 깨져버리기 때문.

  • RAID 51
    하위 배열은 RAID 5, 상위 배열은 RAID 1이다. 이 역시 개인 사용자 레벨에서는 사용할 일이 거의 없다. RAID 5 볼륨을 RAID 1로 미러링 한다. 역시 RAID 5 볼륨의 경우 디스크 3개 이상을 필요로 하므로 역시 구성할 수 있는 경우의 수는 하나밖에 없다.
    디스크 3개를 RAID 5 볼륨으로 묶고, 그 볼륨 두개를 RAID 1로 미러링 한다. 이 경우 사용 가능한 총 용량은 2TB가 된다. RAID 15나 51이나 장애 발생시 복구하는 데 필요한 노력은 비슷하다. RAID 1 환경에서 디스크가 깨진 경우에도 디스크를 교체해 주면 Rebuilding 하여 복구가 되지만, 그건 RAID 5도 마찬가지다.

 

2.8. 그 외의 RAID 용어

2.8.1. SHR

Synology Hybrid RAID

NAS 제조사인 Synology 에서 만든 레이드 방식으로, 서로 다른 용량의 HDD 를 사용할때 남는 부분의 낭비 없이 사용가능하도록 하는 기술이다. 간단히 예를 들어 1TB 하드와 3TB 하드가 있다고 할때, RAID1 미러로 묶으면 1TB 만 사용가능하며, 3TB 의 2/3는 사용이 불가능하다. SHR 에서는 이것을 미러링되는 1TB 와 단독하드 2TB 를 묶어 놓은 것처럼 해준다.

이는 레이드 하드디스크를 점차 용량이 큰 것으로 업그레이드 하고자 할때, 유용하게 사용 가능하다.

제조사의 설명 문서

2.8.2. Hot Spare

RAID 5, 6, 1 등 소수의 하드디스크가 고장나더라도 운영에 지장이 없는 RAID Level 을 위해 존재한다. Hot Spare 는 전체 멤버디스크에서 1개 이상의 디스크를 spare 로 지정해서 data를 읽고 쓰는 행위를 하지 않고 그냥 대기(stand-by) 시키다가 디스크가 고장 났을때 자동으로 rebuilding 하여 원래의 raid 상태로 복구하는 용도로 쓰인다. 하나의 디스크가 고장 났을때 알아서 복구해 주므로, 그만큼의 시간을 벌 수 있다. 그렇다고 하더라도 고장난 하드는 빠르게 교체해 주어야 한다.

일반적으로 RAID 1 에서는 2 + 1 의 구성으로, RAID 5 에서는 멤버디스크+1로, RAID 6 에서는 멤버디스크 + 2 로 구성하며 Hot Spare 는 사용하지않고 노는 disk 를 양산하기 때문에 구성 disk 대비 사용 용량이 매우 적고 비용이 증가한다. 단 안전성을 좀 더 높일 수 있다. 또한 raid group 을 여러개 지정하는 중형 이상의 storage에서는 Global Spare 라 하여 여러 group 이 공용으로 Hot Spare 를 사용하게 하는 경우도 있다.

3. 개인 환경에서의 사용

전통적으로 별도의 RAID 컨트롤러를 사용하는 것이 안정성이 좋고 유지보수 등에 있어서 간편한 것으로 알려져 있으나, 최근의 메인보드 내장 RAID 컨트롤러 또한 상당한 성능을 보여주고 있다. 인텔의 경우 Intel Rapid Storage Technology라고 부르는 그것. 많이 나아지긴 했지만, 내장 컨트롤러라는 한계가 있어 여러 디스크를 RAID 0으로 묶을 경우 제 성능을 못 내는 경우도 있다. 안정성 면에서도 별도의 RAID 컨트롤러에 비해 부실하기 때문에 RAID 1을 제외하면 RAID Array가 깨졌을 시 데이터 복구는 포기하는게 편하니 주의하도록 하자. (정말 제대로 RAID를 구축해서 운영하는 경우에도, 컨트롤러가 죽었는데 이미 오랫동안 굴려먹은 시스템이라 컨트롤러가 이미 단종된 구형이 되서 동일기종을 구하지 못해서 데이터 복구를 포기한 사례도 있다. RAID 1이야 단순 미러링이라 정 안되면 그냥 개별 디스크를 따로 뽑아서 각자 읽어도 잘 읽히는 경우가 많지만, 복잡한 패리티를 쓰는 모드일수록 동일 컨트롤러가 아니면 안의 데이터를 인식하는 것부터 문제가 된다.)

참고로, 별도의 레이드 카드란 하드웨어 레이드 카드를 말하는것으로, 하드웨어 레이드 카드란 카드 자체에 레이드 디스크를 컨트롤하기 위한 별도의 작은 CPU/메모리가 붙어있는 카드를 말한다. 보통 레이드카드라고 하면서 파는 10만원 이하의 저렴한 카드들에는 당연히 저런것들이 없으므로 소프트웨어 레이드와 유의미한 차이는 없다.(메인보드 레이드 역시 소프트웨어 레이드에 속한다.) 이때문에 이런 카드들은 FakeRAID 카드라고도 불린다. 

소프트웨어 레이드는 FakeRAID 카드를 제외하면 크게 메인보드 레이드와 OS 레이드로 갈라지는데, 둘 다 위에서 이야기한 하드웨어 레이드가 아닌 이상, 안정성이나 성능차가 크지 않으므로, 취향에 따라 선택하면 된다. 호환성 측면에서 보면, 메인보드 레이드의 경우는 OS 를 바꿔도 묶어놓았던 레이드가 계속 유효한 대신에 메인보드를 바꾸게 되면(예를들어 인텔보드에서 AMD 보드로) 그 레이드는 더이상 사용하지 못할 가능성이 크며, OS 레이드는 메인보드를 바꾸더라도 해당 디스크만 제대로 꼽아주면 계속 레이드를 사용할 수 있지만, OS 를 바꾸면 (예를들어 윈도우->리눅스) 보통 사용하지 못한다. 보통 하드웨어를 바꾸는 경우가 OS 를 바꾸는 경우보다 더 빈번하기도 하고, OS 를 바꾸면 어차피 제공되는 파일시스템 자체가 달라지기때문에 기존 레이드를 인식하건 말건간에 어차피 새로 포맷을 해줘야 하고, 포맷을 할거면 그냥 다시 레이드를 묶으면 된다.[12] 따라서, 호환성 측면에서 메인보드 레이드와 OS 레이드중에서는 OS 레이드가 좀더 자연스러운편. 

이외에도 최근 유닉스계열은 볼륨매니징과 레이드 기능 자체를 파일시스템에서 제공하는 경우가 늘고있다. 대표적인것이 ZFS 이고, 리눅스에서도 Btrfs 라는 파일시스템으로 자체레이드를 제공한다. 사용 OS 가 유닉스 계열이라면 이쪽도 고려해볼만 하다. 

흔히 파코즈나 2CPU 등에서 이를 구축한 사람을 쉽게 볼 수 있다. 만약 하드디스크 사망으로 인한 데이터 손실을 경험해 보았다면, RAID 1 정도는 구축해 보아도 나쁘지 않을 것이다. 물론 용량 및 성능 대비 비용이 크다는 단점이 있다. 사실 그 비용은 안정성을 위해 지출하는 것이기는 하지만.

최근들어 NAS 의 보급으로 인해 개인환경에서 사용하는 경우도 많아졌다. 주로 사진과 같이 다량의 데이터를 보관하거나 미디어 서버의 용도로 사용하는 경우가 많은데 예전에 비해 많이 저렴한 가격으로 사용할 수 있다. 또한 4-bay 이상의 NAS 도 많이 저렴[13]해져 개인 level 에서 RAID 5 이상을 구현하는 경우도 예전보다는 늘었다. 

하지만, 명심해야 할것은 레이드는 백업이 아니다!. 실제로 저 문구는 레이드를 설명하는 글에서 자주 등장한다. 데이터 안정성 목적으로 레이드는 전통적인 백업을 절대로 대체하지 못하며, 데이터 안정성보다는 디스크 몇 개가 고장나서 갈아끼워야 할때도 나머지 디스크로 중단없이 서비스를 하려는 목적이 오히려 더 강하다. 사실 하드디스크가 뻑날 확률은 디스크 개수만큼, 그리고 돌아가는 시간만큼 뻥튀기가 되기 때문에 수십개를 주렁주렁 달아놓고 24시간 돌아가는 서버의 경우에는 커다란 문제이고 레이드가 가뭄에 단비와도 같은 존재지만, 4-5개 정도의 디스크만 사용하며 실제 하드디스크를 사용하는 정도도 훨씬 덜한 개인 사용자들의 경우에는 사실 디스크가 뻑나서 날려먹는 경우보다 본인 실수로 잘못 지운다거나 해서 날려먹는 경우가 훨씬 많다고 볼 수 있다. 이 때문에 개인사용자의 경우에는 레이드보다 백업이 훨씬 가치가 크다. 레이드에 대한 지식이 별로 없는 개인사용자들이 흔히 범하는 실수가, 몇개 안되는 디스크로 데이터 안정성을 목적으로 백업 없이 4개 정도의 디스크를 RAID 1로 구축해 버리는 경우다. 아무것도 안 하는 것보단 낫긴 하지만 차라리 안정성 구현을 원한다면 주기적으로 백업하는 편이 훨씬 낫다. HDD가 정말 많다면 RAID 10을 구성하고 따로 또 백업하는게 그냥 그 HDD들을 하나의 컨트롤러에 몰아넣고 미러링 해버리는 것보다 나은 방법이다.
소비자수준에서는 RAID 5로 적절한 가격에 적절한 신뢰성과 용량확장을 노릴 수도 있다. 하지만 제대로 RAID를 하기 위해 컨트롤러를 따로 구매하면(소프트RAID도 RAID 5를 지원하지만 정말 지원만 하는 수준이고 성능은 기대하기 힘든 경우가 많다) 가격은 가격대로 비싸지고, 막상 RAID를 묶어놔도 방치되다가 관리소홀로 두개가 죽을때까지 모르다가 데이터만 날리는 경우도 있다. 대부분 같은 시기에 생산된 같은 하드디스크를 이용하기때문에 하나죽으면 다른것도 비슷한 시기에 죽을 확률이 높다. 그냥 수작업으로 백업하면서 디스크에 필요없는 그녀것들좀 지우고 정리나 하자. (무료 백업이나 동기화 소프트들도 많으니 이들 중 괜찮은거 하나 잘 골라서 활용하면 레알 수작업보단 훨씬 편리한 백업을 구축할 수 있을 것이다.)

4. 성능 비교

이론상 최적화되었을 때의 비교값이다.

  • 안정성 : 1 >> 6 > 5 > non-RAID >> 0 > 0^3 > 0^4 ······

    • RAID 0은 멤버 디스크가 하나라도 망가지면 데이터 전체가 날아가는 만큼 묶은 디스크의 개수가 많아질수록 안정성이 떨어진다. 반대로 RAID 1은 묶은 디스크의 개수가 많아질수록 안정성이 높아진다.

  • 읽기속도 : ······ 0^4 > 0^3 > 0 > 1 > 5 ≥ 6 >> non-RAID.

    • 멤버 디스크 개수가 늘어날수록 속도는 더더욱 빨라진다.

  • 쓰기속도 : ······ 0^4 > 0^3 > 0 > 5 ≥ 6 > non-RAID ≥ 1

    • RAID0/5가 아니라면 사실 쓰기 속도의 증가는 기대하지 않는 게 좋다.

  • 가격대비 용량 : non-RAID = 0 > 5 > 6 > 1

  • 초기구축비용 : 6 > 5 > 1 > 0 = non-RAID.
    일반적인 개인/SOHO 환경을 기준으로 했을 때의 이야기이다. 하드디스크가 서버랙 전체에 빼곡히 꽂혀나가는 상황이라면 의미가 없는 것이나 마찬가지.

 

[1] 엄밀히는 Z의 초기 시리즈인 VGN-Z의 라인업에서 고급형 모델에 한시적으로 탑재된 것이 시초이며, 본격적으로 적용되기 시작한 것은 후속 라인업인 VPCZ1에서라고 할 수 있다.[2] 소니의 2011년 신모델로 나온 바이오 SB 시리즈의 고급형 모델의 경우 128GB SSD 두 개를 RAID0로 묶어서 256GB의 용량을 가진다.[3] 참고로 바이오 Z(VPCZ1)는 13인치급 노트북이지만 배터리 포함 무게는 1.4kg 정도로 넷북과 맞먹는 수준이며, ODD까지 내장하고 있어서 실제 메인보드가 장착되는 면적은 본체 면적의 절반 정도에 불과하다.... 흠좀무[4] RAID 5 경우에는 2개 이상[5] RAID 6은 디스크 1개가 사망해도 1개의 여유가 있기 때문에 해당 상황의 위험성은 심각한 정도는 아니다.[6] 다만, 고급의 레이드카드/소프트웨어 레이드들은 다시 붙이면 잘 붙긴하나, 그래도 안붙는 경우도 있으니 주의...[7] 사실상 절대적인 철칙이다.[8] 하드 하나가 고장난 RAID 5 장비에서 교체하려다가 실수로 멀쩡한 하드 하나를 뽑았다 → 데이타는 천국으로. 동일 상황에서 RAID 6는 문제가 없다.[9] 가끔이라는 이유는 굳이 로그용 디스크를 따로 할당하는 경우가 별로 없기 때문. 그냥 RAID5 볼륨에서 로그까지 기록하는 경우가 많다[10] 예를 들면 과거 HDD의 용량단위가 MB 단위로 나오던 시절[11] m=0이면 뒤에 +를 붙인다.[12] 물론, 예를들어 윈도의 NTFS 파일시스템을 리눅스에서 읽고쓰고 하는게 되긴 하지만, 안정성 문제로 장기간 저렇게 사용하는것은 보통 추천되지 않는다. 파일시스템은 언제나 해당 OS 에서 네이티브로 잘 지원되는것을 사용하는게 안전하다.[13] 2011년 4월 기준 2베이 정도는 20-30 에도 NAS 본체를 구입 가능하며 4 베이 이상은 100 만원 정도부터 시작. 2-3년 전에 비해 정말 정말 저렴해졌다.

?

Board Pagination Prev 1 Next
/ 1