Chapter 2, Process Management and Scheduling


요즘 나오는 Operating System은 한번에 여러 개의 Process들을 실행 할 수 있다.(이것은 User 입장에서 그렇게 수행되는 것처럼 느껴지는 것이다.)  만약 하나의 시스템에 하나의 CPU를 가지고 있다면, 주어진 시간에 하나의 Process만을 실행 시킬수 있다. Multi-Processor 시스템에서는 물리적인 CPU 개수 만큼 Process들을 병렬적으로 수행 시킬 수 있다. 

Kernel과 Processor는 매우 빠른 간격으로 서로 다른 Application간에 번갈아가며 실행함으로써 시스템이 Multi-tasking(병렬적으로 여러 operation을 수행하는 능력)을 하는 것처럼 만들어 준다. 번갈아 실행하는 간격이 매우 짧기 때문에 User들은 Process가 일정 시간동안 활동하지 않는 상태임을 알지 못하고, 컴퓨터가 실제로 한번에 여러 일을 하는 듯한 느낌을 받게 된다. 

Kernel에서 해결해야할 중요한 시스템 관리 이슈들이 이 있고 이중 중요한 것은,
□ Application들은 일부러 그렇게 만들어 지지 않는 이상, 다른 Application을 간섭할 수 없다. 예를 들어, error를 가지고 실행하는 application A는 Application B에게 영향을 줄 수 없다. Linux는 multi-user 시스템이기 때문에, 프로그램들이 다른 프로그램의 메모리 영역을 읽거나 쓰게 할 수 없도록 해야 한다. 만약 그렇지 않으면, 다른 user들의 개인 data를 쉽게 접근할 수 있는 문제점이 있다. 

□ CPU 사용시간은 다양한 Application 사이에 최대한 공평하게 주어져야 하며, 이것은 어떤 프로램이 다른 것들 보다 더 중요한지 결정하는 것 중요한 포인트가 된다. 

 이 장에서는 kernel이 CPU 사용 시간을 어떻게 공유하고 process간 switch하는 방법을 설명한다.
이 두가지 작업은 각각 독립적으로 수행되는 두개의 부분으로 나누어져있다. 
□ kernel은 반드시 각 process들에게 얼마나 수행해야 하는지 그리고 언제 다른 process와 교체되어야 하는지 결정해야한다. 이것은 실제로 어떤 process가 다음에 수행되어야하는지에 대한 논점과는 다른 것이다. (다음 수행되어야 하는 것이 미리 결정되어 있진 않다) 이런 종류의 결정은 platform에 의존적이지 않다.(알고리즘에 결정된다는 뜻?)

□ process A에서 process B로 교체가 될 때, process B가 CPU 자원을 마지막으로 놓았던(release) 시점의 환경과 동일해야 한다.(당연한 얘기지만 B가 수행되었던 자원 등 상태를 어딘가에 저장해두어야 한다는 의미인듯) 예를 들어, CPU register 값과 virtual address의 구조등의 것들이 교체된 process가 가지고 있었던 것이어야 한다. 

후자의 내용은 CPU type에 매우 의존적이다.(가상 메모리의 구조나 cpu의 register 운영은 cpu architecture 마다 다른게 가지고 있다)그것은 C 언어 만으로 구현되기 어려우며 architecture의 assembler 에 도움을 받아야한다. (register 내용을 저장하고 복구하는 내용들은 순수 assembler로 구현되어 있다)

위의 두가지 작업은 scheduler라는 kernel의 subsystem이 관장하고 있다. scheduler 정책에 의해 각 process에게 CPU 시간을 할당하고 수행하게 한다. 이것은 process 교체 메카니즘과는 완전히 분리된 작업인 것이다. (task switch 관련해서는 다른 포인트인 듯)

2.1 Process Priorities
모든 process들이 똑같이 중요한 것은 아니다. process 우선순위는 여러 요구사항을 만족시키기 위한 임계점(Criticality classes)이 다르다. 임계점을 고려하는 부분에서 크게 두 분류로 나누어 보면, real time process와 non-real time process가 있다. 

□ Hard real-time process는 Process가 수행 완료되는 시간이 엄격히 제한적이다. 만약 항공기의 비행 조종 명령이 컴퓨터에 의해 처리된다면, 그 명령들은 최대한(물론 최대한이라고는 하지만 dead line이내에 수행이 되어야 한다는 뜻) 빨리 기계에 전달되어야 한다. 예를 들어, 만얀 항공기가 착륙지점에 다달았고, 조종사는 기수를 끌어내리기를 시도할 때, 컴퓨터가 몇초 늦게 명령을 전달하여 그 작은(?) 일을 진행했다. 그 때, 항공기는 아마도 땅에 뭍혀버리고 말것이다. Hard real-time process의 중요한 key point는 보장된 시간내에 그 명령이나 행동을 무조건 처리해야한다. 물론 이 보장된 시간은 특별히 짧은 시간만을 말하는 것이 아니다. 그 보다 더 시스템은 주어진 시간을 절대로 초과하지 않는다는 것을 보장해야 한다. 

Linux는 hard real-time processing을 지원하지 않는다.(적어도 vanilla kernel에서는..) 그렇지만, 수정된 리눅스 버전에서 지원되고 있다(RTLinux, Xenomai, RATI 등). 수정된Linux는 process를 분리하여 수행한다. 이는 kernel이 덜 중요한 software(process)를 real-time process 작업이 kernel 외부에서 수행되는 동안 처리하도록 한다.

Linux는 throughput(처리량)을 위해 최적화 되어 있고 가능한한 일반적인 경우를 처리하려고 노력한다. Linux에서는 보장된 응답 시간을 맞추는 것은 어려운 일이다. 그럼에도 불구하고 kernel 전체의 지연시간(요청하고 이행하는 사이의 시간)의 감소는 아주 조금씩 진전이 있어왔다. 이런 진전은 preemptible kernel mechanism(선점 커널 메카니즘), real-time mutexes, 새로운 completely fair scheduler 등으로 이루어 졌다. 이 책의 뒷 부분에 더 자세히 설명되어 있다. 

□ Soft real-time process는 hard real-time 보다 덜 강압적인(?) 형태이다. 비록 빠른 결과를 요구되는 것은 변함이 없지만, 조금 늦게 처리 된다고 하더라도 문제 될 것이 없는 것이다. CD에 data 쓰기를 하는 작업을 예로 들 수 있다. Data는 반드시 CD writer에게 연속적으로 기록해야하는 매체인 만큼 정해진 비율로 지속적으로 전달되어야 한다. 만약 시스템의 부하가 높아져서 Data 전송에 방해를 받게 된다면, CD를 사용할 수 없게 될 수도 있다. (이것은 위에 hard time의 예로 들은 비행기 추락보다는 낫다는 얘기이다). 이것 때문에라도(CD 를 못쓰게 하는 것을 방지) CD write process는 다른 process보다 그것이 요구하는 시간만큼 보장을 받게 해준다.

□ 대부분의 Process들은 특별한 시간 제한이 없는 "normal process"이다. 하지만 그것들에게 더 중요하고 덜 중요하다는 의미의 우선순위로 분류 하고 있다. 
예를 들면, 긴 시간의 컴파일 작업과 숫자 계산을 하는 process는 상대적으로 매우 낮은 우선순위는 가진다. 이유는, 1초 혹은 2초 동안 때때로 진행을 방해받더라도 결과에는 영향을 거의 미치지 않기 때문이다. 반대로 대화형 application(VIM 같은 편집기)는 가능한 빠르게 사용자 명령에 대한 응답을 보내줘야하기 때문에(사용자는 인내심이 없기로 유명하덴다) 높은 우선순위를 가진다. 

application의 CPU 시간은 그림 2-1에서 간단하게 보여 줄 수 있다. Process들은 하나의 시간 조각(time slice)에 나누어 위치하고 있고 각각 중요도에 따라 조각의 크기는 다르게 설정된다. 시스템의 시간 흐름에 따라 원을 돌며 Process를 실행하고 모든 process가 수행되기는 하지만, 중요한 Process들은 상대적으로 많은 시간을 얻어 수행시간이 길다. 

<그림 2-1>

선점 멀티태스킹(preemptive multitasking)이라고 알려진 방법은, 각 process는 수행되는 일정한 시간을 할당 받는다. 일단 그 시간이 만료되면, kernel은 process로 부터의 control을 그만두고 다른 process를 수행시킨다(여기서 다른 process는 이전 process에 의해 마지막으로 실행된 작업과는 무관하다). 시간의 만료된 process의 환경(특히, CPU register와 page table의 내용)은 꼭 저장되어 나중에 다시 복귀하여 실행 시 완전히 이전 상태로 돌아갈 수 있어야 한다. time slice의 길이는 process의 중요도에 따라 다르게 정해지게 된다. 그림 2-1과 같이 각각의 process들은 다른 크기의 slice를 가지고 있는 것을 확인 할 수 있을 것이다. 

이 단순화된 모델(그림 2-1)은 몇 가지 중요한 문제를 다루지 않은 것이다. 예를 들어, process들이 아직 실행 할 것이 없어 준비되지 않은 경우이다. 이 경우에 CPU 시간을 할당 했다고 해서 실행을 하면 아무 것도 하지 않고 시간만 까먹는 것이므로 효율적으로 사용하기 위해서는 이런 process들은 실행을 안 시키는 것이 좋다. <그림 2-1>에서는 모든 process가 실행 가능한 상태에서 CPU 자원을 대기중이라는 가정하에 시행한 것임을 알려드린다. 또 한가지는 Linux는 두가지의 scheduling class를 제공한다.(Completely Fair Scheduling, Real-time Scheduling) 

kernel 개발자들 사이에서는 scheduling의 일부인 다음 수행될 process를 선택하는 알고리즘에 대한 논의가 활발하다.(그만큼 중요하고 개발의 여지가 많아서 인듯). scheduler의 질적 향상에 대한 측정은 거의 불가능 하다. scheduler는 Linux System이 직면한 다른 많은 workload에 의해 생긴 요구사항을 해결 하기 위한 도전적인 과제일 것이다. 자동화된 조작을 위한 작은 embedded system에서는 대형 컴퓨터에서 요구되는 사항과는 많이 다를 것이다. 사실, scheduler code는 최근 두 가지 형태로 알아볼 수 있다. 

1. 2.5 version에서 개발 되는 동안, 기존의 scheduler를 대체하는 O(1) 대체하는 소위 O(1) scheduler 가 있다. 이 scheduler의 한가지 특별한 점은 System에 수행되고 있는 process 개수에 관계없이 상수시간에 다음 실행할 process를 선택할 수 있다. 이런 설계는 기존 scheduling 구조를 완벽히 바꾼 계기라고 할 수 있다.
2. Completely fair scheduling 은 kernel 2.6.23 버전까지 개발 진행되어 추가되었다. 이 새로운 코드는 기존의 원칙을 버리고 완벽한 시도가 되는 출발점이 된다.예를 들면, 이전 scheduler에서 요구된 것을 바탕으로 대화식의(vim program 등의 편집기) process는 응답시간을 빠르게 해주는 것이 된다. 이 scheduler의 중요한 포인트는 이상적인 fair scheduling 을 가능한 가깝게 구현하도록 노력했다는 것이다. 게다가 그것은 각각의 task들을 scheduling 할 뿐만 아니라, 더 일반적인 scheduling 단위에서도 잘 동작한다. 이는 다른 사용자들의 모든 process 간의 시간 분배와 각 사용자들이 사용하고 있는 process들 사이에서도 가능한 시간을 분배할 수 있도록 고려되어 있다. 

2-1 을 마무리 합니다. 틈틈히 읽어보고 수정사항이 있다면 변경하도록 하겠습니다.

Posted by cyj4369
,

2.3.2 Namespaces

 Namespace는 하나의 수행되는 시스템에 서로 다른 관점을 제공하는 것처럼 하는 lightweight 한 가상화의 형태를 제공하는 것이다. 이 매커니즘은 FreeBSD 의 jail 이나 Solaris의 zone과 비슷한 것이다. 

Concept
 전통적으로, Unix 계열의 시스템 뿐만아니라 Linux에서는 시스템이 가지고 있는 많은 자원을 전체적으로 관리한다. 예를 들어, 시스템에 있는 모든 process들은 그것들이 가지고 있는 PID 숫자로 확인되며, 이 PID 리스트는 커널에서 관리되어야 한다. 마찬가지로, uname system call로 반환된 시스템에 관한 정보는(kernel에 관한 약간의 정보와 system의 이름을 반환) 호출한 모든 사용자가 같은 값을 볼 수 있을 것이다. User ID 또한 이와 비슷한 방법으로 관리된다 : 각 user는 시스템에 유일한 UID 값을 가진다. 

uname -r : kernel version 확인
uname -a : system 정보 및 kernel 정보

User 의 ID는 kernel이 선택적으로 특정 권한에 대한 행동을 승인 혹은 거부를 한다. UID 0을 가진 root user는 기본적으로 모든 명령 및 행동이 가능하지만 0 이상의 값을 가진 UID는 제한적 기능만을 제공한다. PID n 의 값을 가진 user가 있다면, 자신의 pid n과 다른 m의 user가 실행 시킨 process는 시스템에서 제거할 수 없다. (ps -ef 명령으로 각 process의 pid와 uid를 확인할 수 있다). 물론 ps 명령어로 다른 사용자가 실행한 process는 확인 가능하다. User N은 다른 User M이 이 시스템에 활성화(사용하고 있는지)가 되어 있는지 볼 수 있다. 이것은 사용자가 자신이 가지고 있는 process들만 가지고 놀 수(?) 있는 한 다른 사용자가 가지고 있는 process를 관찰하는 것까지 막을 필요가 없기 때문에 아무 문제가 되지 않는다. 

 그러나 위의 경우를 원치 않은 경우가 있다. web 공급자가 고객들에게 Linux 시스템에 root 권한을 비롯한 모든 접근 권한을 주는 경우를 생각해 보자. 그렇다면 web service를 제공하는 고객들 한명당 하나의 linux 머신을 제공해야 하기 때문에 엄청난 비용이 든다. 그래서 KVM이나 VMware같은 가상화 환경으로 제공하면 이같은 문제를 해결 할 수 있지만, 이 가상화 방법은 시스템의 자원을 원할하게 분배하지 못하는 단점이 있다. 가상화 시스템은 각 고객들에게 분리된 kernel을 제공해야하는 것이 요구되며, 각 가상화 머신에 리눅스를 각각 설치를 해주고 설정을 완료해 줘야 한다. 

 다른 해결책으로는 namespace를 통해 가상화보다 적은 자원을 들여 같은 서비스를 제공할 수 있다. 하나의 물리적인 머신에 여러 커널을 수행하는 가상화 시스템(물론 서로 다른 운영체제를 수행하는데는 이 방법이 더 좋다)을 제공하는 대신에 하나의 물리적인 머신에 하나의 커널이 수행되고 namespace내부에 미리 모든 시스템의 자원을 추상화 해놓는 것이다. 이것은 하나의 container 에 process 그룹을 넣어두고 다른 container(물론 여기도 process 그룹이..)와는 완벽히 분리 해놓은 것이다. 이러한 분리는 하나의 container에 묶인 사용자들이 다른 container로의 연결을 할 수 없다. 그렇지만 container가 유지되는 동안 특정 경우에 다른 container와 공유하기 위해 그 container의 분리를 느슨하게(?) 할 수 있다. 예를 들어 container안의 PID 의 셋을 가지고 운영되지만, 서로 다른 container와 filesystem의 부분은 여전히 공유 될 수 있다. 

Namespace는 기본적으로 시스템의 다른 view를 생성한다. 모든 이전에 생성된 자원은 container data 구조체로 싸여져 있어야 하고 자원의 리스트 셋과 namespace에 포함하는 내용은 시스템 내부에서 유일해야 한다. 주어진 container 안에서 그 자원이 충분히 활용하고 있지만 외부에 그 자원의  고유 identity(예를 들어 PID, 아래의 예제확인)를 제공하지 않는다. (내부에서만 사용하고 운영한다는 얘기인듯.) 그림 2-3이 상황을 개략적으로 볼 수 있다. 

//그림 2-3  --> 나중에...

세 개의 서로 다른 namespace가 시스템이 있다고 생각해 보자. namespace는 계층적으로 연결될 수 있다고 고려되었다. 하나는 parent namespace이고 이는 두개의 child namespace를 생성했다. 이 container들은 각각 하나의 linux 머신에서 제공되는 것처럼 보이도록 하여 web 호스팅 설정을 할 수 있게 제공한다고 가정하자. 각 container에서는 각각 pid 가 0 인 init task를 가지고 있어야 하며 오름차순으로 생성된 다른 task들을 가지고 있어야 한다. 두 child namespace 내부에는 init task(PID == 0)인 것과 2, 3의 pid를 가지는 task가 있다.(그림 2-3) PID 값은 하나의 시스템에서 고유의 값을 가지므로 이런 식으로 container 내부에서 가지는 pid의 값은 시스템 전체에서 고유의 값이 될 수 없다. 

child container는 시스템의 다른 container에게 자신의 상태를 알려주거나 연결이 되지 않기 때문에 parent container에서 child 관련 정보를 취급해서 child 내부에서 실행되는 모든 process를 볼 수 있어야 한다. 그림 2-3 에서 parent 4~9번 process는 child의 process와 대응되어 있다. 비록 시스템에는 9개의 process들이 있는 것이지만 4~9번의 PID를 가진 process는 하나 이상의 PID를 가지기 때문에 실제적으로 15 개의 PID가 요구된다. 

Namespace는 만약 간결한 분량의 container를 포함하는 경우 비계층적 구조(위의 계층적 구조와는 다른)를 가질 수 있다.(UTS Namespace의 예제를 보면서 확인하자)

꽤나 오래전에 linux는 chroot 시스템 콜을 이용한 간단한 형태의 namespace를 지원하고 있었다.  이 방법은 filesystem의 특정 부분을 동작중인 process들이 root 디렉토리로 인식함으로써 설정된 디렉토리 밖에서 접근 하지 못하도록 진행하는 것이어서 이것 또한 namespace의 한 형태라고 볼 수 있다. 하지만 진정한 namespace는 단지 filesystem을 제어하는 것 이외에도 많은 것을 컨트롤 할 수 있도록 만들어 주는 것이다. 

namespace를 만드는 방법은 두 가지가 있다. 
1. 새로운 process가 fork나 clone 시스템 콜로 생성될 때, 특정 option으로 parent process와 namespace가 공유될 수 있도록 만들어 질 수 있다. 또는 새로운 namespace 가 생성될 수 있다. 

2. unshare 시스템 콜로 parent 로 부터 생성된 process를 분리하고 새로운 namespace를 할당 할수 있다. manual page 를 확인 하자(unshare(2))

관련 자료를 검색 중 찾은 간단한 예제로 확인해 보자
 
http://woodz.tistory.com/23 <-- namespace 의 간단한 실습 내용.

프로세스의 네임스페이스

-네임스페이스 정의

이름공간 또는 네임스페이스(Namespace) 개체를 구분할  있는 범위를 나타내는 말로 일반적으로 하나의 이름 공간에서는 하나의 이름이  하나의 개체만을 가리키게 된다.( http://ko.wikipedia.org/wiki/%EC%9D%B4%EB%A6%84%EA%B3%B5%EA%B0%84)

 

-프로세스에서의 네임스페이스의 의미

1. VFS에는 같은 파일시스템의 혹은 다른 파일시스템의 개별적 공간이 다수 존재 가능하다.

2. 다수의 프로세스가 개별적 파일시스템 공간들에 접근 가능하다.

3. 각각의 프로세스에 개별적으로 자신이 마운트한 파일시스템을 관리할 필요가 있다.

3. 독립적 파일시스템 공간에 대해 각각의 프로세스가 자신이 각각의 파일시스템에 접근한 정보를 관리하므로 여러 프로세스가 한 파일시스템에 접근하더라도 각 프로세시는 자신만의 파일시스템 접근정보(즉 책에서 이야기 하는 유일한 뷰)를 가진다.

4. 즉 프로세스의 네임스페이스는 VFS의 파일시스템들에 대해 프로세스별로 사용하고 있는 자신들의 파일시스템 개체를 구분하는 범위를 정의해 놓은 관리 모듈이라고 말할 수 있다.



Posted by cyj4369
,

SSH를 이용한 파일 복사는 scp 명령어를 통해서 이루어 진다.
# scp {계정}@{파일복사해올 컴퓨터ip주소}:{파일위치} {내컴퓨터저장위치}

예) # scp root@172.17.46.137:/root/rpm/* /opt
이는 172.17.46.137의 컴퓨터에 root의 권한으로 접근 /root/rpm/ 밑의 모든 파일들을 내컴퓨터의 /opt 폴더로 복사하는 것입니다

Posted by cyj4369
,

[RAID]

Embedded Lab/linux, x86 2012. 11. 21. 20:11

RAID : Redundant Array of Indexpensive Disk

 ● 1988년 미국 버클리대 컴퓨터 공학과에서 “A Case for Redundant Arrays of Inexpensive Disks  ”
   로 발표된 기술로, 여러개의 Disk에 일부 중복된 데이터를 나주어 저장하는 기술과  Disk용량 증가를 위한
  기술, 그리고 read/write 속도를 증가시키기나 데이터를 안전하게 백업하는데 사용하기도 하며, 
   RAID의 종류는 방법에 따라 여러개의 Level로 나눈다.

 ● 특징
    - 장애 발생요인을 최대로 제거한 고성능 무정지 저장장치
    - 여러개의 Disk를 하나의 가상 Disk로 구성, 대용량 저장 장치 구축 가능
    - 다수의 Disk에 Data를 분할, 병렬 전송함으로써 Data 전송속도 향상
    - System 가동 중 Disk Fault시에도 시스템 정지 없이 새로운 Disk로 교체하면서 Data 자동복구

1. RAID에 사용되는 기술

 1) Striping (스트라이핑)
  하나의 Disk에 모두 기록할 수 없는 Data를 여러개의 Disk에 분배 기록할 수 있는 기술로 
  큰 용량을 만들어 사용하는데 사용된다.

 2) Mirroring (미러링)
  '거울' 처럼 하나의 Disk를 또다른 Disk에 동시에 기록하는 기술로
  하나의 disk가 Fault 되어도 미러된 disk로 data를 안전하게 관리할 수 있다.
  
 3) Parity (패리티)
  Data의 오류검출 확인에 사용되는 기술


2. RAID의 종류

  1) RAID 0
    여러개의 Disk를 하나의 Disk처럼 사용
   

사용자 삽입 이미지


    장점 : I/O를 분산하고 Disk의 사용 용량을 증대할 수 있어 고용량 저장이 용이
             하며, RAID구성중 속도가 가장빠름.

    단점 : 스트라이핑 된 Disk중 한개의 Disk라도 손상되었을 경우 Data가 보장되지 않아
             Data의 안전성이 떨어짐


 2) RAID 1
   두개의 Disk에 중복하여 Data를 기록하여 DAta의 안정성 확보
 
사용자 삽입 이미지

    장점 : 각 Disk를 동시에 읽을 수 있어 읽기능력을 향상(두배), Data를 두개의 Disk에 기록 할 수 
            있어 하느의 Disk가 손상되어도 나머지 하나의 Disk에 Data가 남아있어 Data의 안전성 확보 가능.
             Multi user사용 적합

    단점 : 저장용량당 단가가 비싸 비용이 높고 쓰기능력은 향상되지 않음.


 3)  RAID 2
    error검출 능력이 없는 Disk를 위해 Hamming 오류정정코드를 사용
   모든 SCSI Disk가 ECC(에러검출기능)를 탑재하고 있기때문에 사용되지 않음
   
사용자 삽입 이미지


4) RAID 3 (Single Check Disk per Group RAID)
   Data 저장을 위한 Disk외에 하나의 Disk에 에러검출을 위한 패러티 정보를 저장하고,
   Disk에 장애가 발생하였을 경우 남아있는 Disk 들을 Exclusive OR (XOR)연산을 통해 복구
사용자 삽입 이미지

  장점 : 큰 용량의 Data를 안정적으로 기록시킬 때 용이 
          Single user, Single tasking 환경에 적합

  단점 : 적은양에  Data에는 비 효율적


5) RAID 4 (Independent Disk Array)
   하나의 Disk에 패러티 정보를 저장하고, 나머지 Disk들에게 Data를 저장
   어느 한 disk가 손상되어도 패러티 정보가 있는 Disk로 복구 가능
사용자 삽입 이미지

   장점 : 큰 Data의 전송시간을 줄일 수 있음
 
   단점 : 모든 Disk에서 I/O발생 병목현상 발생(패러티 정보갱신), 패러티 Disk도 같이 손상시 복구 어려움


6) RAID 5 (Rotating Independent Disk Array)
   하나의 Disk에 패러티 정보를 모두 저장하지 않고, 
   모든 Disk에 패러티 정보를 분산 기록하여 패러티를 담당하는 Disk에 병목현상을 해결
사용자 삽입 이미지

   장점 : 멀티프로세서 시스템과 같이 Data가 작은 기록이 잦을 경우 용이 (Hot Plug 가능)

   단점 : Data를 Read만 할 경우 속도가 느림, 3개 이상의 Disk 필요
             두개이상의 Disk가 Fault될 경우 Data의 안전성을 보장할 수 없음.


7) RAID 0+1 (Stripe then Mirror - High Data Transfer Performance)
   네개 이상의 Disk를 2개씩 RAID 0(스트라이핑)구성하고 다시 RAID 1(미러링)으로 구성
     Disk1
               > RAID 0 (스트라이핑)
    Disk2
                                            > RAID 1 (미러링)
    Disk3
                > RAID 0 (스트라이핑)
    Disk4

    장점 : RAID 0 와 RAID 1의 장점만을 수용하여 구성, 안정성과 속도증대를 동시에 만족.
             공통 O/S 실행과 같은 시스템에 적합

    단점 : 디스크 저장 효율성이 떨어지고 비용이 바싸짐.
             한그룹에 RAID 0(스트라이핑)된 디스크가 두개가  Fault 될 경우 Data의 보장 어려움


8) RAID 1+0 (Mirror then Stripe - High Data Transfer Performance)
  RAID 0+1의 단점인 Data의 안정성 미흡(두개이상 Disk가 Fault될 경우 전체 구성이 깨지는 문제)를
  보안한 기술.
 네개 이상의 Disk를 2개씩 RAID 1(미러링)구성하고 다시 RAID 0(스트라이핑)으로 구성  
사용자 삽입 이미지



  9) RAID 6 (InIndependent Data disks with two independent distributed parity schemes)

사용자 삽입 이미지


RAID 5 
방식는 하나의 패리티를 사용하지만 RAID 6 방식은 두개의 패리티를 사용하므로 두개의 드라이브 장애 시에도 데이터의 복구가 가능하다.
  읽기에서는 RAID 5 방식과 큰 차이는 없으나 쓰기 작업의 구현이 아주 복잡하다.



  10) RAID 7 
        (
Optimized Asynchrony for High I/O Rates as well as High Data Transfer Rates )


사용자 삽입 이미지


  11) RAID 10 (Very High Reliability combined with High Performance)

사용자 삽입 이미지


  12) RAID 53 (High I/O Rates and Data Transfer Performance )

사용자 삽입 이미지


3. RAID TYPE Level Safe & Speed
   
   1) RAID TYPE 
    
사용자 삽입 이미지

  2) Safe : RAID 1 > RAID 5 > RAID 1+0 > RAID 0+1 > RAID 0

  3) Speed : RAID 0 > RAID 0+1 / 1+0 > RAID 5 > RAID 1

'Embedded Lab > linux, x86' 카테고리의 다른 글

[리눅스 namespace]  (0) 2012.12.02
[SSH를 이용한 파일 복사]  (0) 2012.11.21
[우분투에서 NTFS로 빠른포맷하기]  (0) 2012.11.18
[우분투에서 NTFS 포맷하기]  (0) 2012.11.18
[디바이스 파일이란?]  (0) 2012.11.07
Posted by cyj4369
,
[2012-11-17 12:13:50]root@ubuntu:/media# mkfs.ntfs -c /dev/VG_16_8_4/LV_16_8_4
Cannot understand the cluster size '/dev/VG_16_8_4/LV_16_8_4'.

Usage: mkntfs [options] device [number-of-sectors]

Basic options:
    -f, --fast                      Perform a quick format
    -Q, --quick                     Perform a quick format
    -L, --label STRING              Set the volume label
    -C, --enable-compression        Enable compression on the volume
    -I, --no-indexing               Disable indexing on the volume
    -n, --no-action                 Do not write to disk

Advanced options:
    -c, --cluster-size BYTES        Specify the cluster size for the volume
    -s, --sector-size BYTES         Specify the sector size for the device
    -p, --partition-start SECTOR    Specify the partition start sector
    -H, --heads NUM                 Specify the number of heads
    -S, --sectors-per-track NUM     Specify the number of sectors per track
    -z, --mft-zone-multiplier NUM   Set the MFT zone multiplier
    -T, --zero-time                 Fake the time to be 00:00 UTC, Jan 1, 1970
    -F, --force                     Force execution despite errors

Output options:
    -q, --quiet                     Quiet execution
    -v, --verbose                   Verbose execution
        --debug                     Very verbose execution

Help options:
    -V, --version                   Display version
    -l, --license                   Display licensing information
    -h, --help                      Display this help

Developers' email address: linux-ntfs-dev@lists.sf.net
Linux NTFS homepage: http://www.linux-ntfs.org

[2012-11-17 12:14:51]root@ubuntu:/media# mkfs.ntfs -f /dev/VG_16_8_4/LV_16_8_4
Cluster size has been automatically set to 4096 bytes.
Creating NTFS volume structures.
mkntfs completed successfully. Have a nice day.


'Embedded Lab > linux, x86' 카테고리의 다른 글

[SSH를 이용한 파일 복사]  (0) 2012.11.21
[RAID]  (0) 2012.11.21
[우분투에서 NTFS 포맷하기]  (0) 2012.11.18
[디바이스 파일이란?]  (0) 2012.11.07
[인텔 architecture 에서 microblaze용 gcc 설치]  (0) 2012.11.06
Posted by cyj4369
,

우분투에서 NTFS 포맷하기

apt-get install ntfsprogs

'Embedded Lab > linux, x86' 카테고리의 다른 글

[RAID]  (0) 2012.11.21
[우분투에서 NTFS로 빠른포맷하기]  (0) 2012.11.18
[디바이스 파일이란?]  (0) 2012.11.07
[인텔 architecture 에서 microblaze용 gcc 설치]  (0) 2012.11.06
[LVM(Logical Volume Manager)]  (0) 2012.11.01
Posted by cyj4369
,

한마디로...


엔드유저가 기술적인 부분을 모르더라도 하드웨어 디바이스에 접근할 수 있도록 돕는 것

다시 말해, 파일이 보통 파일로 보이기 위한 일을 하는 디바이스 드라이버를 위한 인터페이스. 디바이스 파일은 일반 프로그램이 스탠다드 아이오 시스템콜을 이용해 디바이스 드라이버와 소통할 수 있도록 도와준다.

버투얼 터미널, 터미널, 시리얼 모뎀 등의 캐릭터 단위로 소통하는 캐릭터 디바이스와 하드디스크, 씨디롬과 같이 블록 단위ㅣ 소통하는 블록 디바이스로 나뉜다.

모든 디바이스 파일은 /dev에 있다.


Posted by cyj4369
,

Microblaze GNU Tools 

The MicroBlaze toolchain contains all of the compiler and support libraries you need to build executables and libraries for a MicroBlaze architecture. 

인텔 cpu를 사용했기 때문에 여기에서 나는 little endian으로 적용한다.

Little Endian Tools And Ramdisk Image

Getting The Little Endian Tools And Ramdisk Image

bash> git clone git://git.xilinx.com/xldk/microblaze_v1.0_le.git


Configuration Of The Little Endian Tools

tar xvzf microblazeel-unknown-linux-gnu.tar.gz


Set the path to access the tools and setup the environment variable for the Linux kernel build process with the following commands.

환경변수를 설정해준다. make 때리면 mb-gcc로 하게 되어있는데 이걸 microblazeel-unknown-linux-gnu-gcc바꿔준다.

export PATH=<dir where tools are untarred>/microblazeel-unknown-linux-gnu/bin:$PATH

export CROSS_COMPILE=microblazeel-unknown-linux-gnu-


===========================================================


Cloning The U-boot Tree

The following command will clone the u-boot-xlnx repository.

bash> git clone git://git.xilinx.com/u-boot-xlnx.git

bash> cd u-boot-xlnx


The following command will switch to the Microblaze branch.

bash> git checkout -b microblaze origin/microblaze


Building U-boot

Assuming the tools are setup correctly with CROSS_COMPILE as specified at MicroBlaze GNU Tools.

In the u-boot directory, the following commands will build it for the SP605 board. The xparameters.h in the microblaze-generic board are setup for the SP605 board with the Xilinx reference design.

bash> make microblaze-generic_config

bash> make


Posted by cyj4369
,



LVM(Logical Volume Manager) on Linux

필자 : 서기현(nefsall@kldp.org)
데비안-kr 개발자

 

     

    Linux의 쓰임새가 점차 대형화, 고속화를 요구하게 되면서, 많은 부분이 그에 맞추어 향상되고 있다. 64 Bit 프로세서, 기가바이트(Giga Byte : 2^30 Byte)대의 메모리, 기가비트급 네트웍, 테라바이트(Tera Byte : 2^40 Byte) 심지어 페라바이트(Pera Byte : 2^50 Byte) 규모의 파일시스템... 이루 말할 수 없는 변화가 시시각각 일어나고 있다.

    올해 초, Linux Kernel 2.4 가 발표되면서 많은 기능 향상과 추가가 이루어졌다. 위에 언급한 기업수준의 규모를 어느 정도 만족시킬 수 있게 되었다. 그중에 눈에 띄는 것이 바로 LVM를 기본으로 지원한다는 것이다.

 

1. LVM 이란?

    LVM 은 Logical Volume Manager 의 약자로서, 저장장치들을 좀더 효율적이고 유연하게 관리할 수 있는 커널의 부분과 프로그램을 말한다. 처음에는 IBM에서 개발되었는데, 그후에 OSF(현재는 OpenGroup http://www.opengroup.org)에서 차용을 하여 OSF/1 operating system 에서 쓰였다. 지금은 HP-UX, Digital Unix operating system, AIX 등의 상용 유닉스에서 쓰고 있다. 리눅스 버전은 현재 HP-UX의 것을 모델로 하여 Sistina Software 사(http://www.sistina.com)에서 open source로 개발하고 있다.

    LVM 을 이해하려면 먼저 Software RAID (Redundant Array of Inexpensive Drives)를 언급해야 하는데, 이 둘은 비슷하면서도 큰 차이가 있다. 
    비슷한 점은 여러 물리적인 디스크들을 하나의 논리적인 디스크처럼 다룰 수 있게 함으로서 조합방법에 따라 고용량, 고속, 데이터의 무결성을 실현하는 점이다. 
    하지만 분명하게 다른 점이 있는데. lvm은 raid보다 관리 및 확장이 비교적 쉬운 반면, raid에는 lvm에는 없는 disk mirroring(RAID level 1), Parity Stripe (RAID level 4,5) 등의 방식이 있어서 속도 또는 데이터의 무결성을 보장 받을 수 있다.

    그러나 이런 차이점에도 불구하고 lvm가 주목을 받는 이유는 다음과 같다.

    ·쉬운 관리. 
    ·서로 다른 많은 디바이스 조합 지원. 
    ·직관적인 저장 장치로의 접근. 
    ·뛰어난 확장성.
    ·믿을만한 안전성과 효율. 
    ·스냅샷 기능 지원.  

    이와 같은 특징들로 인해 사용자들이 얻는 이득은 많다.

    우선, pc 급 시스템 사용자들의 가장 큰 고민 중의 하나가 시스템을 처음 설치할 때에 파티션의 구성을 어떻게 할 것인가 일 것이다. 파티션은 한번 구성해 놓으면 바꾸기가 쉽지 않기 때문이다. 또 파티션이 가득 차기라도 하면 어렵게 백업을 하거나 눈물을 머금고(?) 자료를 지워야 할 경우도 심심치 않게 생기기 마련이다. 하지만 LVM를 쓰면 간단하게 저장공간을 확장, 축소 할 수 있기 때문에 그런 고민을 덜 수 있다.

    다른 예로, 중소형 서버에서는 비교적 적은 비용으로 대용량 저장 장치를 구현하는 것이 가능해진다. 그리고, 백업 없이 기존의 환경을 유지한 채 확장이 가능하기 때문에 (물론 백업은 *언제나* 중요하다.) 유지보수면에서 상당한 이득이 있을 것이다.

 

2. 기본 지식

    일반적으로 유닉스 시스템에서 저장 장치를 쓰는 방법은 그 장치의 블록 디바이스(Block Device)에 파일 시스템 (File System)을 만들어서 (다른 표현으로는 포맷(Format)한다라고 하지만 유닉스의 세계에서는 잘 쓰지 않는다.) 디렉토리에 마운트 시키는 것이다. 예를 들어, 두번째 버스의 프라이머리 ide 디스크의 첫번째 파티션에 reiserfs 파일 시스템을 만든 후, /debian/ftp 라는 디렉토리에 마운트를 시킨다면 다음과 같은 절차를 밟을 것이다.

    # mkfs -t reiserfs /dev/hdc1 
    # 화면에 나오는 질문에 y 라고 답변
    # mount -t reiserfs /dev/hdc1 /debian/ftp

    lvm을 써도 마찬가지 절차를 밟는다. 단지, 실제 블록 디바이스가 아닌 가상의 블록 디바이스를 쓴다는 점이 틀리다.








    < 그림 1 >
    실제적으로 lvm은 커널에서 파일 시스템과 블록 디바이스 사이에 위치하여 동작한다. 일반적인 방식과 lvm에 의해 동작하는 방식의 차이는 <그림1>에 잘 나타나 있다.

    lvm의 동작 방식의 이해와 활용을 위해서는 몇 가지 용어에 대한 사전지식이 필요하다.

    1)  VG, PV, LV

    VG(Volume Group)은 LVM의 가장 기본적인 요소이다. 쉽게 말하자면 가상 디스크라고 할 수 있는데, 하나 이상의 실제 물리적으로 존재하는 블록 디바이스가 모여서 VG를 이루게 된다.

    그 물리적인 블록 디바이스를 PV(Physical Volume)라고 하는데, 거의 대부분의 장치를 PV로 쓸 수 있다. 하드디스크 및 그 파티션, 소프트웨어/하드웨어 RAID 장치, 심지어 Loopback 블록 디바이스(파일 시스템상의 파일을 블록 디바이스처럼 쓸 수 있게 해준다)까지도 말이다.

    PV와 대비되는 것이 LV(Logical Volume)이다. 이것은 가상 파티션이라고도 할 수 있는데, VG를 적당히 나누어 할당한 것이 LV이다. 사용자는 LV를 일반 디스크나 파티션처럼 쓰면 된다.

    정리하자면, <그림2>를 보면 알 수 있듯이, 하나 이상의 PV가 모여 VG를 이루고, VG를 가상적으로 나누어 할당하면 LV이 된다.

    < 그림 2 >
    참고적으로, 한 시스템에서 VG는 최대 99개까지 만들 수 있고, 하나의 VG에는 PV, LV 모두 최대 256개까지 할당할 수 있다.

    2)  PE와 LE

    PE(Physical Extent)와 LE(Logical Extent)는 각각 물리적 할당단위와 논리적 할당단위를 뜻한다. 이 둘은 물리적인 위치나 크기는 같다. 
    그러므로 PE가 LV에 할당되면 LE가 된다라고 볼 수 있다.

    <그림3>를 보면 PE, LE의 관계가 잘 설명되어 있다.

    < 그림 3 >

    VG를 나누어 LV로 할당할 때 LVM은 하드디스크의 섹터처럼 작은 단위로 하지 않고 적당한 크기의 PE로 하게 된다. 그 이유는 할당단위가 극히 작으면, 할당정보가 엄청나게 커지고, 그에따라 시스템의 성능도 느려질 것이다. 또한 할당할 수 있는 크기에도 한계가 생길 것이다. PE의 크기는 VG를 만들 때에 정해지는데, 그에 따라서 VG의 최대 크기가 정해진다. 하나의 VG에는 65536개까지 PE를 할당할 수 있고, PE의 크기는 최소 8KB에서 2배씩 늘어나 최대 512MB까지이다. 그러므로 VG의 최대 크기의 범위는 최소 512MB(8KB x 65536)에서 최대 32TB(512MB x 65536)일 것이다.

    3)  VGDA

    PV의 앞 부분에는 VGDA(Volume Group Descriptor Area)라는 부분이 있어서 VG의 모든 정보가 기록된다. 같은 VG에 속해 있는 PV들은 VGDA의 내용이 같다.

    그 내용은, VG의 이름, 상태, 속해있는 PV, LV들, PE, LE들의 할당 상태 등이다. LVM은 이 VGDA 를 참조하고, 갱신하면서 모든 일을 수행한다.

    4)  Linear Mapping LV 와 Striped Mapping LV

    앞서 언급한 대로 LVM은 소프트웨어 RAID를 어느 정도는 대체할 수 있다. lvm에서는 두 가지 방식으로 LV를 만들 수 있는데, Linear RAID 와 대응되는 Linear Mapping 방식과 RAID Level 0 과 대응되는 Striped Mapping 방식이 그것이다.  

    두 방식의 차이점은 두개 이상의 비어있는 PV를 가지고 있는 VG에 LV를 할당할 때에, PE를 어떻게 배치시키는가 이다.

    Linear Mapping 방식은 일반적인 것으로써, PE를 순차적으로 할당시킨다. 예를 들어 <그림4>의 왼쪽 그림을 보면, 각각 3개의 PE가 있는 PV1, PV2으로 이루어진 VG1에 4개의 LE를 가진 LV1을 할당한다고 할 때에, LVM은 먼저 PV1에 3개의 PE를 순차적으로 할당하고 나머지 1개의 PE는 PV2에 할당한다.

    반면, Striped Mapping 방식은 <그림4>의 오른쪽 그림에 나타나 있듯이, 위에서와 같은 환경으로 할당한다고 할 때에, PE는 적당한 크기의 조각들(stripes?)로 나누어진다. LVM는 그것을 두 PV에 분산하여 할당하게 된다. 그러므로 두 PV들에 할당된 PE의 갯수는 같다.

    Striped Mapping 방식의 목적은 두개 이상의 PV를 동시에 읽고 씀으로서, 속도 향상을 바랄 수가 있다는 것이다. 물론, PV들이 서로 독립적인 장치이어야지, 같은 장치 내의 파티션들이라면 오히려 역효과가 날 것이다.

    5)  Snapshots  

    규모가 큰 시스템에서 서비스의 중지없이 백업을 할 때에 가장 큰 문제점이 백업도중에 데이터가 변경되는 것이다. 그러면 백업 자체가 무용지물이 될 수도 있기 때문이다.

    그런 문제를 해결하려면 어느 시점에 데이터가 변경되지 못하게 고정시키는 것인데, 그런 기능을 구현한 것이 Snapshot LV이다.

    Snapshot LV는 기존의 LV를 복사하며 별도의 읽기 전용의 LV를 만드는 것이기 때문에, 데이터 변경을 걱정하지 않고 백업을 마칠 수 있을 것이다.  

     

3. 준비사항

    1)  Kernel  

    커널 2.4 대에는 기본적으로 LVM이 들어가 있어서 동작이 가능하게 커널 설정을 하고 다시 컴파일 해주면 된다. 커널 성정은 “Multi-device support (RAID and LVM)”에 있으므로 커널 안에 넣도록할 수도 있고, 모듈로 뺄 수도 있다. 참고적으로 모듈 이름은 ‘lvm-mod.o’이다. 커널 2.2 대에서도 패치를 적용하면 사용이 가능한데, 필자는 시험하지 못했다. LVM Tools tarball의 PATCHES 라는 데렉토리에 있는 README를 읽고 시도해보기 바란다. 또 lvm 패치 이외에 raw-io 패치가 필요한 데, 다음의 사이트에서 각 커널에 맞는 패치를 구할 수 있다.  

    http://www.kernel.org/pub/linux/kernel/people/sct/raw-io

    새로운 커널로 부팅 한 후에 lvm을 사용할 수 있는지 확인을 하려편 /proc/lvm 이라는 디렉토리가 있는지 확인하면 된다.

    2)  Tools

    LVM가 동작하려면 커널의 지원 이외에 프로그램이 필요하다. 다음의 사이트에서 구할 수 있다.

    ftp://ftp.sistina.com/pub/LVM

    설치는 너무도 간단하다. tarball을 푼 후에, 만들어진 디렉토리에 들어가서 다음의 명령을 입력하라.

    # ./configure && make && make install

    혹시라도 프로그램을 지우고 싶다면.

    # make remove  

    Debian의 경우에는 Main FTP에 패키지가 있으므로 다음과 같은 명령으로 설치할 수 있다.

    # apt-get install lvm  

    3)  초기화 스크립트

    커널과 프로그램이 준비되었다면 이제 부팅시나 셧다운시에 자동으로 lvm을 활성화, 비 활성화 시킬 수 있게 고쳐줘야 한다. 각 배포판 마다 초기화 스크립트가 다르지만 들어가야 할 명령은 모두 같다.

    LVM을 활성화 시키려면,

    # vgscan
    # vgchange -a y

    비활성화 시키려면,

    # vgchange -a n

    * Debian : 패키지로 설치했다면 이 과정은 필요하지 않다. 하지만 소스로 직접 설치했다면 아래의 절차를 따라야 한다.

    먼저 다음과 같은 내용으로 /etc/init.d/lvm를 작성한다.

    --
    #!/bin/sh

    case "$1" in
      start)
            /sbin/vgscan
            /sbin/vgchange -ay
            ;;
      stop)
            /sbin/vgchange -an
            ;;
      restart|force-reload)
            ;;
    esac

    exit 0
    --

    그리고 다음의 명령을 실행해준다.

    # chmod 0755 /etc/init.d/lvm
    # update-rc.d lvm start 26 S . stop 82 1 .

    * Redhat : /etc/rc.d/rc.sysinit에서 ‘Mount all other filesystems’라는 문구의 바로 전에
       활성화시키는 명령을 넣는다.

    또 /etc/rc.d/init.d/halt에 비활성화시키는 명령을 넣는다.

    * Slackware  : /etc/rc.d/rc.S를 다음과 같이 고친다. 아래의 내용 이후에,

    # Remount the root filesystem in read-write mod
    eecho “Remounting root device with read-write enabled.”
    /sbin/mount -w -v -n -o remount /

    다음과 같은 내용을 추가한다.

    # This was an addition, limits vgscan to /proc thus
    # speeding up the scan immensely.
    /sbin/mount /proc

    # Initialize Logical Volume Manager
    /sbin/vgscan
    /sbin/vgchange -ay

    그리고 ‘/sbin/mount -a’를 다음과 같이 고친다.

    # mount file systems in fstab 
    (and create an entry for /)
    # but not NFS because TCP/IP is not yet configured
    /sbin/mount -a -v -t nonfs,proc  

 

4. 실제적인 작업

    이제 본격적으로 LVM를 다루어 보도록 하자.

    1)  PV 초기화

    먼저 제일 처음에 해야 할 작업이 블록 디바이스를 PV로 초기화하는 것이다. PV이 될 수 있는 장치로는, 하드 디스크 (/dev/hda, /dev/sda, ...), 하드디스크의 파티션 (/dev/hda1, /dev/sda1, ...), 소프트웨어 RAID 디바이스 (/dev/md0, ...), Loopback 디바이스 (/dev/loop0, ...) 등이 있다.  

    그러나 하드디스크의 경우 사전 작업을 해야 한다. 만약 파티션을 PV으로 만들 경우 그 파티션의 System ID가 0x8e 이어야 한다. 간단히 fdisk를 사용해서 /dev/hda2를 바꾼다면 다음과 같을 것이다.

    # fdisk /dev/hda
    Command (m for help): t
    Partition number (1-6): 2
    Hex code (type L to list codes): 8e
    Changed system type of partition 2 to 8e (Linux LVM)

    Command (m for help): w

    그리고, 파티션을 나누지 않고 하드디스크 전체를 PV로 만들려고 할 때에, 파티션 정보가 기록되어 있다면 PV로 만들어지지 않을 것이다. 파티션을 fdisk등으로 전부 지워도 마찬가지인데 해결 방법은 dd등의 명령으로 파티션 정보를 깨끗히 지워주면 된다. 예를 들면 다음과 같다.

    # dd if=/dev/zero of=/dev/sda bs=512 count=1

    (**주의** 위의 명령은 한순간에 파티션 정보를 날리는 방법이다. 사용상의 특별한 주의가 필요하다.)

    PV 를 만드는 명령은 pvcreate인데 사용법은 간단하다. 아래는 그 사용의 예이다.

    # pvcreate /dev/hda2
    pvcreate -- physical volume “/dev/hda2”
    successfully created

    추가적으로, 권장하는 것은 특별한 이유가 없으면 하나의 하드디스크에는 두개 이상의 PV를 만들지 않는 것이 좋다. 관리적인 면이나 효율적인 면에서 이득이 많기 때문이다.

    2)  VG 만들기, 이름 바꾸기, 지우기

    만들어진 PV들을 합쳐서 하나의 VG로 만드는 명령은 vgcreate이다. 
    아래는 그 예이다.

    # vgcreate -s 16m new_vg /dev/sda /dev/sdb /dev/sdc

    위의 명령은 세개의 SCSI 디스크를 합쳐서 new_vg라는 VG를 만든다는 것이다. 
    옵션 ‘-s 16m’은 PE의 크기를 16MB로 정하는 것인데, 만약 옵션 ‘-s’가 생략되면 기본적으로 PE의 크기는 4MB가 된다.  

    VG가 만들어지면 /dev/VolumeGroupName라는 형식으로 디렉토리가 생기게 된다. 위의 예에서는 /dev/new_vg 가 될 것이다.

    VG의 이름을 바꾸려면 vgrename 이라는 명령을 아래와 같이 쓰면 된다.

    # vgrename new_vg vg00

    VG에 LV가 남아있지 않고 비활성화되어 있으면 vgremove로 지울 수 있다. 비활성화시키는 방법은,

    # vgchange -a n vg00

    이고, 다음의 명령으로 지워진다.

    # vgremove vg00

    3)  VG 확장시키기, 축소시키기

    VG의 확장과 촉소는 PV의 추가, 제거로 이루어진다.

    VG에 PV를 추가하는 명령은 vgextend인데, vg00이라는 VG에 PV인 /dev/hda2를 추가하려면 다음과 같이 실행해야 한다.

    # vgextend vg00 /dev/hda2

    PV를 VG에서 제거하는 명령은 vgreduce이다. 그러나 PV에 PE가 할당되어 있으면 제거되지 않는다. 그 할당된 PE를 다른 PV로 옮겨야 제거될 것이다. 빈 PV인 /dev/hda2를 vg00에서 제거하려면,

    # vgreduce vg00 /dev/hda2

    4)  LV 만들기, 이름 바꾸기, 지우기

    VG에 LV를 만들면 /dev/VolumeGroupName/LogicalVolumeName의 형식으로 블록 디바이스가 만들어진다. 이것은 일반 블록 디바이스와 다를 바 없는 용도로 쓸 수 있다.

    LV 를 만드는 명령은 lvcreate인데 일반적인 예는 다음과 같다.

    # lvcreate -L 4g -n data vg00

    위의 명령은 4GB 크기로 vg00이라는 VG에 data라는 새로운 LV를 만드는 것이다. 옵션 ‘-L’은 LV의 크기를 지정하는 것인데, 숫자 뒤의 접미사에 따라 숫자의 단위가 달라진다. k는 KB, m은 MB, g는 GB, t는 TB를 뜻한다. 만약, 접미사가 안 붙어있으면 숫자의 단위는 MB가 된다. ‘-L’ 대신 ‘-l’를 쓸 수도 있는데, ‘-l’ 뒤에는 LE의 갯수를 쓰면 된다.

    LV의 이름을 바꾸는 것은 아래의 명령처럼 간단하고,

    # lvrename /dev/vg00/data /dev/vg00/db

    지우는 것 또한 간단하다.

    # lcremove /dev/vg00/db

    5)  LV 확장시키기

    LV를 확장시키는 명령은 lvextend 인데, 다음은 그 예이다.

    # lvextend -L +2g /dev/vg00/db

    위의 명령은 /dev/vg00/db의 크기를 2GB 만큼 늘린다. 기존의 크기가 4GB 였다면, 옵션 ‘-L 6g’를 줬어도 같은 결과를 보일 것이다. 역시 여기에서도 옵션 ‘-l’를 쓰면 LE 단위로 늘릴 수 있다.

    LV의 크기가 커졌어도 파일 시스템에는 영향을 주지 않으므로 파일 시스템 고유의 툴을 이용하여 확장 해주어야 한다. 
    한 가지 주의해야 할 것은 이렇게 크기를 늘릴 때 순서를 뒤바꾸면 절대 안 된다는 것이다. LV 확장 다음에 파일 시스템의 확장이다.

    다음은 파일 시스템 별 확장 방법이다.

    * ext2 : ext2 파일 시스템의 크기를 바꿀 수 있는 명령으로는 resize2fs이 있는데, e2fsprogs 1.19버전 이상에는 기본적으로 포함되어 있다. 그 이하의 버전을 쓴다면 ext2resize라는 프로그램을 다음의 사이트에서 구할 수 있다.

    http;//ext2resize.sourceforge.org

    다음은 일반적인 ext2 의 확장 절차이다.

    # umount /var/lib/mysql
    # lvextend -L +10g /dev/databases/mysql
    # resize2fs /dev/databases/mysql
    # mount /dev/databases/mysql /var/lib/mysql

    LVM tool에 포함되어있는 e2fsadm을 쓰면 LV 확장과 파일 시스템의 확장을 동시에 할 수 있다. 다음의 명령은,

    # e2fsadm?L +10g /dev/databases/mysql

    다음의 두 명령과 같다.

    # lvextend -L +10g /dev/databases/mysql
    # resize2fs /dev/databases/mysql

    * reiserfs : reiserfs는 resize_reiserfs 라는 명령으로 크기를 바꿀 수 있다.

    마운트된 상태에서도 크기를 늘릴 수 있는데, 그 예는 다음과 같다.

    # lvextend -L +5g /dev/devel/cvs
    # resize_reiserfs -f /dev/devel/cvs

    언마운트해서 늘리려면 다음 같이 한다.

    # umount /var/cvs 
    # lvextend -L +5g /dev/devel/cvs
    # resize_reiserfs -f /dev/devel/cvs
    # mount /dev/devel/cvs /var/cvs

    6)  LV 축소시키기

    lvreduce는 LV의 크기를 줄이는데, 늘릴 때와 마찬가지로 파일 시스템과 별개로 이루어지므로 데이터를 잃어버릴 수 있으니 상당히 조심해야 한다.

    작업의 순서는 확장할 때와는 반대로, 파일 시스템의 축소 다음에 LV의 축소이다.

    각 파일 시스템 별 축소 방법이다.

    * ext2 : e2fsadm 을 쓰는 것이 간단하다.

    # umount /home
    # e2fsadm -L -2g /dev/vg00/home
    # mount /dev/vg00/home /home

    * reiserfs : 크기를 늘릴 때와는 달리 마운트 된 상태에서는 줄일 수 없다.

    # umount /usr
    # resize_reiserfs -s -1g /dev/vg00/usr
    # lvreduce -L -1g /dev/vg00/usr
    # mount /dev/vg00/usr /usr

    7)  설정의 백업과 복구  

    LVM Tool들은 기본적으로 몇몇을 제외하고 동작 전의 설정상태를 자동으로 백업해둔다.(절대 데이터의 백업이 아니다!) 그 백업파일들은 /etc/lvmconf 라는 디렉토리에 VolumeGroupName.conf{,.[0-9].old}라는 이름으로 만들어진다. 뒤에 번호가 붙어있지 않은 것은 현재의 설정 내용이고, 그 번호가 클수록 오래된 내용이다. 그러므로 바로 전의 설정 내용을 담고 있는 파일에는 이름 뒤에는 .1.old가 붙어있다.

    먼저 설정 백업 파일의 내용을 보려면 다음과 같이 한다.

    # vgcfgrestore -f /etc/lvmconf/vg00.conf.1.old -ll -n vg00

    이 파일을 이용해 설정을 복구하려면 다음과 같이 한다.

    # vgchange -a n vg00
    # vgcfgrestore -f /etc/lvmconf/vg00.conf.1.old -n vg00 
    # vgchange -a y vg00

 

5. 활용

    몇 가지 유용한 활용 예를 보이겠다.

    1)  두개의 ide disk를 하나의 striped mapping LV로 묶기

    80GB 짜리(실제는 약 76.1GB) IDE 하드디스크 두 개를 striped mapping LV 로 묶는 과정이다.

    먼저 블록 디바이스 이름이 /dev/hde, /dev/hdf 인 디스크들을 PV로 만든다.

    # pvcreate /dev/hde /dev/hdf

    그렇게 만든 PV들을 합쳐서 VG를 만든다.

    # vgcreate vg00 /dev/hde /dev/hdf  

    이제 VG에 LV를 만든다.

    # lvcreate -i 2 -I 4 -L 152g -n striped_lv vg00

    위의 명령으로 152GB 짜리 striped mapping LV가 만들어진 것이다. 옵션을 설명하면 ‘-i 2’는 두개의 PV를 striped 하는데 쓰고, ‘-I 4’는 PE를 4KB로 쪼개서 PV들에게 저장한다는 것이다. ‘-I’ 옵션에는 2^n (0 <= n <= 7), 즉 1, 2, 4, 8, 16, 32, 64, 128 의 숫자를 쓸 수 있다.
    파일 시스템을 만들고, 마운트를 해서,

    # mkreiserfs /dev/vg00/striped_lv
    # mount /dev/vg00/striped_lv /mnt

    bonnie++ 등의 벤치마킹 프로그랭으로 시험해본 결과, linear mapping LV보다 약 1.5배에서 1.8배까지 속도의 차이가 있었다. 물론 억세스가 많아지면 어떻게 되는지는 필자도 시험을 못했다.

    2)  세로운 디스크로 PV 교체하기

    하드디스크를 확장하면서 기존에 있는 하드디스크를 제거해야 할 때는 다음과 같은 과정을 거치면 된다.

    환경은 /dev/hdd, /dev/sda, /dev/sdb가 vg01에 속해있는데, 그중에서 /dev/hdd를 빼고 /dev/sdc를 더하는 과정이다.

    먼저 /dev/sdc 를 PV 로 만들고,

    # pvcreate /dev/sdc

    /dev/sdc를 vg01에 추가한 후에,

    # vgextend vg01 /dev/sdc

    /dev/hdd의 PE 들을 /dev/sdc로 옮긴다.

    # pvmove /dev/hdd /dev/sdc

    성공적으로 옮겨졌으면 vg01에서 /dev/hdd를 제거한다.

    # vgreduce vg01 /dev/hdd

    3)  snapshot LV를 만들어서 안전한 백업하기

    데이터의 변동이 많은 /var등의 디렉토리는 백업 도중에 데이터가 엉키는 수가 있다. 그것을 방지하기 위해서, snapshot LV를 만들어 데이터를 고정시킨 후 백업을 하면 된다.

    일단 snapshot LV 를 만든다.(한 줄로)

    # lvcreate -s -L 5g -n mysqlbackup /dev/vg01/mysql

    위의 명령은 /dev/vg01/mysql에 대한 snapshot LV인 /dev/vg01/mysqlbackup를 만든다. 옵션 ‘-s’는 만들어질 LV가 snapshot 형식임을 정해주고 있다. 옵션 ‘-L’ 는 LV 의 최대 크기를 정해준다. 대게 원본 LV와 크기를 같게 하는 것이 좋다. 사실 snapshot LV는 원본이 갱신되는 부분만 고정시키려고 데이터를 가져와 LE에 할당하기 때문에 많은 LE가 필요하지 않다.

    이제 만든 LV 를 마운트 시킨 후

    # mount /dev/vg01/mysqlbackup /mnt

    백업을 하면 된다.

    # tar cf /dev/rmt0 /mnt

    백업을 마쳤으면 언마운트시킨 후에 snapshot LV 을 지운다.

    # mount /mnt# lvremove /dev/vg01/mysqlbackup

    끝까지 읽어주신 독자들에게 감사드린다. 아무쪼록 필자의 두서없는 글이 많은 도움이 되었으면 한다. 기회가 되면 지면을 통해서 여러분을 다시 뵐  수 있을 것이다.




▲ top

home으로...

Posted by cyj4369
,

Ubuntu 에서 환경 변수를 계속 적용되도록 설정하기 위해서는 


> vi /etc/bash.bashrc
제일 아래로 이동
환경 변수 추가 
예:) > export PATH=$PATH:/root/perforce/bin

이후에는 terminal만 열었다 닫아도, (즉 bash shell만 실행 되어도 ) 환경 변수가 지정되어 있다. 

Posted by cyj4369
,