라즈베리 파이 포팅시 발생하는 문제 기록


1) win32diskimager로 SD카드에 img파일을 풀 때 아래와 같은 에러가 날 경우가 있다.

An error occurred when attempting to get a handle on the file. error 123


해결 : 이미지 파일 경로에 영어가 아닌 다른 언어가 있는 경우에 발생할 수 있는 에러이므로 한글이 있는지 점검해본다.

'Embedded Lab > linux, x86' 카테고리의 다른 글

[커널 컴파일 및 설치방법]  (0) 2012.12.23
[커널 컴파일]  (0) 2012.12.20
[부모프로세스와 자식 프로세스의 상속]  (0) 2012.12.14
[시그널(signal)이란?]  (0) 2012.12.13
[우분투 NAS 마운트 설정]  (0) 2012.12.11
Posted by cyj4369
,

fork는 이함수를 호출한 그로세스와 같은 프로세스를 만든다. 따라서 새로 만들어진 자식 프로세스는 부모 프로세스에게 다음 특징을 상속 받는다.

 

- 부모 프로세스의 실제 사용자 ID, 셀제 그룹 ID, 유효 사용자 ID 그리고 유효 그룹ID
- 부모 프로세스의 set-user-id, set-group-id 모드 비트
- 부모프로세스의 보조 그룹 ID 목록
- 부모 프로세스의 저장된 사용자 ID와 저장된 그룹 ID
- 부모 프로세스의 모든 환경변수와 부모 프로세스가 열고 있는 모든 파일 디스크립너 그리고 파일 오프셋
- 부모 프로세스가 파일 디스크립터에 설정안 close-on-exec 플래그
- 부모 프로세스의 파일 모드 생성 마스크(umask)
- 부모 프로세스가 설정한 신호 처리 방법(SIG_DFL, SIG_IGN, SIG_HOLD또는 신호 처리 함수 주소값)
- 부모 프로세스의 세션 ID와 프로세스 그룹 ID
- 부모 프로세서의 제어 터미널
- 부모 프로세스의 nice값
- 부모 프로세스의 현재 작업디렉토리
- 부모 프로세스의 자원 제한값


자식 프로세스와 부모 프로세스와의 다른점

- 자식 프로세스에는 자신만의 유일한 프로세스 ID가 있다.
- 자식 프로세스에는 자신만의 부모 프로세스 ID가 있다.
- 자식 프로세스에는 부모 프로세스가 열고 있는 파일 디스크립터에 대한 자신만의 복사본이 있다.
  따라서 복사본 파일 디스크립터를 닫는다 해도 부모 프로세스에게 아무런 영향을 미치지 않는다.
  그러나 부모와 자식 프로세스가 각 파일 디스크립터의 오프셋값을 공유하기 때문에 한 파일에 동시에

  쓰려고 한다면 결과가 섞일수도 있다.

  또한 한 파일에서 동시에 읽으려고 한다면 데이터를 일부만 읽게 될수도 있다.
- 자식 프로세스는 부모 프로세스가 만든 파일 잠금은 상속 받지 않는다.
- 자식 프로세스의 대기 시놓 집합은 빈 집합으로 초기화된다.

Posted by cyj4369
,

POSIX 시그널 원리
1. 시그널의 개념
시그널은 소프트웨어 인터럽트로써 프로세스간의 비동기적인 이벤트를
발생시키는 방법을 제공한다. 프로세스를 멈추게 하기 위해 사용자가
터미널에서 누르는 인터럽트 키도 시그널을 이용하는 예에 속한다.
시그널은 유닉스의 초기 버전부터 제공되었으나 몇 가지 문제점이 있었다.

시그널을 발생시켰으나 수신 프로세스에게 전달되지 않을 수도 있었으며
임계 코드(critical code)를 실행 중일 때 시그널을 선택적으로 차단시킬
수도 없었다. 그래서 4.3BSD와 SVR3는 기존의 시그널 방식에 변형을
가하였으나 서로 간의 호환성이 고려되지 않았다.
다행히 POSIX.1에서 제시한 표준안이 있으므로 이 표준을 기준으로
설명하기로 한다.

1.1 시그널 이름
모든 시그널은 이름이 있으며 'SIG'로 시작한다. 예를 들어 SIGINT는
Control-C를 누르면 발생되는 시그널이며 SIGABRT는 abort 함수를 호출할
때 발생하는 시그널이다. 이러한 이름들은 모두 <signal.h>에 양의 정수
값으로 정의되어 있다. 시그널 값으로써 0은 널(null)시그널이라 하며
kill 함수에서 특별한 의미로 쓰인다.
여러 가지 시그널들이 <표 1>에 나타나 있다.

1.2 시그널 발생(generation)과 전달(delivery)
시그널을 일으키는 이벤트가 처음으로 일어나면 시그널이 "발생"
하였다고 한다. 시그널을 일으키는 조건은 다양하다.

* 사용자가 특정 키를 누를 때 터미널에 의해 발생되는 시그널이 있다.
DELETE(또는 Control-C)를 누르면 인터럽트 시그널(SIGINT)이 발생된다.
이것은 폭주해 버린 프로그램을 종료시킬 수 있도록 해 준다.

* 하드웨어에 의해 시그널이 발생될 수 있다.
0으로 나누거나(divide by zero) 잘못된 메모리 참조 등을 한
프로세스는 커널에 의해 발생되는 시그널을 받게 된다. 예를 들어
허용되지 않는 메모리 참조를 하는 경우 SIGSEGV 시그널을 받게 된다.

* kill 함수.
kill 함수는 특정 프로세스 또는 특정 프로세스 그룹내의 모든
프로세스에게 원하는 시그널을 전달할 수 있도록 한다. 물론 이 때 대상
프로세스는 자신이 소유하고 있는 프로세스이거나 자신이
수퍼 유저이어야 한다.

* kill 명령.
kill 명령은 쉘에서 자유롭게 시그널을 발생시키는 방법을 제공한다.
kill 명령은 kill 함수에 대한 인터페이스일 뿐이나 폭주해 버린
프로세스를 종료시키는 유용한 명령이다.

* 소프트웨어 컨디션.
alarm을 설정해 놓았을 때 발생하는 SIGALRM 또는 파이프를 이용한
통신에서 수신 프로세스가 종료했을 때 송신 프로세스가 파이프에
write하면 발생하는 SIGPIPE가 대표적인 예이다.

모든 프로세스는 각각의 시그널에 대해 취해져야 할 조치,다른 말로 액션
(action)을 가지게 되는데 시그널이 발생하여 액션이 실행되는 것을
시그널이 전달(deliver)되었다고 한다. 그리고 시그널의 발생과 전달 사이의
시간 동안은 시그널이 지연되고 있다(pending)고 한다. 보통 이러한 시간
간격은 응용 프로그램에 의해 감지될 수 없다. 그러나 시그널은 블럭될
수 있다. 그래서 만약 블럭된 시그널에 대한 액션이 시그널을 무시(ignore)
하는 것이 아니라면, 그 시그널이 발생하더라도 블럭이 해제되거나 액션이
무시하는 방법으로 변경될 때까지 계속 지연된 상태로 남아 있게 된다.

그리고 만약 블럭된 시그널에 대한 액션이 무시(ignore)하는 것이라면
시그널이 일어나자마자 사라져 버릴 수도 있고 지연된 상태로 남아 있을
수도 있다.이것은 시스템에 따라 다를 수 있다.모든 프로세스는 시그널
마스크(signal mask)를 가지는데 시그널 마스크는 현재 프로세스에게
전달되지 못하도록 블럭된 시그널들의 집합을 정한다.
이 후에 설명할 sigaction(), sigprocmask(), sigsuspend()는
시그널 마스크를 조작하는 기능을 제공한다.

1.3 signal 함수

┌─────────────────────────────────┐
│#include <signal.h> │
│ │
│void (*signal(int signo, void (*func)(int)))(int); │
│ │
│ return 값 : 시그널의 이전 액션(처리 방법) │
└─────────────────────────────────┘

인자 signo는 앞에서 기술한 시그널의 이름이다. func 값은 SIG_IGN,
SIG_DFL 또는 시그널이 발생했을 때 호출될 함수의 주소가 될 수 있다.

* SIG_IGN - 단순히 시그널을 무시한다.
* SIG_DFL - 디폴트 처리에 맡긴다.
* 사용자 정의 함수 - 시그널이 발생했을 때 호출될 함수의 주소를
지정할 수 있다.

이 경우 시그널을 catch 한다고 하며, 이함수는 시그널 핸들러
(signal handler) 또는 시그널 포착 함수(signal catching function)라고
부른다.

signal 함수의 프로토 타입을 보면 이 함수가 두 개의 인자를 필요로
하며 void 리턴 타입의 함수에 대한 포인터를 리턴함을 알 수 있다.
첫 번째 인자 signo는 정수형이며, 두 번째 인자는 하나의 정수형 인자를
갖고 리턴 값이 없는 함수에 대한 포인터이다. 그리고 signal 함수에 의해
그 주소가 리턴되는 함수는 하나의 정수형 인자를 갖는 함수이다.
signal 함수 호출에 의해 리턴되는 값은 그 시그널에 대한 이전 시그널
핸들러의 주소가 된다.

다음 예제 프로그램은 인터럽트 시그널(SIGINT)과 사용자 정의
시그널 1(SIGUSR1)을 포착(catch)하는 간단한 시그널 핸들러에 대한
예이다. 여기서 쓰인 pause 함수는 시그널이 도착할 때까지 프로세스를
수면 상태에 들도록 한다.

┌─────────────────────────────────┐
│리스트 1 PS_Number.c │
├─────────────────────────────────┤
│#include <unistd.h> │
│#include <stdio.h> │
│#include <signal.h> │
│ │
│static void │
│sig_handler(int signo) │
│{ if (signo == SIGINT) │
│ printf("INT signal received\n"); │
│ else if (signo == SIGUSR1) │
│ printf("SIGUSR1 signal received\n"); │
│ else │
│ printf("?? signal no = %d\n", signo); │
│ return; │
│} │
│ │
│int main(void) │
│{ if (signal(SIGINT, sig_handler) == SIG_ERR) │
│ fprintf(stderr, "can't catch SIGINT"); │
│ if (signal(SIGUSR1, sig_handler) == SIG_ERR) │
│ fprintf(stderr, "can't catch SIGUSR1"); │
│ │
│ for( ; ; ) │
│ pause(); │
│} │
└─────────────────────────────────┘

유닉스 명령 중 kill은 프로세스에게 시그널을 전달하는데 쓰인다. 예를
들어 kill -INT 131은 프로세스 ID가 131인 프로세스에게 인터럽트 시그널
(SIGINT)을 발생시킨다.

# a.out &
[1] 131
# PS
# kill -INT 131 a.out
# INT signal received

# kill -USR1 131
# SIGUSR1 signal received

# kill -9 131
[1]+ Killed a.out


------------------------------------------------------------------------------
[2] 제목 : [연재] <2> 유닉스 프로세스 구조-시그널
1.4 프로그램 기동(start-up)
프로그램이 exec되면 모든 시그널 상태는 디폴트 또는 ignore 상태로
설정된다. 특별히 exec을 호출하는 프로세스가 특정 시그널을 무시 하지
않는 이상 보통 모든 시그널은 디폴트 상태로 셋트된다. 만약 exec을 호출
하는 프로세스가 시그널 핸들러를 설정하고 있었다면 exec 호출에 의해
이 시그널의 상태는 디폴트로 복귀된다. (exec을 호출하면 이전 프로세스는
새로운 프로세스에 의해 완전히 대체되므로 이전 프로세스 내의 시그널
핸들러는 새로운 프로세스에 있어서 아무런 의미가 없다는 점을 생각하면
당연한 일이다.)

우리가 일상적으로 자주 마주치게 되는 예로써 쉘이 인터럽트 시그널이나
중단(quit) 시그널을 처리하는 방식에 대해 생각해 볼 수 있다. 작업 제어
기능이 없는 쉘의 경우, 만약 다음과 같이 프로세스를 후위로 수행시키면

cc signal.c &

쉘은 인터럽트/중단 시그널에 대한 처리를 무시하도록 자동적으로
설정한다. 이것은 사용자가 인터럽트 키를 누르더라도 후위 프로세스에게
영향을 미치지 않도록 하기 위한 것이다. 많은 상응식(interactive)
프로그램은 다음과 같이 이 두 시그널에 대해 처리한다.

int sig_int(), sig_quit();

if (signal(SIGINT, SIG_IGN) != SIG_IGN)
signal(SIGINT, sig_int);
if (signal(SIGQUIT, SIG_IGN) != SIG_IGN)
signal(SIGQUIT, sig_quit);

이런 식으로 구성함으로써 현재 무시되고 있지 않은 시그널만을
핸들한다.

1.5 프로세스 생성
프로세스가 fork를 호출하면 자식 프로세스는 부모 프로세스의 시그널
처리를 그대로 상속받게 된다. exec과 달리 fork는 부모 프로세스의 메모리
이미지를 복사해 주기 때문에 부모 프로세스 내의 시그널 핸들러는 자식
프로세스에게 있어서도 여전히 의미가 있다.

2. 시그널의 처리 : 액션(actions)
시그널은 비동기적인 이벤트이므로 언제 발생할지 예상할 수 없다.
따라서 시그널을 처리하고자 하는 프로세스는 시그널이 발생했을 때
수행해야 할 부분을 마련하여 커널에 알려야 한다.시그널 처리
(disposition 또는 action)에 있어서 다음 세 가지 방법이 가능하다.

2.1 시그널을 무시한다.(SIG_IGN)
SIGKILL과 SIGSTOP을 제외한 모든 시그널은 단순히 무시하도록 설정할
수 있다. 그러나 SIGKILL과 SIGSTOP은 무시할 수 없는데 이것은
수퍼 유저가 프로세스를 종료시킬 수 있는 확실한 방법이 된다.

아직 프로세스에게 전달되지 않은 지연된 시그널에 대한 액션을
SIG_IGN로 셋트하는 경우 그 시그널에 대한 디폴트 액션이 무시하는
것이면(예를 들어 SIGCHLD), 시그널이 블럭된 상태인지에 상관없이
시그널이 제거된다.

2.2 시그널을 받아들인다(catch).
그러기 위해서는 시그널이 일어나면 실행될 함수를 작성하여 커널에
등록해야 한다. 예를 들어 자식 프로세스가 종료하면 SIGCHLD 시그널이
발생하는데 부모 프로세스는 SIGCHLD 시그널이 전달되었을 때 수행해야
할 일(waitpid 함수를 이용하여 종료된 자식 프로세스의 종료 상태를
검사하는 일)을 함수로 만들어 커널에 등록함으로써 시그널을
처리할 수 있다.
특히, 이 때 시그널을 처리하는 함수를 시그널 핸들러(handler)라고
한다.SIGKILL과 SIGSTOP 시그널에 대해서는 시그널 핸들러를 둘 수 없다.

2.3 디폴트 처리에 맡길 수 있다.(SIG_DFL)
시그널에 대해 특별한 처리(위의 1, 2번)를 하지 않으면 미리 정해진
디폴트 루틴이 실행된다. 모든 시그널에는 디폴트 처리방법이 정해져
있다. (<표 1>을 참조) 대부분의 시그널에 대해 디폴트 처리는
프로세스를 종료시키는 것임에 유의하여야 한다.

만약 디폴트 액션이 프로세스를 정지시키는 것이라면, 프로세스의 수행은
일시적으로 보류된다. 프로세스가 정지하면, 그 부모 프로세스에게
SIGCHLD 시그널이 발생된다. (부모 프로세스가 SA_NOCLDSTOP 플래그를
셋트하고 있지 않다면) 프로세스가 정지하고 있는 동안은 SIGKILL 시그널을
제외한 모든 시그널이 전달되지 않는다. 프로세스가 고아 프로세스
그룹에 속하는 경우 SIGTTIN, SIGTTOU, SIGTSTP 시그널에 대한 액션으로
중단되지는 않는다.


이 름 설 명 ANSI C POSIX.1 SVR4 4.3+BSD 디폴트 처리
SIGABRT 비정상적 종료(abort)
SIGALRM 시간 초과(alarm)
SIGBUS 하드웨어 결함
SIGCHLD 자식 프로세스 상태의 변화
SIGCONT 중단된 프로세스의 수행 재개
SIGEMT 하드웨어 결함
SIGFPE arithmetic exception
SIGHUP hangup
SIGILL 불법적 하드웨어 명령
SIGINFO 키보드로부터의 상태 요청
SIGINT 터미널 인터럽트 문자
SIGIO 비동기적 입출력
SIGIOT 하드웨어 결함
SIGKILL 종료
SIGPIPE 수신자 없는 파이트에 쓰기 시도
SIGPOLL 폴(poll)할 수 있는 이벤트
SIGPROF profiling 타임 알람(setitimer)
SIGPWR 정전/재시작
SIGQUIT 터미널 중단 문자
SIGSEGV 잘못된 메모리 참조
SIGSTOP 정지
SIGSYS 잘못된 시스템 호출
SIGTERM 종료
SIGTRAP 하드웨어 결함
SIGTSTP 터미널 정지 문자
SIGTTIN 제어 터미널에 대한 후위에서의 읽기
SIGTTOU 제어 터미널에 대한 후위에서의 쓰기
SIGURG 급박한 상태
SIGUSR1 사용자 정의 시그널
SIGUSR2 사용자 정의 시그널
SIGVTALRM 가상 타임 알람(setitimer)
SIGWINCH 터미널 윈도우 크기의 변경
SIGXCPU CPU 한계의 초과(setrlimit)
SIGXFSZ 파일 크기 한계의 초과(setrlimit)


job
job


job



job
job
job

terminate w/core
terminate
terminate w/core
ignore
continue/ignore
terminate w/core
terminate w/core
terminate
terminate w/core
iignore
terminate
terminate w/ignore
terminate w/core
terminate
terminate
terminate
terminate
ignore
terminate w/core
terminate w/core
stop process
terminate
terminate
terminate w/core
stop process
stop process
stop process
ignore
terminate
terminate
terminate
ignore
terminate w/core
terminate w/core

<표 1> 유닉스 시그널


------------------------------------------------------------------------------
[3] 제목 : [연재] <3> 유닉스 프로세스 구조-시그널
3. 시그널의 종류
유닉스에는 여러 가지 시그널들이 존재한다. <표 1>에는 여러 가지
시그널의 이름과 각 시그널을 지원하는 표준과 시스템들이 정리되어 있다.
또한 각 시그널에 대한 간략한 설명과 디폴트 액션도 첨가하였다.
"job" 이라고 쓰여진 것은 작업 제어 기능이 지원되는 시스템에만
해당된다는 뜻이다. "terminate w/core"는 프로세스를 종료시키고 현재
작업 디렉토리에 core 파일을 생성한다는 뜻이다. core는 프로세스
종료 시의 프로세스의 메모리 이미지를 담고 있는데, 이 파일은 유닉스
디버거를 이용하여 종료될 당시의 프로세스 상태를 검사할 수 있도록
한다. core 파일이 생성되지 않을 수도 있는데, 그 경우는 다음과 같다.

* 프로세스가 set-user-ID 프로그램이었으며 현재의 사용자가
프로그램 파일의 소유자가 아닌 경우
* 프로세스가 set-group-ID 프로그램이었으며 현재의 사용자가
프로그램의 그룹 소유자가 아닌 경우
* 현재 작업 디렉토리에 대한 쓰기 권한이 없는 경우
core 파일이 너무 큰 경우 ( RLIMIT_CORE는 core 파일 크기의 상한을
정의한다.)

4. 시그널 발생 함수 : kill과 raise

┌─────────────────────────────────┐
│#include <sys/types.h> │
│#include <signal.h> │
│ │
│int kill(pid_t pid, int sig); │
│int raise(int signo); │
│ │
│ return 값 : 성공하면 0, 에러가 발생하면 -1 │
└─────────────────────────────────┘

kill 함수는 pid로 지정된 하나의 프로세스 또는 프로세스 그룹에
시그널을 보낸다. 보내어질 시그널은 sig에 의해 지정되는데 이것은 앞에서
설명한 시그널 이름에 대한 상수 값 또는 0이 될 수 있다.
POSIX.1에는 raise 함수에 대한 언급이 없는데 raise는 자기 자신에게
시그널을 보내는 함수로써 ANSI C에 정의되어 있다.

POSIX.1은 시그널 값 0을 null signal로 정의하고 있다. 이것은 실제의
시그널을 보내는 것이 아니라 일반적인 오류 검사를 수행하는 기능을
가진다. 임의의 프로세스의 존재 여부를 파악할 때 사용하면 편리하다.
프로세스가 존재하지 않을 경우 kill은 -1을 리턴하고 errno를
ESRCH로 셋트시킨다.

물론 한 프로세스가 다른 프로세스에게 시그널을 전송하기 위해서는
그에 따르는 권한이 필요하다. 일반적으로, 수퍼 유저는 아무
프로세스에게나 시그널을 보낼 수 있다. 그 외의 경우 시그널을 보내는
프로세스의 실제 사용자 ID 또는 유효 사용자 ID가 시그널을 수신할
프로세스의 실제 사용자 ID 또는 유효 사용자 ID와 동일하면 시그널 전송의
권한을 가진다.

한 가지 특별한 경우가 있다. 전송될 시그널이 SIGCONT이면 프로세스는
같은 세션에 있는 임의의 프로세스에게 시그널 전송이 가능하다.
만약 _POSIX_SAVED_IDS가 정의되어 있다면 수신 프로세스의 유효 사용자
ID 대신 저장 사용자 ID(saved set-user-ID)가 검사될 것이다.
kill의 인수 pid는 다음의 네 가지 중 하나이다.

pid > 0 프로세스 ID가 pid인 프로세스에게 시그널이 전송된다.
pid == 0 시그널을 보낸 프로세스와 동일한 그룹에 있는 모든
프로세스에게 시그널이 전송된다. 스와퍼,
init, pagedaemon등의 시스템 프로세스는 제외된다.
pid < 0 그룹의 ID가 pid의 절대 값과 같은 모든 프로세스에게
시그널이 전달된다.
pid == -1 사용이 유보되어 있다.

물론 위의 각각의 경우에 있어서 시그널을 송신하는 프로세스는
수신 프로세스에 대해 시그널을 보낼 권한이 있어야 한다.
만약 자기 자신에게 시그널을 보내는 경우라면 (즉, pid가 자신의 프로세스
ID인 경우), sig에 의해 지정된 시그널이나 블럭된 상태가 아닌 지연된
시그널들 중 적어도 한 시그널이 도착된 후에야 kill 함수의 리턴이
일어날 것이다. kill이 실패하면 시그널은 전송되지 않는다.
Unix에서 프로세스 ID는 순환되므로 사용에 주의를 요한다. 에러 발생의
경우는 아래와 같다.

EINVAL signo의 값이 유효하지 않을 때
EPERM 발신 프로세스가 적합한 권한을 갖지 않을 때
ESRCH pid에 대한 적절한 프로세스가 존재하지 않을 때

5. 인터럽트된 시스템 호출(Interrupted System Calls)
초기 유닉스 시스템의 특징은 프로세스가 "느린" 시스템 호출로 블럭된
상태에 있을 때 시그널이 도착하면 시스템 호출이 인터럽트 된다는
점이었다. 이 때 시스템 호출은 리턴되었고 errno는 EINTR로 셋트되었다.
이러한 특징을 지원하기 위해 모든 시스템 호출은 두 가지 범주로 나뉘었다.
"느린" 시스템 호출과 나머지 시스템 호출로 구분하는 것이 바로 그것이다.
느린 시스템 호출이란 이를 호출한 프로세스를 영원히 블럭시킬 수 있는
호출을 말하며 다음과 같은 범주의 호출은 이에 해당한다.

* 원하는 데이터가 존재하지 않으면 호출 프로세스를 영원히 블럭시킬
수 있는 파일(파이프, 터미널 장치, 네트워크 장치)로부터의 읽기를
시도한다.
* 데이터가 즉시 받아들여질 수 없는 경우 호출 프로세스를 영원히
블럭시킬 수 있는 파일에 대해 쓰기를 시도한다.
* 특정 조건이 발생할 때까지 블럭시키는 파일을 오픈한다. (예를 들어,
부착된 모뎀이 전화에 대해 응답할 때까지 기다려야 하는 터미널 장치)
* pause와 wait
* 몇몇 ioctl 동작.
* 몇몇 프로세스간 통신 함수들

이러한 느린 시스템 호출에 대한 주목할 만한 예외는 디스크 입출력에
관련된 호출이다. 비록 디스크 파일에 대한 읽기/쓰기 작업은 호출자를
일시적으로 블럭시킬 수 있으나 하드웨어 에러가 발생하지 않는 이상,
항상 리턴하며 호출자에 대한 블럭을 곧 해제시킨다.
(디스크 드라이버는 요청에대한 대기열을 관리하며 요청에 대한
응답 시간을 최적화 시킨다).

이러한 인터럽트된 시스템 호출과 관련하여 이제는 에러 리턴 값을
검사해야 한다는 문제가 발생한다. 전형적인 코딩은 다음과 같을 것이다.

again:
if ((n = read(fd, buf, BUFSIZE)) < 0) {
if (errno == EINTR)
goto again: /* interrupted system call */
...
}

4.2BSD에서는 응용 프로그램이 인터럽트된 시스템 호출에 대한 처리를
할 필요가 없도록 몇 가지 시스템 호출에 대해서는 인터럽트 되었을 때
자동적으로 다시 시작하도록 하는 개념을 도입하게 되었다.
이러한 호출에는 ioctl, read, readv, write, writev, wait, waitpid가
포함되는데, 앞에서 말한 바와 같이 이 중 앞의 5개는 느린 장치에 대해
동작할 때만 인터럽트될 수 있으며, wait과 waitpid는 시그널이 발생하면
항상 인터럽트되는 특성이 있다.

BSD4.2에서 자동적 재시작 기능을 도입한 이유는 입력 혹은 출력 장치가
느린 장치인지를 모를 때가 종종 있기 때문이다. 만약 어떤 프로그램이
상응식(interactive)으로 사용될 수 있다면 터미널이 이러한 느린 장치
범주에 속하므로 모든 읽기/쓰기 동작에 대해 시그널에 의해
리턴 되었는지의 여부를 항상 확인해야 하며, 만약 그렇다면 읽기/쓰기를
다시 시도해야 한다.
<표 2>는 여러 시그널 함수와 이를 지원하는 시스템에서의 의미를
요약적으로 보여 준다.

───────────────────────────────────
함 수 시스템 시그널 핸들러가 시그널을 인터럽트된
계속 인스톨 되어 블럭 시킬 수 시스템 호출의
있는가? 있는가? 자동적 재시작


V7, SVR2
signal never
SVR3,SVR4

sigset, sighold,
sigrelse
sigignore,
sigpause

SVR3, SVR4
never
signal, sigvec,
sigblock
sigsetmask,
sigpause
4.2BSD
always
4.3BSD,
4.3+BSD
default
sigaction,
sigprocmask
sigpending,
sigsuspend
POSIX.1
unspecified
SVR4
optional
4.3+BSD
optional

<표 2> 여러 시그널 구현 방법에 따라 제공되는 특성들

위의 구분 방법이 전적으로 옳지만은 않다는 점에 유의하기 바란다.
예를 들어 SunOS 4.1.2에서는 sigaction의 경우 자동적재시작 기능을
지원하는데 이것은 SVR4나 4.3+BSD 어느 쪽과도 같지 않다.

?
------------------------------------------------------------------------------
[4] 제목 : [연재] <4> 유닉스 프로세스 구조-시그널
6. 재진입 가능 함수(reentrant functions)
시그널에 대한 핸들러를 마련하고 있는 프로세스에서의 제어 흐름을
생각해보자. 일단 시그널이 발생하면 프로세스가 수행하고 있던 일련의
명령들은 일시적으로 인터럽트되며 이제 제어는 시그널 핸들러로 넘어가
핸들러 함수의 처음부터 명령이 실행되기 시작한다.
그리고 시그널 핸들러가 리턴하면 그제서야 시그널이 발생하기 전에
실행하던 명령문을 계속할 수 있게 된다. 그러나 시그널 핸들러에서는
시그널이 일어났을 당시 프로세스가 어느 부분을 수행하고 있었는지를
알 수 없다.

만약 프로세스가 malloc을 이용하여 히프에서 추가의 메모리를 할당받고
있는 중이었는데 시그널 핸들러 안에서 또 다시 malloc을 호출한다면?
또는 수행 결과를 정적 영역에 저장하는 getpwnam 함수를 실행 중이었는데
시그널 핸들러에서도 getpwnam을 다시 호출한다면?
특히 malloc 예의 경우는 큰 피해를 가져올 수 있다. 왜냐하면 malloc은
이미 할당된 영역의 연결 리스트를 유지하므로 시그널이 발생할 당시에
이 리스트를 변경하고 있었을 수도 있다.
또 getpwnam의 경우는 시그널 핸들러에서의 getpwnam 호출로 리턴된
정보로 인해 먼저 호출된 getpwnam의 결과가 지워질 수도 있다.

POSIX.1은 재진입 할 수 있는 함수들에 관한 규정을 명시하고 있다.
<표 3>은 이러한 재진입 가능 함수들의 예를 보이고 있다. 이 표에서 *로
표시된 함수는 POSIX.1에서는 재진입 가능으로 규정하고 있지 않으나
SVR4 SVID에서 규정하고 있는 함수를 뜻한다.

┌───────┬────────┬───────┬────────┐
│_exit │ fork │ pipe │ stat │
│abort* │ fstat │ read │ sysconf │
│access │ getegid │ rename │ tcdrain │
│alarm │ geteuid │ rmdir │ tcflow │
│cfgetispeed │ getgid │ setgid │ tcflush │
│cfgetospeed │ getgroups │ setpgid │ tcgetattr │
│cfsetispeed │ getpgrp │ setsid │ tcgetpgrp │
│cfsetospeed │ getpid │ setuid │ tcsendbreak │
│chdir │ getppid │ sigaction │ tcsetattr │
│chmod │ getuid │ sigaddset │ tcsetpgrp │
│chown │ kill │ sigdelset │ time │
│close │ link │ sigemptyset │ times │
│creat │ longjmp* │ sigfillset │ umask │
│dup │ lseek │ sigismember │ uname │
│dup2 │ mkdir │ signal* │ unlink │
│execle │ mkfifo │ sigpending │ utime │
│execve │ open │ sigprocmask │ wait │
│exit* │ pathconf │ sigsuspend │ waitpid │
│fcntl │ pause │ sleep │ write │
└───────┴────────┴───────┴────────┘
<표 3> 시그널 핸들러에서 호출될 수 있는 재진입 가능 함수들

<표 3>에 빠져 있는 대부분의 함수들은 a) 정적 데이터 구조를
사용하거나 b) malloc 또는 free 함수를 호출하거나 c)표준 입출력
라이브러리의 일부분이기 때문이다. 표준 입출력 라이브러리의 대부분은
전역 데이터 구조를 사용하여 재진입할 수 없는 방식으로 구현되어 있다.

errno 변수는 오직 하나만 존재한다. 따라서 비록 <표 3> 에 나열되어
있는 함수라도 시그널 핸들러 내에서 호출하면 errno 값이 변할 수 있다.
예를 들어 main에서 errno 값이 특정 값으로 셋트된 후에 시그널
핸들러가 호출되었을 때 만약 read와 같은 함수를 호출한다면, 이 호출로
인해 errno 값이 새로운 값으로 변할 수 있다. 따라서 일반적으로
시그널 핸들러에서 <표 3>에 나열된 함수를 호출할 때는 errno 값을
일단 저장한 후 나중에 다시 복원시켜야 한다.

이 표는 longjmp나 siglongjmp 함수를 포함하고 있지 않다. 그 이유는
프로세스가 재진입 불가능한 방식으로 데이터 구조를 갱신하고 있을 때에도
시그널이 일어날 가능성이 있기 때문이다. 만약 시그널 핸들러에서
리턴하지 않고 siglongjmp를 호출한다면 갱신 중의 데이터 구조를 불완전한
상태로 남겨두게 될 위험이 있다. 따라서 전역 데이터 구조를 이런 재진입
불가능한 방식으로 갱신하려고 하는 응용 프로그램이 만약 시그널 핸들러에
sigsetjmp를 호출하는 코드를 담고 있을 때는 이러한 데이터 구조를
갱신하고 있는 동안 시그널을 블럭시켜야 한다.

7. 시그널 셋트(set)의 개념과 조작
시그널 셋트란 여러 시그널을 표현할 수 있는 데이터 타입으로써 뒤에
설명될 sigprocmask와 같은 함수에서 쓰인다. 4.3+BSD 계열 시스템에서는
31개의 시그널이 존재하며 한 시그널 당 한 비트씩 할당하여
integer 형으로 시그널 셋트를 표현하고 있다. 그러나 문제점은 시그널의
가지 수가 integer의 비트(보통 32비트)수를 초과할 수 있다는 것이다.
따라서 일반적으로 시그널 셋트는 정수형 변수로 표현할 수 없다.
POSIX.1에서는 sigset_t라는 데이터 타입을 마련하여 이러한 시그널 셋트
연산에 사용될 것을 지정하고 있다.

┌─────────────────────────────────┐
│#include <signal.h> │
│ │
│ int sigemptyset(sigset_t *set); │
│ int sigfillset(sigset_t *set); │
│ int sigaddset(sigset_t *set, int signo); │
│ int sigdelset(sigset_t *set, int signo); │
│ int sigismember(const sigset_t *set, int signo); │
└─────────────────────────────────┘

* sigemptyset : set의 모든 시그널을 0으로 셋트한다. 즉, 모든
시그널이 제외된다.
* sigfillset : set의 모든 시그널을 1로 셋트한다. 즉, 모든 시그널이
포함된다.
* sigaddset : set의 멤버로써 signo로 지정된 시그널을 추가 한다.
* sigdelset : set에서 signo로 지정된 시그널을 제거한다.
* sigismember : signo 시그널이 set의 멤버인지를 검사한다.

시그널 셋트에서 특정 시그널에 대한 비트가 0으로 셋트되었다는 것은
이 시그널 셋트를 인자로 하여 수행되는 함수에서 해당 시그널이
제외된다는 뜻이며, 1로 셋트되면 수행되는 함수의 영향을 받는다는
뜻임에 유의하기 바란다. sigismember 함수를 제외한 모든 함수는
성공적으로 수행되면 0을 실패하면 -1을 리턴하며, sigismember는 옳으면
1을 틀리면 0을 리턴한다.

[출처] 유닉스 시그널|작성자 럭키Dragon


Posted by cyj4369
,

먼저, smbfs가 설치되어 있어야 한다.


마운트 될 경로를 만들어 두고, 권한을 읽고 쓰기 좋게 설정해 둔다. 나는 /mnt/NAS350D/elex에 마운트 할 예정이다.


/etc/fstab 파일을 관리자 권한으로 편집해야 한다.

sudo gedit /etc/fstab


/etc/fstab의 아래에 다음의 내용을 추가한다. 맨 앞의 IP는 NAS의 주소이다.

//192.168.10.100/경로 /mnt/NAS350D/elex smbfs defults,username=아이디,password=비번,uid=리눅스사용자아이디,gid=users,dir_mode=0755,file_mode=0644 0 0


파일 저장 후 sudo mount -a 를 실행하면 변경내용이 적용된다.

Posted by cyj4369
,

2.3.3 Process Identification Numbers
 Unix process들은 항상 유일하게 확인 가능한 숫자하나를 할당받는다. 이 숫자는 Process identification number 또는 줄여서 PID 라고 부른다. 각 fork 나 clone system call로 생성된 process는 kernel 에 의해 system에 유일한 새로운 PID 를 할당받게 된다. 

Process Identifiers
 각 process는 PID 뿐만 아니라 다른 식별자로 특성이 구분될 수 있다. 몇 가지 형태를 살펴보도록 한다. 

□ 하나의 Thread Group 내에 있는 모든 process는(즉, CLONE_THREAD flag와 함께 호출 된 clone system call 로 생성된 process 내의 서로 다른 실행 문맥-thread) 같은 thread group id(TGID)를 가진다. 만약 하나의 process가 thread를 사용하지 않는다면,  PID  와 TGID 값은 같다. 
ex)
  parent process에서 아래와 같은 시스템 콜을 사용하였을 때, 결과 예측값,
1. fork(), vfork(), clone(CLONE_CHILD_CLEARID | CLONE_CHILD_SETID)
    parent : TGID(1234), PID(1234)
    child : TGID(1235), PID(1235)
2. pthread_XXX(), clone(CLONE_THREAD)
    parent : TGID(1234), PID(1234)
    child : TGID(1234), PID(1235)

    thread group 에 있는 main process는 group leader 라고 부른다. task_struct 의 group_leader 변수(struct task_struct * group_leader)는 thread group 내에서 생성된 thread 들이 main process를 가리키기 위해 사용된다. 

□ 또다른 한가지는, 독립적으로 수행되는 process들을 하나의 process group로 결합시킬수 있다.(setpgrp system call 사용) task_struct 의 pgrp 요소(실제로 task_struct 내부에 명시적인 pgrp 변수는 없다)는 하나의 group 내애서 process group leader의 pid 값으로 모두 같다.


//pgrp 의 값구하는 code 참조.

Process group는 그 group내에 있는 모든 process에게 signal을 일괄적으로 보내는데 용이 하게 사용된다.(다양한 system programming을 하는데 도움이 된다는데...) 
process group 는 pipe 를 이용하여 연결 된 것을 포함한다. 
ex) 

더보기

위와 같이 사용된 ps process와 grep process는 하나의 process group 가 되는 것이다. 

□ 여러 process group 는 하나의 session으로 결합될 수 있다. 하나의 session 내부의 process들은 task 구조체의 session 요소에 모두 같은 session id 값을 가지고 있다. SID 값은 setsid system call 로 변경이 가능하다. 

 Namespace는 PID 들을 관리하기 위해 추가적인 복잡함이 더해진다. PID namespace들이 계측적으로 구성된다는 것을 다시 상기해보자. 새로운 namespace가 생성되면, 모든 pid들은 parent namespace에게 보여지게 되지만 child namespace에서는 parent namespace의 PID를 볼수 없다. 위의 상황을 유추해보면, 어떤 task들은 하나 혹은 그 이상(namespace 당 하나의 PID)의 PID 값을 가질 수 있다는 것을 알 수 있다. data structure 에도 이런 사항이 반영되어 Global ID 와 Local ID 로 나누어 관리한다. 

 □ Global ID는 kernel 그 자체내부나 최초 부팅을 포함하여 init task가 실행했던 namespace(최초 namespace) 내부에서 확인 가능한 숫자이다. 이는 시스템 전체에서 유일한 값을 가지게됨을 보장한다. 
□ Local ID는 특정 namespace에 속한 ID이며, 시스템 전체에서 유효하게 사용하지 못한다. 그 process가 속한 namespace에서만 통용되며, 다른 namespace에서 같은 ID 값을 가지고 사용될 수 있다. 

위의 Global PID 와 TGID 는 task_struct 에서 직접 관리 한다. 

이들의 type 는 모두 pid_t 이며, 이것은 __kernel_pid_t 을 typedef 한 것이다.( include/linux/types.h). 즉 이것은 각각의 architecture 마다 새로 정의 가능 하다. 
대게는 int 로 사용되어 2^32 의 서로 다른 ID가 시스템에서 사용 가능하다는 것이다. 

 session ID와 process group ID는 task struct 내부에서 직접관리 되지 않는다. 위에서 살펴본 group_leader field 에서 가져 올 수 있다. 

<task_struct>->group_leader->pids[PIDTYPE_SID].pid //get session id
<task_struct>->group_leader->pids[PIDTYPE_PGRP].pid //get pgrp id

system call, setpgrp() 또는 setsid() 를 이용해 각각의 값을 설정 할 수 있다. 
(현재 2.6.35 의 내용을 하고 있으므로 책의 내용과는 상이 할 수 있다. interface 및 자료 구조 내부의 내용이 변경되었슴.)

Posted by cyj4369
,

2.3.2 Namespaces

 Namespace는 하나의 수행되는 시스템에 서로 다른 관점을 제공하는 것처럼 하는 lightweight 한 가상화의 형태를 제공하는 것이다. 이 매커니즘은 FreeBSD 의 jail 이나 Solaris의 zone과 비슷한 것이다. 

Concept
 전통적으로, Unix 계열의 시스템 뿐만아니라 Linux에서는 시스템이 가지고 있는 많은 자원을 전체적으로 관리한다. 예를 들어, 시스템에 있는 모든 process들은 그것들이 가지고 있는 PID 숫자로 확인되며, 이 PID 리스트는 커널에서 관리되어야 한다. 마찬가지로, uname system call로 반환된 시스템에 관한 정보는(kernel에 관한 약간의 정보와 system의 이름을 반환) 호출한 모든 사용자가 같은 값을 볼 수 있을 것이다. User ID 또한 이와 비슷한 방법으로 관리된다 : 각 user는 시스템에 유일한 UID 값을 가진다. 

uname -r : kernel version 확인
uname -a : system 정보 및 kernel 정보

User 의 ID는 kernel이 선택적으로 특정 권한에 대한 행동을 승인 혹은 거부를 한다. UID 0을 가진 root user는 기본적으로 모든 명령 및 행동이 가능하지만 0 이상의 값을 가진 UID는 제한적 기능만을 제공한다. PID n 의 값을 가진 user가 있다면, 자신의 pid n과 다른 m의 user가 실행 시킨 process는 시스템에서 제거할 수 없다. (ps -ef 명령으로 각 process의 pid와 uid를 확인할 수 있다). 물론 ps 명령어로 다른 사용자가 실행한 process는 확인 가능하다. User N은 다른 User M이 이 시스템에 활성화(사용하고 있는지)가 되어 있는지 볼 수 있다. 이것은 사용자가 자신이 가지고 있는 process들만 가지고 놀 수(?) 있는 한 다른 사용자가 가지고 있는 process를 관찰하는 것까지 막을 필요가 없기 때문에 아무 문제가 되지 않는다. 

 그러나 위의 경우를 원치 않은 경우가 있다. web 공급자가 고객들에게 Linux 시스템에 root 권한을 비롯한 모든 접근 권한을 주는 경우를 생각해 보자. 그렇다면 web service를 제공하는 고객들 한명당 하나의 linux 머신을 제공해야 하기 때문에 엄청난 비용이 든다. 그래서 KVM이나 VMware같은 가상화 환경으로 제공하면 이같은 문제를 해결 할 수 있지만, 이 가상화 방법은 시스템의 자원을 원할하게 분배하지 못하는 단점이 있다. 가상화 시스템은 각 고객들에게 분리된 kernel을 제공해야하는 것이 요구되며, 각 가상화 머신에 리눅스를 각각 설치를 해주고 설정을 완료해 줘야 한다. 

 다른 해결책으로는 namespace를 통해 가상화보다 적은 자원을 들여 같은 서비스를 제공할 수 있다. 하나의 물리적인 머신에 여러 커널을 수행하는 가상화 시스템(물론 서로 다른 운영체제를 수행하는데는 이 방법이 더 좋다)을 제공하는 대신에 하나의 물리적인 머신에 하나의 커널이 수행되고 namespace내부에 미리 모든 시스템의 자원을 추상화 해놓는 것이다. 이것은 하나의 container 에 process 그룹을 넣어두고 다른 container(물론 여기도 process 그룹이..)와는 완벽히 분리 해놓은 것이다. 이러한 분리는 하나의 container에 묶인 사용자들이 다른 container로의 연결을 할 수 없다. 그렇지만 container가 유지되는 동안 특정 경우에 다른 container와 공유하기 위해 그 container의 분리를 느슨하게(?) 할 수 있다. 예를 들어 container안의 PID 의 셋을 가지고 운영되지만, 서로 다른 container와 filesystem의 부분은 여전히 공유 될 수 있다. 

Namespace는 기본적으로 시스템의 다른 view를 생성한다. 모든 이전에 생성된 자원은 container data 구조체로 싸여져 있어야 하고 자원의 리스트 셋과 namespace에 포함하는 내용은 시스템 내부에서 유일해야 한다. 주어진 container 안에서 그 자원이 충분히 활용하고 있지만 외부에 그 자원의  고유 identity(예를 들어 PID, 아래의 예제확인)를 제공하지 않는다. (내부에서만 사용하고 운영한다는 얘기인듯.) 그림 2-3이 상황을 개략적으로 볼 수 있다. 

//그림 2-3  --> 나중에...

세 개의 서로 다른 namespace가 시스템이 있다고 생각해 보자. namespace는 계층적으로 연결될 수 있다고 고려되었다. 하나는 parent namespace이고 이는 두개의 child namespace를 생성했다. 이 container들은 각각 하나의 linux 머신에서 제공되는 것처럼 보이도록 하여 web 호스팅 설정을 할 수 있게 제공한다고 가정하자. 각 container에서는 각각 pid 가 0 인 init task를 가지고 있어야 하며 오름차순으로 생성된 다른 task들을 가지고 있어야 한다. 두 child namespace 내부에는 init task(PID == 0)인 것과 2, 3의 pid를 가지는 task가 있다.(그림 2-3) PID 값은 하나의 시스템에서 고유의 값을 가지므로 이런 식으로 container 내부에서 가지는 pid의 값은 시스템 전체에서 고유의 값이 될 수 없다. 

child container는 시스템의 다른 container에게 자신의 상태를 알려주거나 연결이 되지 않기 때문에 parent container에서 child 관련 정보를 취급해서 child 내부에서 실행되는 모든 process를 볼 수 있어야 한다. 그림 2-3 에서 parent 4~9번 process는 child의 process와 대응되어 있다. 비록 시스템에는 9개의 process들이 있는 것이지만 4~9번의 PID를 가진 process는 하나 이상의 PID를 가지기 때문에 실제적으로 15 개의 PID가 요구된다. 

Namespace는 만약 간결한 분량의 container를 포함하는 경우 비계층적 구조(위의 계층적 구조와는 다른)를 가질 수 있다.(UTS Namespace의 예제를 보면서 확인하자)

꽤나 오래전에 linux는 chroot 시스템 콜을 이용한 간단한 형태의 namespace를 지원하고 있었다.  이 방법은 filesystem의 특정 부분을 동작중인 process들이 root 디렉토리로 인식함으로써 설정된 디렉토리 밖에서 접근 하지 못하도록 진행하는 것이어서 이것 또한 namespace의 한 형태라고 볼 수 있다. 하지만 진정한 namespace는 단지 filesystem을 제어하는 것 이외에도 많은 것을 컨트롤 할 수 있도록 만들어 주는 것이다. 

namespace를 만드는 방법은 두 가지가 있다. 
1. 새로운 process가 fork나 clone 시스템 콜로 생성될 때, 특정 option으로 parent process와 namespace가 공유될 수 있도록 만들어 질 수 있다. 또는 새로운 namespace 가 생성될 수 있다. 

2. unshare 시스템 콜로 parent 로 부터 생성된 process를 분리하고 새로운 namespace를 할당 할수 있다. manual page 를 확인 하자(unshare(2))

관련 자료를 검색 중 찾은 간단한 예제로 확인해 보자
 
http://woodz.tistory.com/23 <-- namespace 의 간단한 실습 내용.

Posted by cyj4369
,

2.3.1 Process Types

 일반적인 Unix process는 binary code로 구성되고 chronological(연대순의, 번역하기가 어려운 단어라..) thread (컴퓨터는 한시점에 코드를 통해 한시점에 하나의 경로로 실행하는 의미의 말) 그리고 application에게 할당된 자원의 셋(메모리, 파일 등)을 가진 것이다. 새로운 process들은 fork exec 시스템 콜의 조합으로 생성된다. 

□ fork 는 현재 process를 복제하여 생성한다. 이 복사본은 child process라 불린다. 원래의 process의 모든 자원은 적절한 방법으로 복사되어 시스템 콜 이후에 최초 process의 독립적인 두개의 객체가 있게 된다. 이 객체들은 어떤 방법으로 연결되어 있진 않지만, 열린 파일, 같은 작업 디렉토리, 메모리의 같은 데이터(data의 복사본을 각각 가지고 있게됨) 등을 가지고 있다. 

□ exec 는 수행중인 process를 실행 가능한 binary 파일로 부터 다른 application 을 로드한다. 결국 새로운 program을 로드한다는 말이다. exec 은 새로운 process를 생성하지 못하기 때문에 fork 시스템 콜로 process를 새로 복사한 후, 시스템에 추가적인 새로운 application을 생성하기 위해 exec을 호출한다. 

Linux는 위 두개의 system call 이외에 추가적인 clone 시스템 콜을 제공한다. 원칙적으로는 clone 은 fork와 같은 방식으로 구동된다. 하지만 새로 생성된 process는 그것의 parent process와 완전히 독립적이지 않으며 parent와 몇몇 자원은 공유한다. 이 시스템 콜은 어떤 자원은 복사되고, 어떤 자원은 공유하게 하는지에 정의가 가능하다.-예를 들면, memory에 있는 data, 열린 파일들, signal handler등이 있다. 

clone은 tread를 구현할 때 사용된다. 그렇지만 thread를 수행하기 위해서는 이것만 가지고는 할 수 없다. user level에서 완전히 실행되기 위해서는 라이브러리들이 필요하다. 예를 들면, Linuxthreads 와 Next Generation Posix Threads와 같은 라이브러리 들이다. 

Posted by cyj4369
,

Chapter 2, Process Management and Scheduling



2.3 Process Representation
Process와 program에 관련된 Linux Kernel의 모든 알고리즘은 include/sched.h 에 정의되어 있는 task_struct 라는 data 자료구조 내부에 있다. 이 자료구조는 시스템의 중심적 역할은 하는 것들 중에 하나이다. scheduler의 구현부를 다루기 전에, 이 기본적인 자료구조를 알아야 한다. 

task 구조체는 많은 process를 연결하는 요소들을 포함하고 있다. 구조체 내부의 요소들을 잘 알지 못하고는 차후에 나오는 내용을 이해시키기는 어려울 것이다. 

task 구조체는 다음과 같이 정의되어 있다.

task_struct 소스 내용을 모두 넣는 것이 쓰는 사람도 읽는 사람도 불편할 것이니 다른 방법을 사용한다. 물론, 필요한 부분은 넣어야겠지..


task_struct 의 링크는 
이다. 링크에서 보는 바와 같이 2.6.37.1 version 의 소스이다. 책의 내용과 조금 차이가 있을 수 있다. 

소스를 보면 알겠지만, 이 구조체의 많은 정보를 다 소화하기란 어려운 일일 것이다. 그렇지만, 이 구조체를 process의 특정 한 상태를 표현하는 등의 부분 부분으로 나누어 본다면 조금 수월할 것이다. 

□ Process 상태 및 실행 정보 : 지연된 signal, 사용된 binary 포멧(또한 다른 시스템의 binary 포멧을 위한 emulation 정보 등), process ID(pid), 자신의 부모 process 및 관련 process의 연결 포인터, 우선순위 값, 마지막으로 program을 실행한 시간 정보(CPU time)

□ 할당된 가상 메모리(virtual memory) 정보

□ process 자격 : user ID, group ID, process가 특정 명령을 수행할 권한 정보 등. System call 을 통해 process 정보등을 확인 하고 변경할 수 있다. 

□ 사용된 file : program code를 포함하는 binary file 뿐만 아니라 process가 다루는 모든 file의 filesystem 정보는 저장해야한다. 

□ Thread 정보, process의 CPU 관련 runtime data 를 기록하게 됨.(그 외 남은 구조체의 field 는 사용된 하드웨어와 의존적이지 않다 - stack 정보같은 것인듯.)

□ 다른 process와 함께 같이 작업할 때, Process간 통신(Interprocess Communication)에 대한 정보

□ process가 signal에 응답하기 위해 등록한 signal handler

task 구조체는 간단하게 값들이 구성되어 있지 않다. 각종 data를 연결하기 위한 포인터 등으로 구성되어 있다. 중요한 변수들 몇몇을 자세히 설명해본다. 



state 는 process의 현재 상태를 기술한다. (volatile long으로 선언됨) 

□ TASK_RUNNING : Task가 수행 가능한 상태이다. 이것은 실제 CPU에 할당되어 수행중이라는 것은 아니다. scheduler에 의해 선택될 때까지 이 task는 기다릴 수 있다. 이 상태는 process가 실행 가능한 상태이며 외부 event를 기다리고 있지 않다는 것이다. 

□ TASK_INTERRUPTIBLE : 어떤 event를 기다리는 잠자고 있는(sleeping) process를 위한 설정이다. 기다리던 event가 발생하게 되면, 이 상태는 TASK_RUNNING 으로 변경되면 scheduler에 의해 선택되면 바로 실행이 가능하게 된다. 

□ TASK_UNINTERRUPTIBLE : kernel의 명령으로 잠들어 있는 process를 disable 시킨 상태. kernel이 직접 해제하지 않는다면, 외부 signal에 의해 깨어나 수행할 수 없다.

□ TASK_STOP : process가 특정목적을 위해 멈춰있는 경우이다.(예를 들면, debugger의 break point에서 멈추게 함.)

□ TASK_TRACED : 이 process의 상태는 ptrace 매커니즘을 이용해 process가 특정 시점에서 trace되고 있는 상태로 일반적인 STOP 된 task와 구별하기 위함이다. 

이 다음에 나오는 상수는 종료되는 process의 상태를 나타내준다. 이것은 exit_state 항목에 저장된다.
□ EXIT_ZOMBIE : 2.2 에서 설명된 zombie 상태를 나타낸다.

□ EXIT_DEAD : 시스템에서 완전히 제거되기 전에 parent process에서 알맞은 wait system call을 호출한 뒤의 process 상태. 이 상태는 하나의 task 안에서 여러 개의 thread가 수행될 때 중요하게 사용되는 상태이다. 

Linux는 process의 시스템 resource 사용 제한을 위해 resource limit (rlimit) 메커니즘을 제공한다. 이 메커니즘은 task_struct 안에 signal 구조체 포인터가 있다. process signal 관리를 위한 구조체 내부에 rlim이라는 배열이 존재한다. ( 아마 책에는 task_struct 내부에 rlim 배열이 있다고 하는데, 소스를 보니 task_struct --> singal_struct *signal-->struct rlimit rlim[] 로 되어 있다.)

rlimit 구조체는 include/linux/resource.h 에 정의되어 있다.  

이 정의(definition)은 다른 많은 resource를 수용하기 위해 매우 일반적으로(?) 유지된다. 
□ rlim_cur : process의 현재 자원 제한. 이것은 soft limit 로 참조된다.
□ rlim_max : process가 허가된 최대 자원의 제한. 이것은 hard limit 으로써 참조된다.

setrlimit system call은 현재 자원제한을 증가시키거나 감소시키는데 사용한다. 그렇지만 이 값은 rlimt_max 값을 초과할 수 없다. getrlimit system call로 현재 limit 값을 확인 할 수 있다. 

이 제한적인 자원은 rlim 배열의 index로 자신의 위치를 확인 할 수 있는데, 이것은 kernel에서 상수값으로 미리 정의를 해두어 연결된 자원과 배열의 위치를 연결했다. Table 2-1을 보면 정의된 상수와 그것의 의미를 기술했다. System programming 책을 보면 자원 제한관련 예제 및 더 상세한 내용을 볼 수 있다. 또한, setrlimit(2) man page를 봐도 조금 더 자세한 내용을 볼 수 있다. 

 Linux 는 특정 유닉스 시스템과 binary 호완성을 제공하기 위한 노력을 해왔기 때문에 아키텍쳐 마다 상수의 값들은 서로 다를 수 있다.

limit은 kernel의 매우 다른 부분과 연관되어 있기 때문에, kernel은 반드시 대응되는 하위 시스템의 limit 값을 확인해야 한다. 

만약 resource type이 limits(거의 모든 자원의 기본 설정임) 설정 없이 사용되었다면, RLIM_INFINITY 의 값으로 rlim_max 가 설정된 것이다. 예외적으로 사용된 경우를 보자, 
□ 열린 파일들의 수(RLIMIT_NOFILE, 기본적으로 1024로 제한한다.)
□ 사용자가 가질 수 있는 process의 개수(RLIMIT_NRPROC)은 "max_thread / 2"로 정의한다. 여기서 max_thread는 global 변수이며, 가용한 RAM의 1/8이 thread 정보를 관리하는데만 사용하고 20개의 thread가 최소의 메모리만을 사용하도록 thread의 생성 개수를 정의한다. (이문장은 번역에 어려움을 겪어 최대한으로 부드럽게 하려고 노력하였음.)

init task를 위한 부팅 때 자원 자한은 include/asm-generic-resouce.h 안에 INIT_RLIMTS 로 정의되어 있다. 

각 process의 proc filesystem을 통해 rlimit 값을 확인 할 수 있다. 
현재 나의 system 정보는 : VMware Server 2.0.1에 Ubuntu 10.10을 설치했다. 10.10의 kernel version은 2.6.35-22 다. 
rlimit 값을 확인 하기 위해, 

proc/self/limits 파일을 읽었다. proc file system의 self 라는 file은 symbolic link 이며 현재 수행중인 process를 가르키고 있다. 

Table 2-1: Process 관련 자원 제한. 
 상수 의미
 RLIMIT_CPU 최대 할당 할 수 있는 CPU 시간
 RLIMIT_FSIZE 사용할 수 있는 file 최대 크기
 RLIMIT_DATA data segment의 최대 크기
 RLIMIT_STACK (user mode) stack의 최대 크기
 RLIMIT_COREcore dump file의 최대 크기 
 RLIMIT_RSS Resident Size Set 의 최대 크기; 다른 말로는 process가 사용할 수 있는 
최대 page frame의 개수이다. 현재 사용되지 않은 것도 포함함.
 RLMIT_NPROC 실제 UID 에 연관된 사용자가 하나의 process를 가지고 생성할 수 있는
process의 최대 개수(fork의 제한 인듯) - 조금 더 알아봐야 할듯.
 RLIMIT_NOFILE 하나의 process가 제어할 수 있는 파일의 개수(open files)
 RLIMIT_MEMLOCK swap 되지 않도록 할 수 있는 page 의 개수
 RLIMIT_AS 하나의 process가 차지할 수 있는 가상 주소 공간의 최대 사이즈
 RLIMIT_LOCKS file lock의 최대 개수
 RLIMIT_SIGPENDING 지연된 signal의 최대 개수
 RLIMIT_MSGQUEUE message queue의 최대 개수
 RLIMIT_NICE non-real time process들을 위한 최대 nice 레벨
 RLIMIT_RTPRIO real time 우선 순위의 최대치.

Posted by cyj4369
,

Chapter 2, Process Management and Scheduling


2.2.1 Preemptive Multitasking
 Linux process 관리 구조를 알기 위해서는 process 실행의 두가지 모드를 알아야한다.(kernel mode와 user mode) 요즘 출시되는 CPU들은 최소한 두가지 다른 실행 모드가 존재하며, 한가지는 제한이 없는 권한을 가지고 실행되며 다른 한가지는 다양한 제한이 걸려있는 상태로 실행된다는 것이다.(제한이 있다는 것에 예를 들면, 특정 물리 메모리 영역을 접근하는 것 등이 될 것이다.) 이런 구분은 시스템의 어떤 한 부분을 간섭하는 것을 보호하고 시스템에 존재하는 process들을 잡아(?-다른 process들에게 넘어가거나 접근하는 것을 막는다는 뜻인가) 둘수있는 잠겨진 "새장과 같은" 것을 생성해줘야 한다. 

일반적으로 kernel은 자신이 가지고 있는 data 만 접근 가능하고 시스템에 있는 다른 application에게 간섭할 수 없는 user mode 안에 있다.(이 부분은 무슨 말인지 써놓고 무슨말인지 확실치 않다.)

만약 한 process가 system data나 함수들의 접근을 원한다면(후자는 모든 process들 사이에 공유된 자원을 관리한다, 예- filesystem 영역) 반드시 kernel mode로 변경하여 수행해야 한다. 물론 kernel mode에서 통제되고(만약 그렇지 않으면, 현재 만들어진 보호 매커니즘이 모두 불필요해지는 것이다. ) 명확히 정해진 루틴으로 실행되어야 한다. 이와 같은 것은 system call 이라는 특별한 함수를 통해 이루어진다. 자세한 사항은 13장에서 더 자세히..

user mode로 부터 kernel mode로의 전환은 interrupt에 의해서도 일어난다.(이것은 interrupt 발생시 자동으로 전환된다.) user application에서 의도적으로 호출되는 system call(system data나 함수를 이용 목적을 위해)과는 달리 독단적(?)으로 수행된다. -의도되지 않은 상태에서 발생함- interrupt의 발생은 현재 process실행과 무관하게 처리해 줄 수 있어야 한다. 예를 들면, 외부 블럭(block) 장치에서 요청한 data를 RAM 으로 복사 완료되면 이 data가 시스템의 어떤 process를 위한 것이었던 간에 interrupt는 발생하게 된다. 비슷하게, network 장치에서도 interrupt를 통해 data package 도착을 알려주게 된다. 반면, network으로 들어온 package는 interrupt를 받아 처리함에 있어 그 data는 현재 수행되고 있는 process에게 전달 된다.(외부 블럭 예제와는 다른 경우 인 것이다.) Linux는 interrupt를 다르게 처리를 하지만, 수행되고 있는 process들은 이같은 상황을 모르고 자신의 작업을 진행한다. 

Kernel의 선점 scheduling 모델은 어떤 상태의 process가 interrupt를 받는지에 대한 구조를 만들어 두었다.

□ Normal Process는 항상 interrupt를 받을 수 있다.(다른 process에 의한 interrupt 발생조차도 다 받는다). 중요한 process(오랫동안 keyboard 입력을 기다리는 편집기 등)
가 실행 상태가 되면 scheduler는 즉시 실행 할 것인지에 대한 결정을 내린다. 현재 그 process가 수행중일 때도 그 같은 고려를 한다. 이와 같은 선점은 시스템의 응답시간을 높이는데 중요한 역할을 했다.

□ 만약 kernel mode에서 system call을 수행하고 있을 때, 어떤 process도 CPU 사용을 취소할 수 없다. 즉, scheduler는 다른 process를 선택하기 이전에 system call의 수행을 완료를 해야한다는 것이다. 하지만 system call은 interrupt에 의해 잠시 보류될 수 있다. 

□ Interrupt는 user mode와 kernel mode에 있는 process들을 중지할 수 있다. 그것은 interrupt가 발생한 시점 부터 가능한한 빨리 처리해야 하는 중요한 것이기 때문에 가장 높은 우선순위를 가진다. 

Kernel 선점은 2.5 버전 개발을 진행하면서 선택사항으로(make menuconfig 수행된 메뉴) 추가되었다. 이 선택사항(option)은 kernel mode에서 system call을 수행 중일 때에도 급히(?) 처리해야 하는 다른 process가 생기면 교체될 수 있는 기능인 것이다.(물론 interrupt 핸들러가 수행중일 때는 불가하다.) 비록 kernel이 system call을 최대한 빨리 수행을 마쳐야 함에도 불구하고(빨리 수행해야하는 이유는 scheduler가 system call을 마무리 하여 다른 process의 수행권을 보장하고 진행하기 위함) 신뢰성있는 어떤 application들은 일정한 data 스트림을 요구하여 많은 시간이 필요하게 되는 경우가 있다. kernel 선점은 이와 같은 대기 시간을 줄이고 부드러운(?) program 실행을 가능하게 한다. 하지만 선점 기능은 하나의 CPU를 가진 시스템에서 병렬적인 접근이 많아지고 이것을 보호하기 위해 많은 data structure가 요구되기 때문에 증가된 kernel 복잡성으로 비용이 증가하게 된다. (향후, 2.8.3 장에서 자세히 다룬다.)

Posted by cyj4369
,

Chapter 2, Process Management and Scheduling



2.2 Process Life Cycle
 하나의 Process는 항상 실행 준비가 된 상태가 아니다. 때때로, Process는 외부 자원의 event 를 기다리고 있는 경우가 있다.(text 편집기에서 keyboard 입력 대기를 위한 경우). 이런 경우는 event(keyboard 입력)이 있을 때까지 process는 실행 될 수 없다. 

scheduler는 process들의 교체를 할때 시스템에 있는 모든 Process의 상태를 알고 있어야 한다. 이는 할일이 없는 process임에 불구하고 CPU 시간을 할당하는 일은 없어야 한다는 것이다. 시간 할당과 중요한 점은 각 process의 상태를 전환(예, 실행 상태 --> 대기상태)시키는 일이다. 예를 들어, 만약 하나의 process가 주변 장치의 data를 기다리고 있다면, scheduler는 process의 상태를 data가 도착할 때까지 실행 대기 상태로 변경해줘야 한다. 

하나의 process는 다음과 같은 상태를 가진다
□ Running -- Process는 실행 중이다. 
□ Waiting  -- Process는 실행 가능한 상태이지만 CPU 를 다른 process가 점유하여 사용 중이기 때문에 기다리는 상태이다. 이 상태의 process 는 scheduler에 의해 다음으로 실행 가능하다. 
□ Sleeping -- Process는 잠든(?) 상태이고, 수행될 수 없다. 외부 장치에 의해 data나 event를 기다리고 있는 상태이며, process가 event를 받기 전까지 scheduler가 선택할 수 없다. 

시스템은 하나의 process table에 그것들의 상태들과 관계없이(running, waiting, sleeping) 모든 process들을 저장한다. 그렇지만, sleeping 상태의 process는 scheduler가 실행 준비가 되지 않은 상태을 알고 있어야 함으로 특별히 "표시"를 해 둔다. 또한 외부 event를 기다리고 있는 process가 event가 발생시 적절한 시점에 깨어나 수행할 수 있도록 다수의 Queue 로 관리하고 있다. 

그림 2-2

실행 가능한 process의 queue에 다양한 상태전의를 알아보도록 하자. 하나의 process가 실행 가능한 상태이지만, 다른 process가 CPU를 점유하고 있는 상태라 CPU를 사용하기 위한 대기 상태이다. (이것의 상태는 "Waiting" 이다). 그것은 scheduler가 CPU 시간을 할당 할 때까지 "waiting" 상태로 남아있을 것이다. 일단 scheduler가 선택을 하면, 그 process의 상태는 "running"으로 바뀔 것이다. (그림 2-2 의 4번 전이)

scheduler가 process의 CPU 자원 사용을 그만 두게 하기로 결정했다면, 그 process의 상태는 "running"에서 "waiting"으로 변경된다. (그림 2-2 의 2번 전이), 그리고 새롭게 cycle을 시작한다. "Sleeping" 상태는 두 가지 경우가 있는데, 하나는 signal을 받아 방해(interrupt) 받을 수 있는 것과 그렇지 못한 것이다. 이시점에서는 sleeping의 경우의 수는 다루지 않는다. 

만약 process가 event를 기다리고 있는 상태라면, 그 process의 상태는 "running"에서 "sleeping" 상태로 변경된다. 하지만, sleeping 상태의 process는 바로 running 상태로 변경이 이루어지지 않는다. 일단 기다리던 event가 발생했을 경우, 그 process는 waiting(그림 2-2의 3번 전이)로 변경되고 다음 번 실행을 기다리게 된다. 

Program 실행이 종료되면(사용자가 application을 종료한 경우 등), process의 상태는 running에서 stopped로 변경된다(그림 2-2  에서 5번 전이)

위에 설명되지 않은 process의 특별한(?) 상태가 있는데, 그것은 "zombie" 상태이다. 이름에서도 알수 있듯이, process가 죽었지만 어찌된 영문인지 여전히 살아있는 상태로 보이는 것이다. 다시 말하면, 그 process들은 사용하던 자원(RAM, 주변장치의 연결 등)을 반납하고 다시는 실행될 수 없는 상태로 소위 죽은 것이다. 그렇지만 process table에 그것들을 위한 공간이 존재하기 때문에 살아있는 것처럼 보인다는 것이다. 

Process가 Zombie 상태로 들어가는 경우는, UNIX 시스템의 process 생성과 종료 구조에 관련되어 있다. 하나의 program가 종료하는 상태는 두 가지가 있다.. 한가지는, 다른 process나 사용자에 의해서 강제 종료되어지는 경우다.(이런 경우는 대게 SIGTERM 이나 SIGKILL signal을 종료대상 process에게 전달되어 이루어진다.-이는 process가 일반적으로 종료하는 경우와 동등한 효과를 가진다), 다른 한가지는, child process가 종료되는 시점에 parent process가 이미 wait4 시스템 콜을 실행하여 child의 종료상태를 parent가 받는 경우이다. 결국 parent process가 child의 종료상태를 인지하고 kernel에게 알려줘야 한다는 것이다. 그 시스템 콜은 child process에게 할당된 자원을 kernel이 해제해주게 된다. 

위에 기술했던 상황 모두 zombie 상태는 발생하게 된다. 하나의 process는 종료와 process table에서 제거되는 시점 사이에 잠시 zombie 상태를 거처간다. 어떤 경우는(parent process가 잘못 구현되어 wait 시스템 콜을 호출하지 않고 종료한 경우), child process가 종료상태를 parent에 알려주지 못한 상태에서 종료를 하여 썼던 자원은 해제가 되었겠지만 시스템의 다음 rebooting 까지 process table을 차지 할 수 있다.(zombie 상태로 오래 남아있는 경우다) 이것은 ps나 top 명령어로 확인 될 수 있다. process table에 남아 있는 zombie 상태는 kernel의 아주 작은 영역을 차지하고 있어 큰 문제가 되질 않는다. 

Posted by cyj4369
,