728x90

CPU 스케줄링은 시스템의 성능과 효율성을 최적화하기 위해 여러 프로세스 또는 스레드에 CPU 사용 시간을 어떻게 할당할지 결정하는 과정이다. 이 과정에서 스케줄링 알고리즘을 사용하여 작업의 실행 순서를 결정한다.

 

FIFO(FCFS)는 먼저 도착한 프로세스를 먼저 처리한다. 프로세스가 준비 큐에 도착한 순서대로 CPU를 할당받는다.

프로세스 ID 도착 시간 실행 시간
P1 0 4
P2 1 3
P3 2 2

 

  1. P1은 시간 0에 도착하여 바로 실행을 시작하고, 4시간 동안 실행된다. (0-4)
  2. P2는 시간 1에 도착하지만, P1이 실행 중이므로 대기해야 하며, P1이 완료된 시간 4에 실행을 시작하여 3시간 동안 실행된다. (4-7)
  3. P3는 시간 2에 도착하지만, P1과 P2의 실행을 대기해야 하며, P2가 완료된 시간 7에 실행을 시작하여 2시간 동안 실행된다. (7-9)

SJF(Shortest Job First)는 실행 시간이 가장 짧은 프로세스에게 먼저 CPU를 할당한다. SJF는 비선점형과 선점형(SRTF) 두 가지 변형이 있다.

프로세스 ID 도착 시간 실행 시간
P1 0 6
P2 1 5
P3 2 4

 

  1. 시간 0에 P1이 도착하고, 다른 프로세스가 없으므로 P1이 실행을 시작한다.
  2. 시간 1에 P2가 도착하지만, P1이 실행 중이므로 P2는 대기해야 한다.
  3. 시간 2에 P3가 도착하지만, P1이 여전히 실행 중이므로 P3도 대기한다.
  4. 시간 6에 P1의 실행이 완료되며, 이 시점에서 대기 중인 P2와 P3 중에서 실행 시간이 가장 짧은 P3(실행 시간 4)이 다음으로 실행된다.
  5. 시간 10에 P3의 실행이 완료되고, 마지막으로 P2(실행 시간 5)가 실행된다.

RR(Round Robin)은 프로세스에게 동일한 크기의 시간 할당량(타임 슬라이스)을 순차적으로 할당한다. 타임 슬라이스가 지나면 프로세스는 준비 큐의 끝으로 이동하고, CPU는 다음 프로세스에게 할당된다.

프로세스ID 도착 시간 실행 시간
P1 0 6
P2 2 2
P3 4 4

 

위 표에서 타임 슬라이스가 2일 때,

  1. 시간 0~2: P1이 먼저 시작하여 처음 2초 동안 실행된다.
  2. 시간 2~4: P1의 타임 슬라이스가 끝나고 P2가 도착했으므로, P2가 다음 2초 동안 실행된다.
  3. 시간 4~6: P2가 종료되고, P3가 도착했으므로 P3가 다음 2초 동안 실행된다.
  4. 시간 6~8: P1이 다시 실행되어 남은 2초 동안 실행된다.(총 실행 시간 6초 중 4초가 남았으므로 2초만 실행)
  5. 시간 8~10: P3가 다시 실행되어 다음 2초 동안 실행된다.(남은 시간 2초)
  6. 시간 10~12: P3의 남은 2초가 실행되어 종료된다.

우선순위 스케줄링(Priority Scheduling)은 각 프로세스에 우선순위를 할당하고, 가장 높은 우선순위를 가진 프로세스에게 먼저 CPU를 할당한다. 이 알고리즘도 비선점형과 선점형이 있다.

프로세스 ID 도착 시간 실행 시간 우선순위
P1 0 6 3
P2 2 2 1
P3 4 4 2
  • 시간 0~2: P1이 가장 먼저 도착하므로 실행을 시작한다. 우선순위는 3이다.
  • 시간 2~4: P2가 도착한다. P2의 우선순위는 1로, 가장 높다. 따라서, P1의 실행이 중단되고 P2가 실행을 시작한다. P2는 실행 시간이 2초이므로 이 기간 동안 완료된다.
  • 시간 4~6: P2의 실행이 완료된 후, P1이 중단되었던 지점부터 실행을 재개한다. 그러나 바로 P3가 도착한다. P3의 우선순위는 2로, 실행 중인 P1보다 높다. 따라서, P1의 실행이 다시 중단되고 P3가 실행을 시작한다.
  • 시간 4~8: P3은 실행 시간이 4초이므로, 이 기간 동안 실행되어 완료된다.
  • 시간 8~14: P3의 실행이 완료된 후, 중단되었던 P1이 남은 실행 시간을 가지고 실행을 재개한다. P1은 남은 4초 동안 실행되어 완료된다.

다단계 큐(Multilevel Queue)스케줄링은 준비 큐를 여러 개의 별도 큐로 분할하고, 각 큐는 자신만의 스케줄링 알고리즘을 가진다. 프로세스는 그들의 특성(예: 우선순위, 프로세스 타입 등)에 따라 적절한 큐에 배치된다.

프로세스 ID 도착 시간 실행 시간
P1 0 6 Q2
P2 2 2 Q1
P3 4 4 Q2

두 개의 큐 (Q1>Q2)일 때,

  1. 시간 0~2: P1이 Q2에 있으며, 시스템에 다른 프로세스가 없기 때문에 P1이 실행을 시작한다.
  2. 시간 2~4: P2가 도착하고 Q1에 배치된다. Q1이 Q2보다 우선순위가 높기 때문에, P1의 실행이 중단되고 P2가 실행을 시작한다.
  3. 시간 4~6: P2의 실행이 완료된다. P1의 남은 실행 시간은 4초이다. 이때 P3가 도착하지만, P1이 먼저 도착했으므로 P1이 계속해서 실행된다.
  4. 시간 6~10: P1의 실행이 완료된다. 이제 P3가 실행을 시작한다.
  5. 시간 10~14: P3의 실행이 완료된다.

다단계 피드백 큐(Multilevel Feedback Queue)스케줄링은 다단계 큐 스케줄링을 확장한 형태로, 프로세스가 다른 큐로 이동할 수 있게 한다. 이는 프로세스의 실행 행위에 따라 동적으로 우선순위를 조정할 수 있게 한다.

프로세스 ID 도착 시간 실행 시간
P1 0 6 Q1
P2 2 2 Q1
P3 4 4 Q1

두 개의 큐(Q1>Q2), 타임 슬라이스 2일때, 

  1. 시간 0~2: P1이 처음 2초 동안 실행된다.
  2. 시간 2~4: P1의 타임 슬라이스가 종료되고, P2가 도착했으므로 P2가 다음 2초 동안 실행된다. 이 시점에서 P2는 완료된다.
  3. 시간 4~6: P2가 완료되고, P3가 도착했으므로 P3가 다음 2초 동안 실행된다.
  4. 시간 6~8: P3의 첫 번째 타임 슬라이스가 종료되고, P1이 다시 실행을 시작한다. P1은 두 번째 타임 슬라이스인 2초 동안 실행된다.
  5. 시간 8~10: P1의 두 번째 타임 슬라이스가 종료되고, P3가 다시 실행을 시작한다. P3는 나머지 2초 동안 실행되어 완료된다.
  6. 시간 10~12: P1이 마지막 2초 동안 실행되어 완료된다.

4BSD(4th Berkeley Software Distribution)는 유닉스 운영 체제의 한 버전으로, 버클리 캘리포니아 대학교에서 개발되었다. 이 운영 체제는 많은 혁신적인 기능을 도입하여 유닉스 기반 시스템의 발전에 큰 영향을 미쳤다. 4BSD 스케줄러는 특히 시분할 시스템에 적합한 CPU 스케줄링 알고리즘을 제공하며, 시스템의 반응 시간과 사용자와의 상호 작용에 초점을 맞춘다. 이 스케줄러는 프로세스의 우선순위를 동적으로 조정하여, 인터랙티브한 작업과 배경 작업 사이의 균형을 잘 맞출 수 있다.

 

nice는 유닉스 및 유닉스 계열 운영 체제에서 프로세스의 스케줄링 우선순위를 조정하기 위해 사용되는 명령어이다. 프로세스에 'nice 값'을 할당함으로써, 시스템은 해당 프로세스의 우선순위를 조정한다. nice 값이 낮을수록 프로세스는 더 높은 우선순위를 갖게 되어 CPU 시간을 더 많이 받는다. 반대로, nice 값이 높을수록 프로세스의 우선순위는 낮아지고, CPU 시간을 더 적게 할당받게 된다. 이를 통해 시스템 관리자나 사용자는 중요도가 낮은 작업에 더 낮은 우선순위를 지정하여 중요한 작업이 더 많은 시스템 자원을 사용할 수 있도록 할 수 있다.

 

728x90
728x90

32비트 시스템은 한 번에 32비트(4바이트)의 데이터를 처리할 수 있다. 메모리 주소도 32비트로 표현되어, 최대 4GB(2의 32승 바이트)의 RAM을 직접적으로 접근할 수 있다. 32비트 운영 체제와 응용 프로그램은 주로 오래된 컴퓨터나 임베디드 시스템에서 사용된다.

 

32비트 시스템에서는 에서는 대규모 데이터 세트를 처리하거나 고해상도 그래픽을 사용하는 최신 게임과 응용 프로그램의 요구 사항을 충족시키기 어렵다.

 

64비트 시스템은 한 번에 64비트(8바이트)의 데이터를 처리한다. 이로 인해 메모리 주소 공간이 대폭 확장되어, 이론적으로는 16엑사바이트(약 1.8 x 10^19 바이트)까지의 메모리를 지원한다. 실제로는 시스템에 따라 이보다 적은 양의 메모리를 사용할 수 있지만, 현대의 대부분의 애플리케이션과 운영 체제는 64비트를 기반으로 한다.

 

64비트 시스템은 더 많은 메모리를 효율적으로 사용할 수 있으며, 더 큰 데이터 단위를 처리할 수 있다. 이는 특히 대용량 데이터를 다루는 애플리케이션에서 성능의 향상을 의미한다.

 

x86과 x86-64(또는 AMD64, Intel 64로도 알려짐) 아키텍처는 컴퓨터의 CPU 설계를 의미한다. 이들은 프로세서가 데이터를 처리하고 메모리에 접근하는 방식을 정의한다.

 

x86 아키텍처는 32비트 기반이고 978년 인텔이 개발한 Intel 8086 마이크로프로세서에서 유래했다. 최대 4GB 메모리 접근 가능하고 오래된 시스템, 임베디드 시스템, 저성능 요구 사항을 가진 애플리케이션에 적합하다.

 

x86-64 아키텍처는 64비트 확장 버전이고, 2000년대 초 AMD에 의해 처음 소개됨(AMD64), 인텔은 나중에 유사한 기술(EtM64T, 후에 Intel 64로 재명명)을 도입했다. 이론적으로 최대 16엑사바이트(2의 64승 바이트)까지 메모리 접근 가능, 실제로는 시스템에 따라 제한된다. 기존 x86 아키텍처 기반의 소프트웨어를 지원하면서, 더 큰 메모리와 향상된 성능 제공한다. 현대의 대부분 컴퓨터, 고성능 서버, 게임, 고급 계산 작업에 사용된다.

 

RAX는 x86-64아키텍처의 범용 레지스터이다. x86-64는 32비트인 x86 아키텍처의 확장버전이다. RAX의 R은 64를 의미하고 AX는 어큐뮬레이터 레지스터를 뜻한다. 기존의 x86 아키텍처의 범용 레지스터 EAX, EBX, ECX 등 하위 32비트를 사용함과 동시에 확장시킨게 RAX, RBX, RCX 이다.

RAX를 제외한 RBX(Base), RCX(Count), RDX(Data), RSI(Source Index), RDI(Destination Index)같은 이런 범용 레지스터들의 역할은 함수 호출시 인자전달을 하거나 로컬 변수를 저장하거나 스택 포인터를 관리하는 등의 역할을 한다.

AX 레지스터는 주로 산술 연산, 데이터 이동, 입/출력 명령 등 다양한 목적으로 사용된다. 산술 연산 및 논리 연산 명령어의 결과는 종종 RAX 레지스터에 저장됨과 동시에 연산의 결과값 또한 저장된다.

상위 8비트 AH와 하위 8비트 AL이 합쳐서16비트 AX가 되고, 확장(Extension)이 32비트의 EAX 이다. 이 EAX의 확장이 64비트의 RAX(Register Accumulator Extended)이다.

시스템 호출을 수행할 때, RAX는 호출되는 시스템 호출의 번호를 저장하는 데 사용된다. 시스템 호출이 완료된 후, RAX는 반환값을 담는 데 사용되며, 프로그램이 예외 상황을 만났을 때, RAX는 예외 처리 루틴에서 중요한 정보를 담는데 사용될 수 있다. 또 돌아가야할 리턴 값을 저장할 때 사용하기도 한다. 컴파일러는 RAX를 자주 사용되는 값의 저장 및 연산을 사용하여 성능을 최적화한다.

 

CPU(Central Processing Unit)컴퓨터의 '두뇌'로, 기본적인 산술, 제어, 입력/출력(I/O) 작업과 같은 명령어들을 처리한다. CPU의 32비트와 64비트는 주로 메모리 주소 지정 능력과 데이터 처리 능력에서 차이를 보인다.

 

32비트 CPU메모리 주소 공간이 4GB로 제한된다. 이는 32비트 시스템이 한 번에 처리할 수 있는 주소 범위가 2^32, 즉 4GB까지라는 의미이다. 오래된 시스템이나 가벼운 애플리케이션에 적합하다.

 

64비트 CPU는 씬 더 큰 메모리 주소 공간(2^64)을 지원한다. 이론적으로는 16EB(엑사바이트)까지 지원하지만 실제로는 시스템에 따라 제한될 수 있다. 더 큰 데이터 단위를 한 번에 처리할 수 있어, 복잡한 계산과 대용량 데이터 처리에 더 효율적이다. 최신 운영 체제와 애플리케이션은 대부분 64비트 아키텍처를 사용한다.

 

GPU(Graphics Processing Unit)는 복잡한 그래픽 처리와 대량의 병렬 처리 작업에 특화된 프로세서이다. GPU의 32비트와 64비트는 주로 연산 처리 능력에서 차이를 볼 수 있지만, GPU에서는 이보다는 병렬 처리 능력, 코어의 수, 메모리 대역폭 등이 더 중요한 성능 지표가 된다.

 

CPU 사용이 적합한 경우:

  • 일반적인 컴퓨팅 작업: 웹 브라우징, 문서 작업, 기본적인 소프트웨어 사용 등.
  • 직렬 처리 작업: 한 번에 한 작업씩 처리해야 하는 복잡한 로직이나 계산이 필요한 경우. 예를 들어, 알고리즘 처리, 서버 측 애플리케이션 등.
  • 다양한 종류의 명령어 처리가 필요한 경우: CPU는 다양한 종류의 작업을 처리할 수 있는 광범위한 명령어 세트를 가지고 있다.
  • 멀티태스킹: 여러 프로그램을 동시에 실행하는 환경에서는 CPU가 각각의 프로세스를 관리하고 조정하는 데 중요한 역할을 한다.

GPU 사용이 적합한 경우:

  • 그래픽 처리: 비디오 게임, 3D 모델링, VR(가상 현실) 등 고도의 그래픽 처리가 필요한 작업.
  • 병렬 처리 작업: 동일한 연산을 대량의 데이터에 적용해야 하는 경우. 예를 들어, 이미지나 비디오 처리, 딥러닝, 복잡한 과학적 계산 등.
  • 데이터 분석 및 기계 학습: 대규모 데이터 세트에 대한 복잡한 계산을 빠르게 수행할 수 있어, 빅 데이터 분석, 인공 지능 개발 등에 유용하다.
  • 고성능 컴퓨팅(HPC) 작업: 과학적 시뮬레이션, 기상 모델링, 유전자 연구 등과 같이 막대한 양의 계산이 필요한 경우.
728x90
728x90

프로그래밍에서 함수나 메서드를 호출할 때 인자를 전달하는 방식에는 주로 Call by Value(값에 의한 호출)와 Call by Reference(참조에 의한 호출) 두 가지 방법이 있다. 이 두 전달 방식은 함수를 호출할 때 인자가 어떻게 함수에 전달되는지, 그리고 함수 내에서 인자의 값을 변경했을 때 그 변경이 호출자에게 반영되는지 여부에 대한 차이를 나타낸다.

 

 

call by value는 함수에 인자를 전달할 때, 인자의 실제 값을 복사하여 함수에 전달하는 방식이다. 함수 내에서 인자의 값을 변경해도, 원본 인자에는 영향을 미치지 않는다. 왜냐하면 함수에는 원본 인자의 복사본이 전달되기 때문이다. 주로 기본 자료형(정수, 실수, 문자 등)을 인자로 사용할 때 보이는 특성이다.

 

void addOne(int x) {
    x = x + 1;
}

int main() {
    int num = 10;
    addOne(num);
    // 여기서 num의 값은 여전히 10이다.
}

 

call by reference는 함수에 인자를 전달할 때, 인자의 메모리 주소를 전달하는 방식이다. 함수 내에서 인자의 값을 변경하면, 그 변경이 원본 인자에도 반영된다. 함수에는 원본 인자를 가리키는 주소가 전달되기 때문이다. 주로 복잡한 자료형(객체, 배열 등)을 인자로 사용할 때 보이는 특성이다.

void addOne(int& x) {
    x = x + 1;
}

int main() {
    int num = 10;
    addOne(num);
    // 여기서 num의 값은 11이 된다.
}
public void updateArray(int[] arr) {
    arr[0] = 100;
}

public static void main(String[] args) {
    int[] myArray = {1, 2, 3};
    new Test().updateArray(myArray);
    // 여기서 myArray[0]은 100이 된다.
}

 

Python에서 가비지 컬렉션은 메모리 관리의 한 형태로, 프로그램에서 더 이상 사용되지 않는 메모리를 자동으로 회수하는 프로세스를 말한다.

 

Python의 가비지 컬렉터는 주로 참조 카운팅(reference counting) 방식을 사용하여, 어떤 객체에 대한 참조가 더 이상 존재하지 않을 때 해당 객체를 메모리에서 해제한다. 추가적으로, 순환 참조(circular references)를 탐지하고 제거하기 위해 세대별(generational) 가비지 컬렉션을 사용한다.

 

Java에서 가비지 컬렉션은 JVM이 자동으로 메모리 관리를 수행하는 과정이다. 이 과정은 사용되지 않는 객체를 식별하고, 메모리에서 제거하여 애플리케이션의 효율성을 극대화한다. 가비지 컬렉션의 핵심 알고리즘에는 마킹 및 스위핑, 복사, 마킹-콤팩트, 그리고 세대별 수집이 포함된다.

 

메타 데이터는 데이터에 대한 데이터라는 의미를 가진다. Java에서는 클래스, 메서드, 변수 등과 같은 프로그램 요소에 대한 정보를 의미한다. 예를 들어, 클래스 파일(.class)에는 클래스 이름, 메서드 시그니처, 변수 타입 등 해당 클래스에 관한 정보가 메타 데이터로 포함된다.

 

메타 스페이스는  Java 8 이전에는 클래스 로더가 로드한 클래스 메타 데이터가 퍼머넌트 제너레이션(Permanent Generation, PermGen) 영역에 저장되었다. Java 8에서는 PermGen이 제거되고, 메타 스페이스라는 새로운 메모리 영역이 도입되었다. 메타 스페이스는 네이티브 메모리(non-heap memory)를 사용하여 클래스 메타 데이터를 저장한다.

 

PermGen 영역은 고정된 크기를 가지고 있었고, 이로 인해 많은 클래스를 로드하는 애플리케이션에서는 java.lang.OutOfMemoryError: PermGen space 오류가 발생할 수 있었다. 메타 스페이스는 필요에 따라 동적으로 확장될 수 있어 이러한 문제를 해결한다.

 

메타 스페이스는 JVM 외부의 네이티브 메모리를 사용하기 때문에, JVM의 힙 메모리 영역과 독립적으로 관리된다. 따라서 메타 데이터의 크기가 JVM의 최대 힙 크기에 영향을 미치지 않으며, 더 유연한 메모리 관리가 가능해진다.

 

메타 스페이스의 크기는 JVM 시작 시 -XX:MetaspaceSize-XX:MaxMetaspaceSize 옵션을 통해 초기 크기와 최대 크기를 설정할 수 있다. 이를 통해 애플리케이션의 요구 사항에 맞게 메타 스페이스의 메모리 사용을 조절할 수 있다.

728x90
728x90

메모리 할당 방식에는 여러 가지가 있으며, 그 중 implicit(암시적), explicit(명시적), segregated list(분리된 리스트)는 메모리 블록을 관리하는 데 사용되는 대표적인 방법들이다. 각 방식은 메모리를 할당하고 해제하는 방법, 그리고 가용 메모리 블록을 추적하는 방법에서 차이를 보인다.

 

Fist Fit사용 가능한 메모리 블록 리스트를 처음부터 탐색해 요청된 크기를 수용할 수 있는 첫 번째 블록을 할당한다. 탐색 과정이 단순하며 때로 빠르다. 하지만 메모리 앞부분에 작은 블록들이 많이 남게 되어 큰 메모리 요청을 처리할 때 효율이 떨어질 수 있다. 이는 외부 단편화로 이어진다.

 

Next Fit Last Fit과 유사하되, 마지막으로 메모리를 할당한 위치부터 탐색을 시작해 전체 리스트를 순환한다. 마지막 할당 위치에서 시작하기 때문에 전체 메모리 공간의 사용이 더 균일해질 수 있다. 하지만 탐색 효율성이 낮아질 수 있으며, 큰 블록 요청 시 외부 단편화 문제가 발생할 수 있다.

 

Best Fit요청된 크기를 수용할 수 있으면서 가장 작은 블록을 선택해 할당한다. 메모리 낭비를 최소화하여 외부 단편화의 가능성을 줄인다. 하지만 전체 리스트를 탐색해야 하므로 탐색 시간이 길어질 수 있으며, 빈번한 작은 블록 할당으로 인해 내부 단편화가 발생할 수 있다.

 

implicit(암시적) 메모리 할당 방식은 free list를 사용하여 가용 메모리 블록을 추적한다. 이 리스트는 메모리 내의 가용 블록들을 순차적으로 연결한다. 메모리 할당 요청이 들어오면, 할당자는 리스트를 처음부터 탐색하여, 요청된 크기를 수용할 수 있는 첫 번째 블록을 할당한다. 이 과정을 "first-fit" 탐색이라고도 한다.

 

이 포스팅에는 implicit을 더 효율적인 next-fit으로 변형한 코드만 다루고 있다.

 

mm_init 함수는 메모리 관리 시스템을 초기화하는 데 사용된다. 이 함수는 동적 메모리 할당자를 초기화하고, 필요한 초기 메모리 구조를 설정하여 사용자가 요청하는 메모리 할당 및 해제 요청을 처리할 준비를 한다.

int mm_init(void)
{
    if ((heap_listp = mem_sbrk(4 * WSIZE)) == (void *)-1) // 초기 힙 메모리를 할당
        return -1;

    PUT(heap_listp, 0);                            // 힙의 시작 부분에 0을 저장하여 패딩으로 사용
    PUT(heap_listp + (1 * WSIZE), PACK(DSIZE, 1)); // 프롤로그 블럭의 헤더에 할당된 상태로 표시하기 위해 사이즈와 할당 비트를 설정하여 값을 저장
    PUT(heap_listp + (2 * WSIZE), PACK(DSIZE, 1)); // 프롤로그 블록의 풋터에도 마찬가지로 사이즈와 할당 비트를 설정하여 값을 저장
    PUT(heap_listp + (3 * WSIZE), PACK(0, 1));     // 에필로그 블록의 헤더를 설정하여 힙의 끝을 나타내는 데 사용
    heap_listp += (2 * WSIZE);                     // 프롤로그 블록 다음의 첫 번째 바이트를 가리키도록 포인터 조정
    find_nextp = heap_listp;                       // nextfit을 위한 변수

    if (extend_heap(CHUNKSIZE / WSIZE) == NULL) // 초기 힙을 확장하여 충분한 양의 메모리가 사용 가능하도록 chunksize를 단어 단위로 변환하여 힙 확장
        return -1;
    if (extend_heap(4) == NULL)                  //자주 사용되는 작은 블럭이 잘 처리되어 점수가 오름
        return -1;
    return 0;
}

 

mm_malloc 함수의 구현은 메모리 관리 시스템의 일부로, 요청된 크기의 메모리 블록을 동적으로 할당하는 기능을 제공한다. 이 함수는 요청된 크기를 조정하여 오버헤드와 정렬 요구 사항을 충족시키고, 적절한 크기의 블록을 찾거나 힙을 확장하여 메모리를 할당한다.

 

void *mm_malloc(size_t size)
{
    size_t asize;      /* Adjusted block size */
    size_t extendsize; /* Amount to extend heap if no fit */
    char *bp;

    /* Ignore spurious requests */
    if (size == 0)
        return NULL;

    /* Adjust block size to include overhead and alignment reqs. */
    if (size <= DSIZE)
        asize = 2 * DSIZE;
    else
        asize = DSIZE * ((size + (DSIZE) + (DSIZE - 1)) / DSIZE);

    /* Search the free list for a fit */
    if ((bp = find_fit(asize)) != NULL)
    {
        place(bp, asize);
        return bp;
    }

    /* No fit found. Get more memory and place the block */
    
    extendsize = MAX(asize, CHUNKSIZE);
    if ((bp = extend_heap(extendsize / WSIZE)) == NULL)
        return NULL;
    place(bp, asize);
    return bp;
}

 

아래는 동적 메모리 할당기의 일부로 사용되는 find_fit 함수의 구현 예시이며, "Next Fit" 메모리 할당 전략을 사용한다. 이 함수의 목적은 요청된 크기(asize) 이상의 가용 메모리 블록을 찾는 것이다.

static void *find_fit(size_t asize)
{
    /* Next-fit search */
    void *bp;
    bp = find_nextp;
    // 현재 블록이 에필로그 블록이 아닌 동안 계속 순회, 블록의 헤더 크기가 0보다 크지 않으면 에필로그 블럭
    for (; GET_SIZE(HDRP(find_nextp)) > 0; find_nextp = NEXT_BLKP(find_nextp))
    {
        // 가용 블럭의 헤더가 할당되어 있지 않고 요청된 크기보다 크거나 같은 경우 해당 가용 블록을 반환
        if (!GET_ALLOC(HDRP(find_nextp)) && (asize <= GET_SIZE(HDRP(find_nextp))))
        {
            return find_nextp;
        }
    }
    // 위의 for루프에서 가용 블럭을 찾지 못한 경우, 다시 순회
    for (find_nextp = heap_listp; find_nextp != bp; find_nextp = NEXT_BLKP(find_nextp))
    { // 이전에 탐색했던 find_nextp 위치에서부터 다시 가용 블록을 찾아서 반환
        if (!GET_ALLOC(HDRP(find_nextp)) && (asize <= GET_SIZE(HDRP(find_nextp))))
        {
            return find_nextp;
        }
    }

    return NULL;
}

 

place 함수는 메모리 할당 과정에서 효율성을 높이기 위해 설계되었다. 할당 요청에 따라 메모리 블록을 최적으로 사용할 수 있도록 하며, 할당 후 남은 공간이 충분히 크면 이를 다시 가용 블록으로 반환하여 메모리 낭비를 줄인다. 이 과정은 메모리 단편화를 방지하고 메모리 사용 효율을 높이는 데 중요하다.

static void place(void *bp, size_t asize)
{
    size_t csize = GET_SIZE(HDRP(bp)); // 현재 블록의 크기를 알아냄

    // 남은 공간이 충분히 클 경우, 즉 요청한 크기(asize)와 현재 크기(csize)의 차이가
    // 두 배의 더블 사이즈(DSIZE)보다 크거나 같으면 블록을 나눔
    if ((csize - asize) >= (2 * DSIZE))
    {
        PUT(HDRP(bp), PACK(asize, 1));         // 사용할 블록의 헤더에 크기와 할당된 상태 저장
        PUT(FTRP(bp), PACK(asize, 1));         // 사용할 블록의 푸터에도 똑같이 저장
        bp = NEXT_BLKP(bp);                    // 나머지 블록으로 포인터 이동
        PUT(HDRP(bp), PACK(csize - asize, 0)); // 나머지 블록의 헤더에 크기와 빈 상태 저장
        PUT(FTRP(bp), PACK(csize - asize, 0)); // 나머지 블록의 푸터에도 똑같이 저장
    }
    else // 남은 공간이 충분히 크지 않으면 현재 블록 전체 사용
    {
        PUT(HDRP(bp), PACK(csize, 1)); // 현재 블록의 헤더에 크기와 할당된 상태 저장
        PUT(FTRP(bp), PACK(csize, 1)); // 현재 블록의 푸터에도 똑같이 저장
    }
}

 

coalesce 함수는 메모리 해제 또는 메모리 할당 과정 중에 인접한 가용 블록들을 하나의 큰 블록으로 합치는 역할을 한다. 이 과정은 메모리 단편화를 줄이고, 효율적인 메모리 사용을 가능하게 한다. 병합 방식은 주변 블록들의 할당 상태에 따라 달라진다.

static void *coalesce(void *bp)
{
    size_t prev_alloc = GET_ALLOC(FTRP(PREV_BLKP(bp)));
    size_t next_alloc = GET_ALLOC(HDRP(NEXT_BLKP(bp)));
    size_t size = GET_SIZE(HDRP(bp));

    if (prev_alloc && next_alloc) /* Case 1 */
    {
        return bp;
    }

    if (prev_alloc && !next_alloc) /* Case 2 */
    {
        size += GET_SIZE(HDRP(NEXT_BLKP(bp)));
        PUT(HDRP(bp), PACK(size, 0));
        PUT(FTRP(bp), PACK(size, 0));
    }
    else if (!prev_alloc && next_alloc) /* Case 3 */
    {
        size += GET_SIZE(HDRP(PREV_BLKP(bp)));
        PUT(FTRP(bp), PACK(size, 0));
        PUT(HDRP(PREV_BLKP(bp)), PACK(size, 0));
        bp = PREV_BLKP(bp);
    }
    else /* Case 4 */
    {
        size += GET_SIZE(HDRP(PREV_BLKP(bp))) +
                GET_SIZE(FTRP(NEXT_BLKP(bp)));
        PUT(HDRP(PREV_BLKP(bp)), PACK(size, 0));
        PUT(FTRP(NEXT_BLKP(bp)), PACK(size, 0));
        bp = PREV_BLKP(bp);
    }
    find_nextp = bp;
    return bp;
}

 

realloc 함수는 주어진 포인터 ptr에 할당된 메모리 블록의 크기를 변경하기 위해 사용된다. 요청된 새 크기(size)에 따라 메모리 블록을 확장하거나 축소한다. 이 과정에서 필요하다면, 새로운 메모리 위치로 데이터를 복사하고 원래 메모리를 해제한다.

void *mm_realloc(void *ptr, size_t size)
{
    void *oldptr = ptr;
    void *newptr;
    size_t copySize;

    // 새로운 메모리 블록 할당
    newptr = mm_malloc(size);

    if (newptr == NULL)
        return NULL;

    // 이전 블록의 데이터 크기를 가져옴
    copySize = GET_SIZE(HDRP(oldptr));

    // 실제 복사할 데이터 크기는 이전 블록 크기와 요청된 새 블록 크기 중 작은 값
    if (size < copySize)
        copySize = size;

    // 데이터를 새 블록으로 복사
    memcpy(newptr, oldptr, copySize);

    // 이전 블록 해제
    mm_free(oldptr);

    return newptr;
}

 

implicit 리스트를 사용한 메모리 할당에서는 가용 블록을 찾기 위해 리스트의 시작부터 순차적으로 탐색해야 한다. 큰 메모리 풀에서 적합한 블록을 찾는 데 시간이 오래 걸릴 수 있으며, 이는 메모리 할당과 해제 작업의 효율성을 떨어뜨린다. 메 모리 할당과 해제가 빈번하게 이루어질 경우, 암시적 방식은 빠르게 메모리 단편화를 야기하고, 이는 시간이 지남에 따라 전반적인 시스템 성능에 부정적인 영향을 미칠 수 있다.

 

위 구현된 implicit 외의 explicit(명시적) 메모리 할당 방식에서는 가용 메모리 블록을 관리하기 위해 별도의 자료 구조(예: 이중 연결 리스트)를 사용한다. 각 가용 블록은 다음과 이전의 가용 블록을 가리키는 포인터를 포함한다. 이를 통해 할당과 해제가 훨씬 유연하게 이루어질 수 있다.

 

segregated list(분리된 리스트) 메모리 할당 방식에서는 다양한 크기 범위에 따라 여러 개의 가용 리스트를 유지한다. 각 리스트는 특정 크기 범위의 블록들만을 포함한다. 메모리 할당 요청이 들어오면, 해당 크기 범위에 맞는 리스트를 선택하여 가용 블록을 탐색한다.

 

buddy system은 가변 크기의 메모리 할당을 지원하며, 특히 시스템 프로그래밍이나 운영 체제에서 자주 사용된다. Buddy System의 핵심 아이디어는 메모리를 고정된 크기의 블록으로 분할하고, 이 블록들을 필요에 따라 합치거나 분할하여 메모리를 할당하는 것이다. 이 과정에서 각 메모리 블록의 "buddy" 또는 짝을 이용해 효율적으로 메모리를 관리한다.

 

buddy system의  메모리는 2의 거듭제곱 크기의 블록으로 분할된다. 예를 들어, 메모리 크기가 2^N인 경우, 가능한 블록 크기는 2^0, 2^1, 2^2, ..., 2^N까지 다양하다. 그리고 할당을 할 때에는 요청된 메모리 크기에 가장 잘 맞는 블록 크기를 찾는다. 이는 요청 크기보다 크거나 같은 가장 작은 2의 거듭제곱 크기의 블록을 의미한다. 만약 해당 크기의 블록이 없다면, 더 큰 블록을 분할하여 요구를 충족시킨다.

 

각 블록은 고유한 buddy 또는 짝을 가지며, 이는 같은 크기의 인접한 블록을 의미한다. Buddy는 블록의 주소와 크기를 이용하여 계산할 수 있다. 메모리 블록이 해제될 때, 해당 블록의 buddy가 현재 사용 가능한지 확인한다. 만약 buddy도 사용 가능하다면, 두 블록을 합쳐서 더 큰 블록을 만든다. 이 과정을 반복하여 가능한 한 큰 블록을 유지한다.

 

https://github.com/yunsejin/Malloc-lab

 

GitHub - yunsejin/Malloc-lab: 4교육장 5주차 (2024.2.8(목) ~ 2024.2.21(수)) 2조 공부 기록

4교육장 5주차 (2024.2.8(목) ~ 2024.2.21(수)) 2조 공부 기록. Contribute to yunsejin/Malloc-lab development by creating an account on GitHub.

github.com

 

728x90
728x90

malloc, calloc, realloc은 C언어에서 동적 메모리 할당을 위해 사용되는 함수다.

  1. malloc (Memory Allocation)
    • void* malloc(size_t size) 형태다.
    • 지정된 크기의 메모리 블록을 할당하고, 할당된 메모리의 주소를 반환한다. 초기화하지 않으므로 메모리 내용은 예측할 수 없다.
    • 예: int* arr = (int*)malloc(10 * sizeof(int)); // int형 10개를 저장할 수 있는 공간 할당
  2. calloc (Contiguous Allocation)
    • void* calloc(size_t num, size_t size) 형태다.
    • 지정된 수(num)의 요소 각각이 size 크기인 메모리 블록을 할당하고, 모든 바이트를 0으로 초기화한다.
    • 예: int* arr = (int*)calloc(10, sizeof(int)); // int형 10개를 저장할 수 있는 공간을 할당하고 0으로 초기화
  3. realloc (Re-Allocation)
    • void* realloc(void* ptr, size_t newSize) 형태다.
    • 이미 할당된 메모리 블록의 크기를 newSize로 변경한다. 필요하면 새로운 위치로 메모리 블록을 이동시키고, 원래 위치의 메모리는 해제한다.
    • 예: arr = (int*)realloc(arr, 20 * sizeof(int)); // arr의 크기를 int형 20개를 저장할 수 있도록 조정

이 함수들은 stdlib.h 헤더 파일에 정의되어 있으멀로 사용하기 위해서는 이 헤더 파일을 포함시켜야 한다. 동적 메모리 할당 후에는 free 함수를 사용하여 할당된 메모리를 해제해야 메모리 누수를 방지할 수 있다.

 

malloc 지정된 크기의 메모리 블록을 할당. 초기화되지 않음. int *a = malloc(4*sizeof(int)); [ ?, ?, ?, ? ]
calloc 지정된 수의 요소에 대해 메모리를 할당하고 0으로 초기화. int *b = calloc(4, sizeof(int)); [ 0, 0, 0, 0 ]
realloc 기존에 할당된 메모리의 크기를 조정. 새 크기가 더 클 경우 초기화되지 않은 공간 추가됨. a = realloc(a, 8*sizeof(int)); [ ?, ?, ?, ?, ?, ?, ?, ? ]
  • malloc은 할당된 메모리의 초기 내용이 무엇인지 정의하지 않으므로, 메모리 내용은 예측할 수 없는 값(?)으로 표시됨.
  • calloc은 할당된 메모리를 모두 0으로 초기화하기 때문에, 모든 요소가 0으로 표시됨.
  • realloc을 사용하여 메모리 크기를 늘릴 경우, 추가된 메모리 영역은 초기화되지 않아 예측할 수 없는 값(?)으로 표시됨.

메모리 블록에는 다양한 데이터가 담길 수 있다. 어떤 데이터가 담기는지는 메모리 블록을 사용하는 프로그램의 목적과 구현에 따라 달라진다. 일반적으로 메모리 블록에는 다음과 같은 것들이 저장될 수 있다:

 

프로그램에서 사용하는 변수의 실제 데이터가 메모리에 저장된다. 이는 기본 자료형(int, float, char 등)의 값일 수도 있고, 사용자 정의 자료형의 값일 수도 있다.

 

배열의 각 요소는 메모리 블록의 연속적인 위치에 저장된다. 배열을 통해 여러 데이터를 순차적으로 저장할 수 있다.

 

구조체는 여러 다른 자료형을 한 묶음으로 관리할 수 있는 C언어의 자료형이다. 구조체 인스턴스의 각 멤버는 메모리 블록에 연속적으로 배치된다.

 

객체 지향 프로그래밍 언어에서 객체의 속성과 메서드에 대한 정보가 메모리에 저장된다. C언어에서는 객체 지향 프로그래밍을 직접적으로 지원하지 않지만, 구조체와 함수 포인터를 사용하여 비슷하게 구현할 수 있다.

 

함수의 주소를 저장하여, 나중에 해당 주소를 통해 함수를 호출할 수 있다. 이를 통해 동적으로 함수를 호출하거나 콜백 함수를 구현할 수 있다.

728x90
728x90

힙(Heap)과 스택(Stack)은 프로그램이 메모리를 사용하는 두 가지 주요 영역이다.

 

: 동적으로 할당되는 메모리 영역. 프로그래머가 직접 관리하며, 필요할 때 메모리를 할당하고 사용이 끝나면 해제한다. 힙은 메모리 할당과 해제가 자유롭기 때문에 스택보다 유연하지만, 메모리 누수나 단편화 같은 문제가 발생할 수 있다. 힙은 크기가 고정되어 있지 않고 프로그램 실행 동안 확장될 수 있다.

 

스택: 자동으로 할당 및 해제되는 메모리 영역. 함수 호출 시 생성되는 지역 변수와 함수 매개변수가 저장된다. 스택은 LIFO(Last In, First Out) 방식으로 작동한다. 함수가 호출되면 스택 프레임이 스택에 푸시되고, 함수가 종료되면 스택 프레임이 팝되어 메모리에서 제거된다. 스택은 크기가 고정되어 있으며, 스택 오버플로우가 발생할 수 있다.

 

주요 차이점:

  • 스택은 컴파일러에 의해 자동으로 관리되며, 힙은 개발자가 직접 관리해야 한다.
  • 스택은 정적/자동 할당이고, 힙은 동적 할당이다.
  • 스택에 할당된 메모리는 함수 호출이 끝나면 자동으로 해제되지만, 힙에 할당된 메모리는 명시적으로 해제하지 않으면 프로그램 종료 시까지 남아 있다.
  • 스택은 제한적인 반면, 힙은 더 크고 유연하다.
  • 스택은 힙에 비해 더 빠른 할당과 해제가 가능하다.

 

코드 영역: 프로그램의 실행 가능한 기계어 코드가 저장되는 곳이다. 이 영역은 읽기 전용으로 설정되어 있어, 프로그램 실행 중에는 변경되지 않는다. 함수, 루프, 조건문 등의 실제 프로그램 코드가 여기에 위치한다.

 

데이터 영역: 프로그램의 전역 변수와 정적 변수(static variables)가 저장되는 영역이다. 이 영역에 저장되는 변수들은 프로그램의 생명 주기 동안 초기화된 값으로 유지되며, 프로그램 실행 도중에도 값이 변경될 수 있다. 데이터 영역은 두 부분으로 나뉘는데, 초기화된 데이터를 위한 영역과 초기화되지 않은 데이터를 위한 BSS 영역이 그것이다.

 

BSS 영역: 초기화되지 않은 전역 변수와 정적 변수가 저장되는 영역이다. BSS 영역에 있는 변수들은 프로그램이 시작할 때 0 또는 null 값으로 초기화된다. 이 영역의 목적은 메모리 사용을 최적화하기 위한 것으로, 실제로 프로그램에 필요한 메모리 공간만 할당하면서, 초기값이 필요 없는 변수들을 효율적으로 관리한다.

 

프로세스와 스레드는 메모리에 적재된다. 프로세스는 실행 중인 프로그램의 인스턴스로, 자신만의 메모리 공간(코드, 데이터, 힙, 스택 등)을 가진다. 스레드는 프로세스 내에서 실행되는 실행 단위로, 프로세스의 메모리 공간을 공유하지만 자신만의 스택을 가진다. 이를 통해 스레드 간의 데이터 공유와 통신이 용이하다.

 

프로세스간 통신(IPC, Inter-Process Communication)은 독립적인 프로세스들이 데이터를 주고받거나 동기화하는 방법이다.

  1. 파이프(Pipes): 단방향 통신 채널. 데이터는 한쪽 끝으로 들어가 다른 쪽으로 나온다.
  2. 명명된 파이프(Named Pipes): 이름을 가진 파이프로, 두 프로세스가 서로 다른 컴퓨터에 있어도 통신 가능.
  3. 메시지 큐(Message Queues): 메시지 기반의 통신 방식. 프로세스는 메시지 큐에 데이터를 쓰거나 읽음.
  4. 세마포어(Semaphores): 프로세스 동기화에 사용. 공유 자원에 대한 접근을 제어.
  5. 공유 메모리(Shared Memory): 프로세스들이 데이터를 공유하기 위해 메모리의 동일한 부분을 사용.
  6. 소켓(Sockets): 네트워크를 통한 프로세스 간 통신을 가능하게 함. 서버와 클라이언트 모델을 사용.

각 기법은 사용 상황과 요구 사항에 따라 선택된다. 예를 들어, 실시간 데이터 교환은 소켓이나 메시지 큐를 사용하며, 큰 데이터 블록의 공유는 공유 메모리가 적합하다. 동기화와 순서 보장이 중요할 때는 세마포어나 메시지 큐를 고려한다.

 

yunsejin 폴더에 stack와 queue 구현 코드가 있음 

 

GitHub - yunsejin/Data-Structure-C-Language-Exercises: NANYANG UNIVERSITY Data-Structure-Exercises

NANYANG UNIVERSITY Data-Structure-Exercises. Contribute to yunsejin/Data-Structure-C-Language-Exercises development by creating an account on GitHub.

github.com

 

728x90
728x90

운영체제(Operating System, OS)는 컴퓨터 시스템의 핵심 소프트웨어다. 하드웨어와 응용 프로그램 간의 인터페이스 역할을 수행해 시스템의 자원을 효율적으로 관리하고 사용자에게 편리한 환경을 제공한다. 운영체제는 CPU와 메모리를 최대한 효율적으로 활용해 시스템의 성능을 극대화한다. 그리고 CPU 스케줄링 알고리즘을 사용해 다중 프로세스 및 스레드를 관리하고, 메모리 관리 기능을 통해 가상 메모리를 지원해 프로세스 간의 메모리를 분리하고 효율적으로 관리한다. 파일 시스템을 관리해 데이터를 저장하고 검색하는 데 필요한 기능을 제공한다.

 

또한 OS는 시스템의 하드웨어 자원을 관리한다. 이는 주변장치와의 통신을 조율하고, 장치 드라이버를 로드해 하드웨어를 제어하고 데이터를 전송하는 역할을 수행한다. 예를 들어, 네트워크 인터페이스 카드와의 통신을 위해 네트워크 스택을 제공하고, 프린터와의 통신을 위해 프린터 드라이버를 제공한다. 그리고 운영체제는 시스템의 보안을 유지하고 관리한다. 사용자 인증 및 권한 관리를 통해 시스템에 접근하는 사용자를 제어하고, 방화벽 및 바이러스 검사 프로그램을 통해 외부 위협으로부터 시스템을 보호한다.

 

운영체제는 하드웨어 측면에서 다양한 주변장치와의 통신을 관리하며, 이들 장치를 저속주변장치와 고속주변장치로 구분한다. 예를 들면, 키보드와 마우스는 데이터 전송 속도가 상대적으로 낮은 저속주변장치에 속하고, 그래픽 카드와 하드 디스크는 높은 데이터 전송 속도를 요구하는 고속주변장치에 속한다.

 

이러한 주변장치와의 통신 과정에서 버퍼의 역할은 매우 중요하다. 버퍼는 데이터를 일시적으로 저장하는 메모리 영역으로, 데이터의 전송 속도 차이를 완화하고 통신의 안정성을 높이는 데 기여한다. 예를 들어, 저속주변장치인 키보드에서 입력이 이루어지면, 입력 데이터는 우선 버퍼에 저장되고, 시스템이 처리할 준비가 되었을 때 CPU로 전달된다. 이 과정은 사용자의 입력 처리를 더욱 효율적으로 만든다.

 

반면, 고속주변장치인 하드 디스크와의 데이터 전송에서도 버퍼는 중요한 역할을 한다. 대량의 데이터를 빠르게 전송할 때, 버퍼는 주변장치와 CPU 사이의 속도 차이를 조절해 줌으로써 CPU가 다른 중요한 작업을 수행하는 동안 데이터를 안정적으로 전송받거나 보낼 수 있게 돕는다.

 

입출력 관련 기능에서 운영체제는 폴링 방식과 인터럽트 방식을 사용해 입출력을 관리한다. 폴링 방식은 CPU가 주변장치의 상태를 주기적으로 확인해 데이터를 전송하는 방식이다. 반면에 인터럽트 방식은 주변장치가 CPU에게 신호를 보내어 데이터를 전송하는 방식이다. 이를 통해 CPU의 부하를 줄이고 입출력 작업을 효율적으로 처리할 수 있다.

 

Direct Memory Access(DMA)는 컴퓨터 시스템에서 데이터 전송을 위한 메커니즘 중 하나로, CPU의 개입 없이 주변장치와 메모리 간의 데이터 전송을 처리하는 기술이다.

 

CPU는 데이터를 주변장치와 주고받을 때, CPU는 데이터를 주변장치에서 직접 읽어와 메모리에 쓰거나, 메모리에서 데이터를 읽어와 주변장치에 보내는 작업을 수행한다. 이러한 데이터 전송 과정에서 CPU는 각각의 데이터 전송을 직접 처리해야 하므로, CPU의 부하가 발생할 수 있다.

 

DMA는 이러한 문제를 해결하기 위해 도입된 기술로, 주변장치와 메모리 간의 데이터 전송을 CPU의 개입 없이 처리한다. DMA 컨트롤러는 CPU의 지시를 받아 데이터 전송 작업을 수행하고, 전송이 완료되면 CPU에 인터럽트를 발생시켜 CPU에게 전송 완료를 알린다.

DMA의 동작 과정

  1. CPU는 DMA 컨트롤러에게 데이터 전송을 요청한다.
  2. DMA 컨트롤러는 주변장치로부터 데이터를 읽거나, 메모리로부터 데이터를 읽어와서 주변장치로 전송한다.
  3. 데이터 전송이 완료되면 DMA 컨트롤러는 CPU에게 인터럽트를 발생시켜 전송 완료를 알린다.

DMA를 사용하면 CPU는 데이터 전송 작업을 처리하는 동안 다른 작업을 수행할 수 있으므로 시스템의 전반적인 성능이 향상된다. 또한, DMA를 사용하면 데이터 전송 속도도 향상되므로 대용량 데이터의 전송이 필요한 경우에 유용하게 사용된다.

 

주요 주변장치인 하드디스크나 네트워크 카드와 같은 고속 주변장치와의 데이터 전송에서 DMA가 널리 사용된다. 이러한 장치는 데이터를 빠르게 처리해야 하므로 CPU의 개입 없이 효율적으로 데이터를 전송할 수 있는 DMA가 필수적이다.

 

+ C의 stdio와 RIO 라이브러리

 

표준 입출력 라이브러리(stdio)와 RIO(Robust I/O) 라이브러리는 둘 다 입출력(I/O) 작업을 처리할 때 버퍼링을 사용하는 방식에 있어서 차이를 보인다. 이들은 프로그램이 데이터를 읽고 쓸 때 효율성과 안정성을 높이기 위해 버퍼를 사용한다.

 

stdio는 표준 C 라이브러리의 일부로, 파일이나 표준 입출력 등의 데이터 스트림을 처리할 때 버퍼링을 사용한다. 이는 데이터를 바로 읽거나 쓰지 않고, 일정량을 메모리에 임시로 저장한 후, 한 번에 처리하는 방식이다.

 

버퍼링은 입출력 효율을 높이고, 시스템 호출의 횟수를 줄여 성능을 향상시킨다. 예를 들어, 키보드로부터 입력을 받을 때마다 바로 처리하는 대신, 입력 데이터를 버퍼에 모아두었다가 한꺼번에 처리할 수 있다.

 

stdio에서는 전체 버퍼링(full buffering), 라인 버퍼링(line buffering), 노 버퍼링(no buffering) 등 세 가지 버퍼링 모드를 제공한다. 파일 I/O에서는 주로 전체 버퍼링이 사용되며, 터미널 I/O에서는 라인 버퍼링이 일반적이다.

 

RIO 라이브러리는 네트워크 프로그래밍에서 사용되는 비표준 I/O 라이브러리로, 불안정한 네트워크 환경에서도 안정적으로 데이터를 전송하기 위해 설계되었다. RIO는 내부적으로 버퍼링을 사용해 데이터를 처리한다.

 

RIO는 네트워크 입출력의 효율성과 안정성을 높이는 것을 목표로 한다. 특히, 네트워크를 통한 데이터 전송에서 발생할 수 있는 단편화와 같은 문제를 해결하기 위해 버퍼를 통해 데이터를 일정량 모은 후 전송한다.

 

RIO는 단순한 API를 제공하며, 입출력 작업 중에 발생할 수 있는 부분적인 읽기나 쓰기 문제(partial read/write)를 처리하기 위한 메커니즘을 포함한다. 예를 들어, 요청한 바이트 수만큼 정확히 읽거나 쓸 수 있도록 보장한다.

 

두 라이브러리 모두 버퍼링을 통해 입출력 작업의 효율성을 높인다. 데이터를 바로 전송하는 대신 버퍼에 모아서 처리함으로써 시스템 호출의 횟수를 줄이고 성능을 향상시킨다.

 

stdio는 일반적으로 파일 I/O와 표준 입출력에 사용되며, 데이터를 처리할 때 사용자가 버퍼링 모드를 선택할 수 있다. 반면, RIO는 네트워크 I/O에 특화되어 있으며, 내부적으로 버퍼링을 사용하여 데이터를 안정적으로 전송하는 데 초점을 맞춘다.

728x90
728x90

 

 

ECF(Exceptional Control Flow)를 알기 전에 여러가지 기초 지식이 많이 요구된다. 이를 알지 못하면 ECF를 이해하기 힘들기 때문이다.

 

컴퓨터 구조의 가장 안쪽에 CPU, 메모리, 프린터, 램카드 등의 하드웨어들이 있다. 이 묶음을 자원들이라고 하고 이를 application에 할당하는게 OS이다.(자원관리) OS안에는 cpu를 관리하는 프로세스 관리, 메모리 관리, I/O관리를 하는 것은 커널에 해당한다. 쉘은 사용자가 명령을 내리면 그 명령을 해석하여 결과를 반응하여 보여준다.(명령어 해석기)

패킷은 네트워크상에서 전송될 데이터들의 덩어리이다. 사용자 데이터와 제어정보로 나뉘는데 사용자 데이터는 페이로드라고 한다. 제어정보는 소스와 목적지에 대한 네트워크 주소, 순서 정보, 오류 감지 코드로 분류된다.

프로세스 문맥은 어떤 상태에서 수행되고 있는지, 규명하기위해 필요한 정보이다. 시분할로 프로세스를 한 번씩 실행시킬 때, 어디까지 실행됐는지, 메모를 해놔야 한다. 이 때 프로세스 컨텍스트를 사용한다. 프로세스 문맥은 하드웨어 문맥, 프로세스의 주소공간, 커널상의 문맥으로 분류된다. 프로세스의 제어권을 넘겨주는 것은 컨텍스트 스위칭이라고 한다.

그럼 CPU의 제어권을 넘겨 커널모드로 진입하게 하는 것은 무엇일까? 주로 인터럽트, 트랩에 의한 시스템콜이다.

 

시스템 콜(System Call)은 사용자 프로그램이 운영 체제의 커널 서비스를 요청할 때 사용하는 인터페이스이다. 운영 체제는 하드웨어 자원을 관리하고, 다양한 기본 서비스를 제공하는 소프트웨어의 집합이다. 사용자 프로그램은 직접적으로 하드웨어 자원에 접근할 수 없으므로, 시스템 콜을 통해 안전하게 이러한 자원과 서비스를 요청하고 사용한다.

 

시스템 콜의 주요 기능

  • 프로세스 관리: 프로세스 생성, 실행, 종료, 스케줄링 등의 관리 작업을 수행한다.
  • 파일 시스템 조작: 파일 생성, 삭제, 읽기, 쓰기, 열기, 닫기 등의 파일 시스템 관련 작업을 수행한다.
  • 장치 관리: 하드웨어 장치에 대한 접근 및 제어를 수행한다.
  • 정보 유지: 시스템 날짜 및 시간 설정, 시스템 데이터 조회 등의 작업을 수행한다.
  • 통신: 프로세스 간 통신(IPC)이나 네트워크 통신을 위한 메커니즘을 제공한다.

시스템 콜의 작동 방식

  1. 시스템 콜 요청: 사용자 프로그램은 특정 작업을 수행하기 위해 시스템 콜을 호출한다. 이 때, 필요한 매개변수를 제공한다.
  2. 커널 모드 전환: 시스템 콜이 호출되면, CPU는 사용자 모드에서 커널 모드로 전환된다. 커널 모드에서는 운영 체제가 전체 시스템 자원에 대한 전체 제어 권한을 가진다.
  3. 시스템 콜 처리: 운영 체제 커널은 요청된 시스템 콜에 따라 필요한 작업을 수행한다.
  4. 사용자 모드로 복귀: 작업이 완료되면, 시스템은 사용자 모드로 다시 전환되고, 프로그램은 시스템 콜 결과를 받아 계속해서 실행된다.

프로그램 카운터의 연속된 값 예를 들어 l(k)에 대응하는 a(k), a(k+1)이 있을 때 a(k) - > a(k+1) 이렇게 다음으로 넘어가는게 제어이동이라고 한다. 이런 제어이동의 배열은 제어흐름이라고 한다.

I(k)와 I(k+1)이 나란히 있는 경우는 점진적인 순서라고 하고, 이 둘이 인접하지 않고 jump, call, return에 의해 갑작스런 변화가 발생할 때가 있다. 저런 명령어들은 꼭 프로그램을 작성하면서 필요하여, 예외적인 제어 흐름이 발생할 수 밖에 없는데, 컴퓨터는 이런 예외적인 제어 흐름에도 반응할 수 있어야 한다.

패킷들은 네트워크 어댑터에 도착하고 메모리에 저장되어야한다. 프로그램은 디스크로부터 데이터를 요청하고, 데이터가 준비됐다는 말이 나올 때까지 대기한다. 하드웨어에서 검출된 이벤트는 예외 핸들러로 갑작스런 제어이동을 발생한다. ECF는 운영체제가 입출력, 프로세스, 가상메모리를 구현하기 위해 사용한다. trap, system call을 이용하여 응용프로그램이 호출한다.

예외상황 - 예외적인 제어흐름의 한가지 형태

하드웨어와 소프트웨어의 예외상황 분류는 불필요함

예외의 분류:

  • 인터럽트 : 비동기적으로 하드웨어 장치로부터 발생하는 신호 혹은 외부 이벤트가 발생했음(트랩은 인터럽트의 종류지만, 동기적)을 알리는 신호이다. CPU가 현재 처리 중인 작업을 잠시 중단하고, 긴급하게 처리해야 하는 작업이다. 보통 하드웨어 장치에서 프로세서로 시스템 콜을 보내 커널모드로 전환되게 한다.(어보트는 인터럽트의 종류지만, 시스템 콜과 직접적인 관련이 없다.)
  • ​ 트랩 : 특정 명령어 실행에 의해 CPU의 제어 논리가 운영 체제의 커널 기능을 요청하기 위해 의도적으로 생성하는 예외이다. 프로그램 실행과 동기적이다. 명령 스트림에 대해 잘 정의된 시점에서 발생하고 시스템 콜, 디버깅을 목적으로 사용한다. 운영 체제가 프로그램을 대신하여 파일 읽기를 수행한다. (0으로 나누기, 잘못된 메모리 접근에 대한 처리)
  • ​ 폴트 : 핸들러로 인해서 복구가 가능하고 수정될 수 있는 예외이다. 프로세서가 명령을 실행하려고 할 때 오류 조건을 감지하고, 메모리 접근 중 페이지 폴트와 같은 오류가 발생 했을 때 발생한다. 페이지 폴트는 프로그램이 현재 물리 메모리 접근 할 때 일어난다. 가상 메모리의 적절한 부분을 물리 메모리로 로딩 함으로써, 프로그램은 폴트가 전혀 발생하지 않은 것처럼 실행을 재개할 수 있다. (세그먼트 폴트, 페이지 폴트)
  • 어보트 : 복구할 수 없는 오류 조건을 나타낸다. 하드웨어 실패 또는 하드웨어가 감지하고 복구할 수 없는 메모리 시스템의 불일치와 같은 하드웨어 또는 시스템 환경의 심각한 문제를 지시한다. (ASSERT)

 

예외가 발생하면, 프로세서는 적절한 예외 핸들러로 제어를 이전해야 한다.

자세한 내용은 Process, Thread를 다룰 때 추가로 포스팅할 예정이다.

 

예외 처리 과정

  1. 예외 감지: 예외 처리의 첫 단계는 예외가 발생했음을 감지하는 것이다. 이 감지는 CPU의 정상적인 명령 실행 과정의 결과로 발생한다. 예를 들어, 응용 프로그램이 0으로 나누려고 하면, CPU는 나눗셈 연산을 실행하려고 할 때 이를 감지한다.
  2. 예외 분류: 예외가 감지되면, 시스템은 여러 범주 중 하나(인터럽트, 트랩, 폴트, 어보트)로 분류한다. 이 분류는 시스템이 예외를 어떻게 처리할지 결정하기 때문에 중요하다.
  3. 컨텍스트 저장: 프로세서가 예외 핸들러의 실행을 시작하기 전에, 예외가 처리된 후에 복원할 수 있도록 현재 컨텍스트(CPU의 상태)를 저장해야 한다. 이것은 보통 레지스터, 프로그램 카운터 및 기타 중요한 상태 정보를 저장하는 것을 포함한다.
  4. 예외 처리 루틴: 프로세서는 인터럽트 벡터 테이블 또는 예외 테이블이라고 하는 사전에 정의된 테이블을 사용하여 예외를 해당 핸들러의 메모리 주소에 매핑한다. 그런 다음 프로세서는 프로그램 카운터를 핸들러의 주소로 변경하여 핸들러 루틴에 제어를 효과적으로 이전한다.
  5. 핸들러 실행: 예외 핸들러가 실행되고 예외를 처리하기 위해 필요한 모든 작업을 수행한다. 이것은 잘못된 프로그램을 종료하거나, 프로세스에 시그널을 보내거나, 오류를 수정하고 작업을 다시 시도하거나, 디버깅 목적으로 오류를 기록하는 것을 포함할 수 있다.
  6. 예외에서 복귀: 예외가 처리된 후에는 시스템이 정상적인 실행 흐름으로 돌아가야 한다. 예외가 트랩이나 인터럽트였다면, 시스템은 예외를 발생시킨 명령 바로 다음 명령으로 돌아갈 수 있다. 폴트가 수정되었다면, 시스템은 폴트가 발생한 명령을 다시 시도할 수 있다. 어보트였다면, 시스템은 프로그램으로 전혀 돌아가지 않고 대신 종료할 수 있다.
  7. 컨텍스트 복원: 마지막 단계는 저장된 컨텍스트를 복원하여 프로세스나 프로그램이 예외가 발생하지 않은 것처럼 계속 실행될 수 있도록 하는 것이다. 이것은 예외가 감지될 때 저장된 정보로부터 CPU 상태를 복원하는 것을 포함한다.

시그널은 소프트웨어 단에서 이벤트를 통지하지만 인터럽트는 하드웨어 단에서의 이벤트 처리를 할 때 발생한다. 둘이 비슷해 보일 수 있지만, 운영체제의 컨텍스트에서 서로 다른 메커니즘을 가리킨다. (ctrl+C로 배시 창 나가기, kill PID)

 

시그널은 다양한 이유로 발생할 수 있다. 예를 들어, 사용자가 프로세스를 종료하려고 할 때(SIGINT), 프로세스가 접근할 수 없는 메모리에 접근하려고 할 때(SIGSEGV), 알람 타이머가 만료되었을 때(SIGALRM) 등

 

시그널이 발생하면 그 자체로 시스템 콜을 발생시키는 것은 아니다. 그러나 시그널 처리 과정에서 프로세스는 특정 시그널에 대응하기 위해 시스템 콜을 사용할 수 있다. (시스템 콜을 활용한 시그널 핸들러 설정) 그리고, 시그널을 명시적으로 보내는 행위 kill() 같은 것은 시스템 콜을 통해 이루어진다.

시그널 자체는 시스템 콜을 직접적으로 발생시키지는 않지만, 시그널 처리 메커니즘은 시스템 콜과 밀접하게 관련되어 있으며, 프로세스는 시그널을 처리기 위해 시스템 콜을 사용할 수 있다.

인터럽트는 하드웨어 이벤트 또는 소프트웨어 명령에 의해 발생하며, 시스템 전체에 영향을 줄 수 있다. 반면, 시그널은 특정 프로세스에게 전달되는 비동기적 이벤트나 예외 상황을 나타낸다.

인터럽트는 주로 운영 체제의 인터럽트 핸들러가 처리하며, 시그널은 대상 프로세스가 직접 처리한다.

인터럽트는 시스템의 반응성과 동시성을 높이는 데 초점을 맞추고 있으며, 시그널은 프로세스에게 비동기적인 사건이나 예외 상황을 알리는 데 사용된다.

728x90

'CS > 운영체제' 카테고리의 다른 글

하이퍼바이저, 애뮬레이션, QEMU  (0) 2024.03.26
Pint OS_Project 1 구현  (1) 2024.03.26
Context Switching, Semaphore와 Mutex  (2) 2024.03.25
CPU Scheduling, 4BSD, nice  (1) 2024.03.25
32bit and 64bit, RAX, CPU vs GPU  (1) 2024.03.24

+ Recent posts