CS-Notes/docs/notes/计算机操作系统.md

1079 lines
44 KiB
Markdown
Raw Normal View History

2019-03-08 20:43:38 +08:00
<!-- GFM-TOC -->
* [一、概述](#一概述)
* [基本特征](#基本特征)
* [基本功能](#基本功能)
* [系统调用](#系统调用)
* [大内核和微内核](#大内核和微内核)
* [中断分类](#中断分类)
* [二、进程管理](#二进程管理)
* [进程与线程](#进程与线程)
* [进程状态的切换](#进程状态的切换)
* [进程调度算法](#进程调度算法)
* [进程同步](#进程同步)
* [经典同步问题](#经典同步问题)
* [进程通信](#进程通信)
* [三、死锁](#三死锁)
* [必要条件](#必要条件)
* [处理方法](#处理方法)
* [鸵鸟策略](#鸵鸟策略)
* [死锁检测与死锁恢复](#死锁检测与死锁恢复)
* [死锁预防](#死锁预防)
* [死锁避免](#死锁避免)
* [四、内存管理](#四内存管理)
* [虚拟内存](#虚拟内存)
* [分页系统地址映射](#分页系统地址映射)
* [页面置换算法](#页面置换算法)
* [分段](#分段)
* [段页式](#段页式)
* [分页与分段的比较](#分页与分段的比较)
* [五、设备管理](#五设备管理)
* [磁盘结构](#磁盘结构)
* [磁盘调度算法](#磁盘调度算法)
* [六、链接](#六链接)
* [编译系统](#编译系统)
* [静态链接](#静态链接)
* [目标文件](#目标文件)
* [动态链接](#动态链接)
* [参考资料](#参考资料)
<!-- GFM-TOC -->
# 一、概述
## 基本特征
### 1. 并发
2018-04-06 22:46:59 +08:00
2018-04-29 15:58:44 +08:00
并发是指宏观上在一段时间内能同时运行多个程序,而并行则指同一时刻能运行多个指令。
2018-04-06 22:46:59 +08:00
2019-01-29 14:44:25 +08:00
并行需要硬件支持,如多流水线、多核处理器或者分布式计算系统。
2018-04-06 22:46:59 +08:00
操作系统通过引入进程和线程,使得程序能够并发运行。
### 2. 共享
2018-04-06 22:46:59 +08:00
2018-04-29 15:58:44 +08:00
共享是指系统中的资源可以被多个并发进程共同使用。
2018-04-06 22:46:59 +08:00
有两种共享方式:互斥共享和同时共享。
互斥共享的资源称为临界资源,例如打印机等,在同一时间只允许一个进程访问,需要用同步机制来实现对临界资源的访问。
### 3. 虚拟
2018-04-06 22:46:59 +08:00
虚拟技术把一个物理实体转换为多个逻辑实体。
2018-08-28 22:02:30 +08:00
主要有两种虚拟技术:时分复用技术和空分复用技术。
多个进程能在同一个处理器上并发执行使用了时分复用技术,让每个进程轮流占有处理器,每次只执行一小个时间片并快速切换。
2019-02-03 22:28:37 +08:00
虚拟内存使用了空分复用技术,它将物理内存抽象为地址空间,每个进程都有各自的地址空间。地址空间的页被映射到物理内存,地址空间的页并不需要全部在物理内存中,当使用到一个没有在物理内存的页时,执行页面置换算法,将该页置换到内存中。
2018-04-06 22:46:59 +08:00
### 4. 异步
2018-04-06 22:46:59 +08:00
异步指进程不是一次性执行完毕,而是走走停停,以不可知的速度向前推进。
## 基本功能
2018-04-06 22:46:59 +08:00
### 1. 进程管理
2018-04-06 22:46:59 +08:00
进程控制、进程同步、进程通信、死锁处理、处理机调度等。
### 2. 内存管理
2018-04-06 22:46:59 +08:00
2018-05-25 15:47:52 +08:00
内存分配、地址映射、内存保护与共享、虚拟内存等。
2018-04-06 22:46:59 +08:00
### 3. 文件管理
2018-04-06 22:46:59 +08:00
2018-04-29 15:58:44 +08:00
文件存储空间的管理、目录管理、文件读写管理和保护等。
2018-04-06 22:46:59 +08:00
### 4. 设备管理
2018-04-06 22:46:59 +08:00
完成用户的 I/O 请求,方便用户使用各种设备,并提高设备的利用率。
2018-04-29 15:58:44 +08:00
主要包括缓冲管理、设备分配、设备处理、虛拟设备等。
2018-04-06 22:46:59 +08:00
## 系统调用
2018-04-06 22:46:59 +08:00
如果一个进程在用户态需要使用内核态的功能,就进行系统调用从而陷入内核,由操作系统代为完成。
<div align="center"> <img src="pics/tGPV0.png" width="600"/> </div><br>
2018-04-06 22:46:59 +08:00
Linux 的系统调用主要有以下这些:
2018-04-06 22:46:59 +08:00
| Task | Commands |
| :---: | --- |
| 进程控制 | fork(); exit(); wait(); |
| 进程通信 | pipe(); shmget(); mmap(); |
| 文件操作 | open(); read(); write(); |
| 设备操作 | ioctl(); read(); write(); |
| 信息维护 | getpid(); alarm(); sleep(); |
| 安全 | chmod(); umask(); chown(); |
2018-04-06 22:46:59 +08:00
## 大内核和微内核
2018-04-06 22:46:59 +08:00
### 1. 大内核
2018-04-06 22:46:59 +08:00
大内核是将操作系统功能作为一个紧密结合的整体放到内核。
由于各模块共享信息,因此有很高的性能。
### 2. 微内核
2018-04-06 22:46:59 +08:00
由于操作系统不断复杂,因此将一部分操作系统功能移出内核,从而降低内核的复杂性。移出的部分根据分层的原则划分成若干服务,相互独立。
在微内核结构下,操作系统被划分成小的、定义良好的模块,只有微内核这一个模块运行在内核态,其余模块运行在用户态。
因为需要频繁地在用户态和核心态之间进行切换,所以会有一定的性能损失。
<div align="center"> <img src="pics/2_14_microkernelArchitecture.jpg"/> </div><br>
2018-04-06 22:46:59 +08:00
## 中断分类
2018-04-06 22:46:59 +08:00
### 1. 外中断
2018-04-06 22:46:59 +08:00
由 CPU 执行指令以外的事件引起,如 I/O 完成中断,表示设备输入/输出处理已经完成,处理器能够发送下一个输入/输出请求。此外还有时钟中断、控制台中断等。
2018-04-06 22:46:59 +08:00
### 2. 异常
2018-04-06 22:46:59 +08:00
由 CPU 执行指令的内部事件引起,如非法操作码、地址越界、算术溢出等。
2018-04-06 22:46:59 +08:00
### 3. 陷入
2018-04-06 22:46:59 +08:00
在用户程序中使用系统调用。
# 二、进程管理
2018-04-06 22:46:59 +08:00
## 进程与线程
2018-04-06 22:46:59 +08:00
### 1. 进程
2018-04-06 22:46:59 +08:00
进程是资源分配的基本单位。
进程控制块 (Process Control Block, PCB) 描述进程的基本信息和运行状态,所谓的创建进程和撤销进程,都是指对 PCB 的操作。
2018-04-06 22:46:59 +08:00
下图显示了 4 个程序创建了 4 个进程,这 4 个进程可以并发地执行。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/a6ac2b08-3861-4e85-baa8-382287bfee9f.png"/> </div><br>
2018-04-06 22:46:59 +08:00
### 2. 线程
2018-04-06 22:46:59 +08:00
线程是独立调度的基本单位。
一个进程中可以有多个线程,它们共享进程资源。
QQ 和浏览器是两个进程,浏览器进程里面有很多线程,例如 HTTP 请求线程、事件响应线程、渲染线程等等,线程的并发执行使得在浏览器中点击一个新链接从而发起 HTTP 请求时,浏览器还可以响应用户的其它事件。
2018-08-02 00:24:52 +08:00
<div align="center"> <img src="pics/3cd630ea-017c-488d-ad1d-732b4efeddf5.png"/> </div><br>
2018-04-06 22:46:59 +08:00
### 3. 区别
2018-04-06 22:46:59 +08:00
拥有资源
2018-08-02 00:24:52 +08:00
进程是资源分配的基本单位,但是线程不拥有资源,线程可以访问隶属进程的资源。
Ⅱ 调度
2018-04-06 22:46:59 +08:00
2018-10-01 22:26:22 +08:00
线程是独立调度的基本单位,在同一进程中,线程的切换不会引起进程切换,从一个进程中的线程切换到另一个进程中的线程时,会引起进程切换。
2018-04-06 22:46:59 +08:00
Ⅲ 系统开销
2018-04-06 22:46:59 +08:00
由于创建或撤销进程时系统都要为之分配或回收资源如内存空间、I/O 设备等,所付出的开销远大于创建或撤销线程时的开销。类似地,在进行进程切换时,涉及当前执行进程 CPU 环境的保存及新调度进程 CPU 环境的设置,而线程切换时只需保存和设置少量寄存器内容,开销很小。
2018-04-06 22:46:59 +08:00
Ⅳ 通信方面
2018-08-02 00:24:52 +08:00
线程间可以通过直接读写同一进程中的数据进行通信,但是进程通信需要借助 IPC。
2018-04-06 22:46:59 +08:00
## 进程状态的切换
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/ProcessState.png" width="500"/> </div><br>
2018-04-06 22:46:59 +08:00
- 就绪状态ready等待被调度
- 运行状态running
- 阻塞状态waiting等待资源
2018-04-06 22:46:59 +08:00
应该注意以下内容:
- 只有就绪态和运行态可以相互转换,其它的都是单向转换。就绪状态的进程通过调度算法从而获得 CPU 时间,转为运行状态;而运行状态的进程,在分配给它的 CPU 时间片用完之后就会转为就绪状态,等待下一次调度。
- 阻塞状态是缺少需要的资源从而由运行状态转换而来,但是该资源不包括 CPU 时间,缺少 CPU 时间会从运行态转换为就绪态。
2018-04-06 22:46:59 +08:00
## 进程调度算法
2018-04-06 22:46:59 +08:00
2018-06-14 14:26:34 +08:00
不同环境的调度算法目标不同,因此需要针对不同环境来讨论调度算法。
2018-04-06 22:46:59 +08:00
### 1. 批处理系统
2018-04-06 22:46:59 +08:00
2018-06-14 14:26:34 +08:00
批处理系统没有太多的用户操作,在该系统中,调度算法目标是保证吞吐量和周转时间(从提交到终止的时间)。
2018-04-06 22:46:59 +08:00
**1.1 先来先服务 first-come first-serverdFCFS**
2018-06-14 14:26:34 +08:00
按照请求的顺序进行调度。
2018-04-06 22:46:59 +08:00
有利于长作业,但不利于短作业,因为短作业必须一直等待前面的长作业执行完毕才能执行,而长作业又需要执行很长时间,造成了短作业等待时间过长。
**1.2 短作业优先 shortest job firstSJF**
2018-04-06 22:46:59 +08:00
2018-06-14 14:26:34 +08:00
按估计运行时间最短的顺序进行调度。
2018-04-06 22:46:59 +08:00
长作业有可能会饿死,处于一直等待短作业执行完毕的状态。因为如果一直有短作业到来,那么长作业永远得不到调度。
**1.3 最短剩余时间优先 shortest remaining time nextSRTN**
2018-06-14 14:26:34 +08:00
按估计剩余时间最短的顺序进行调度。
2018-04-06 22:46:59 +08:00
### 2. 交互式系统
2018-04-06 22:46:59 +08:00
2018-06-14 16:27:39 +08:00
交互式系统有大量的用户交互操作,在该系统中调度算法的目标是快速地进行响应。
2018-04-06 22:46:59 +08:00
**2.1 时间片轮转**
2018-04-06 22:46:59 +08:00
将所有就绪进程按 FCFS 的原则排成一个队列,每次调度时,把 CPU 时间分配给队首进程,该进程可以执行一个时间片。当时间片用完时,由计时器发出时钟中断,调度程序便停止该进程的执行,并将它送往就绪队列的末尾,同时继续把 CPU 时间分配给队首的进程。
2018-04-06 22:46:59 +08:00
2018-08-02 00:24:52 +08:00
时间片轮转算法的效率和时间片的大小有很大关系:
- 因为进程切换都要保存进程的信息并且载入新进程的信息,如果时间片太小,会导致进程切换得太频繁,在进程切换上就会花过多时间。
- 而如果时间片过长,那么实时性就不能得到保证。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/8c662999-c16c-481c-9f40-1fdba5bc9167.png"/> </div><br>
2018-04-06 22:46:59 +08:00
**2.2 优先级调度**
2018-04-06 22:46:59 +08:00
2018-06-14 16:27:39 +08:00
为每个进程分配一个优先级,按优先级进行调度。
2018-04-06 22:46:59 +08:00
2018-06-14 16:27:39 +08:00
为了防止低优先级的进程永远等不到调度,可以随着时间的推移增加等待进程的优先级。
2018-04-06 22:46:59 +08:00
**2.3 多级反馈队列**
2018-04-06 22:46:59 +08:00
一个进程需要执行 100 个时间片,如果采用时间片轮转调度算法,那么需要交换 100 次。
2018-06-14 16:27:39 +08:00
多级队列是为这种需要连续执行多个时间片的进程考虑,它设置了多个队列,每个队列时间片大小都不同,例如 1,2,4,8,..。进程在第一个队列没执行完,就会被移到下一个队列。这种方式下,之前的进程只需要交换 7 次。
2018-04-06 22:46:59 +08:00
每个队列优先权也不同,最上面的优先权最高。因此只有上一个队列没有进程在排队,才能调度当前队列上的进程。
2018-06-14 16:27:39 +08:00
可以将这种调度算法看成是时间片轮转调度算法和优先级调度算法的结合。
<div align="center"> <img src="pics/042cf928-3c8e-4815-ae9c-f2780202c68f.png"/> </div><br>
2018-06-14 16:27:39 +08:00
### 3. 实时系统
2018-04-06 22:46:59 +08:00
2018-06-14 16:27:39 +08:00
实时系统要求一个请求在一个确定时间内得到响应。
2018-04-06 22:46:59 +08:00
分为硬实时和软实时,前者必须满足绝对的截止时间,后者可以容忍一定的超时。
## 进程同步
2018-04-06 22:46:59 +08:00
### 1. 临界区
2018-04-06 22:46:59 +08:00
对临界资源进行访问的那段代码称为临界区。
为了互斥访问临界资源,每个进程在进入临界区之前,需要先进行检查。
```html
// entry section
// critical section;
// exit section
2018-04-06 22:46:59 +08:00
```
### 2. 同步与互斥
2018-04-06 22:46:59 +08:00
- 同步:多个进程按一定顺序执行;
- 互斥:多个进程在同一时刻只有一个进程能进入临界区。
2018-04-06 22:46:59 +08:00
### 3. 信号量
2018-04-06 22:46:59 +08:00
信号量Semaphore是一个整型变量可以对其执行 down 和 up 操作,也就是常见的 P 和 V 操作。
2018-04-06 22:46:59 +08:00
- **down** : 如果信号量大于 0 ,执行 -1 操作;如果信号量等于 0进程睡眠等待信号量大于 0
- **up** :对信号量执行 +1 操作,唤醒睡眠的进程让其完成 down 操作。
2018-04-06 22:46:59 +08:00
down 和 up 操作需要被设计成原语,不可分割,通常的做法是在执行这些操作的时候屏蔽中断。
2018-04-06 22:46:59 +08:00
如果信号量的取值只能为 0 或者 1那么就成为了 **互斥量Mutex** 0 表示临界区已经加锁1 表示临界区解锁。
2018-04-06 22:46:59 +08:00
```c
typedef int semaphore;
semaphore mutex = 1;
void P1() {
down(&mutex);
// 临界区
up(&mutex);
2018-04-06 22:46:59 +08:00
}
void P2() {
down(&mutex);
// 临界区
up(&mutex);
2018-04-06 22:46:59 +08:00
}
```
<font size=3> **使用信号量实现生产者-消费者问题** </font> </br>
2018-04-06 22:46:59 +08:00
问题描述:使用一个缓冲区来保存物品,只有缓冲区没有满,生产者才可以放入物品;只有缓冲区不为空,消费者才可以拿走物品。
因为缓冲区属于临界资源,因此需要使用一个互斥量 mutex 来控制对缓冲区的互斥访问。
2018-04-06 22:46:59 +08:00
为了同步生产者和消费者的行为需要记录缓冲区中物品的数量。数量可以使用信号量来进行统计这里需要使用两个信号量empty 记录空缓冲区的数量full 记录满缓冲区的数量。其中empty 信号量是在生产者进程中使用,当 empty 不为 0 时生产者才可以放入物品full 信号量是在消费者进程中使用,当 full 信号量不为 0 时,消费者才可以取走物品。
2018-04-06 22:46:59 +08:00
注意,不能先对缓冲区进行加锁,再测试信号量。也就是说,不能先执行 down(mutex) 再执行 down(empty)。如果这么做了,那么可能会出现这种情况:生产者对缓冲区加锁后,执行 down(empty) 操作,发现 empty = 0此时生产者睡眠。消费者不能进入临界区因为生产者对缓冲区加锁了消费者就无法执行 up(empty) 操作empty 永远都为 0导致生产者永远等待下不会释放锁消费者因此也会永远等待下去。
2018-04-06 22:46:59 +08:00
```c
#define N 100
typedef int semaphore;
semaphore mutex = 1;
semaphore empty = N;
semaphore full = 0;
void producer() {
while(TRUE) {
int item = produce_item();
down(&empty);
down(&mutex);
insert_item(item);
up(&mutex);
up(&full);
}
2018-04-06 22:46:59 +08:00
}
void consumer() {
while(TRUE) {
down(&full);
down(&mutex);
int item = remove_item();
consume_item(item);
up(&mutex);
up(&empty);
}
2018-04-06 22:46:59 +08:00
}
```
### 4. 管程
2018-04-06 22:46:59 +08:00
使用信号量机制实现的生产者消费者问题需要客户端代码做很多控制,而管程把控制的代码独立出来,不仅不容易出错,也使得客户端代码调用更容易。
c 语言不支持管程,下面的示例代码使用了类 Pascal 语言来描述管程。示例代码的管程提供了 insert() 和 remove() 方法,客户端代码通过调用这两个方法来解决生产者-消费者问题。
2018-04-06 22:46:59 +08:00
```pascal
monitor ProducerConsumer
integer i;
condition c;
procedure insert();
begin
// ...
end;
procedure remove();
begin
// ...
end;
end monitor;
2018-04-06 22:46:59 +08:00
```
管程有一个重要特性:在一个时刻只能有一个进程使用管程。进程在无法继续执行的时候不能一直占用管程,否者其它进程永远不能使用管程。
管程引入了 **条件变量** 以及相关的操作:**wait()** 和 **signal()** 来实现同步操作。对条件变量执行 wait() 操作会导致调用进程阻塞把管程让出来给另一个进程持有。signal() 操作用于唤醒被阻塞的进程。
2018-04-06 22:46:59 +08:00
<font size=3> **使用管程实现生产者-消费者问题** </font><br>
2018-04-06 22:46:59 +08:00
```pascal
// 管程
monitor ProducerConsumer
condition full, empty;
integer count := 0;
condition c;
procedure insert(item: integer);
begin
if count = N then wait(full);
insert_item(item);
count := count + 1;
if count = 1 then signal(empty);
end;
function remove: integer;
begin
if count = 0 then wait(empty);
remove = remove_item;
count := count - 1;
if count = N -1 then signal(full);
end;
end monitor;
// 生产者客户端
procedure producer
2018-04-06 22:46:59 +08:00
begin
while true do
begin
item = produce_item;
ProducerConsumer.insert(item);
end
2018-04-06 22:46:59 +08:00
end;
// 消费者客户端
procedure consumer
2018-04-06 22:46:59 +08:00
begin
while true do
begin
item = ProducerConsumer.remove;
consume_item(item);
end
2018-04-06 22:46:59 +08:00
end;
```
## 经典同步问题
2018-04-06 22:46:59 +08:00
生产者和消费者问题前面已经讨论过了。
### 1. 读者-写者问题
2018-04-06 22:46:59 +08:00
允许多个进程同时对数据进行读操作,但是不允许读和写以及写和写操作同时发生。
一个整型变量 count 记录在对数据进行读操作的进程数量,一个互斥量 count_mutex 用于对 count 加锁,一个互斥量 data_mutex 用于对读写的数据加锁。
2018-04-06 22:46:59 +08:00
```c
typedef int semaphore;
semaphore count_mutex = 1;
semaphore data_mutex = 1;
int count = 0;
void reader() {
while(TRUE) {
down(&count_mutex);
count++;
if(count == 1) down(&data_mutex); // 第一个读者需要对数据进行加锁,防止写进程访问
up(&count_mutex);
read();
down(&count_mutex);
count--;
if(count == 0) up(&data_mutex);
up(&count_mutex);
}
2018-04-06 22:46:59 +08:00
}
void writer() {
while(TRUE) {
down(&data_mutex);
write();
up(&data_mutex);
}
2018-04-06 22:46:59 +08:00
}
```
以下内容由 [@Bandi Yugandhar](https://github.com/yugandharbandi) 提供。
The first case may result Writer to starve. This case favous Writers i.e no writer, once added to the queue, shall be kept waiting longer than absolutely necessary(only when there are readers that entered the queue before the writer).
2018-09-06 18:24:01 +08:00
```source-c
int readcount, writecount; //(initial value = 0)
semaphore rmutex, wmutex, readLock, resource; //(initial value = 1)
//READER
void reader() {
<ENTRY Section>
down(&readLock); // reader is trying to enter
down(&rmutex); // lock to increase readcount
readcount++;
if (readcount == 1)
down(&resource); //if you are the first reader then lock the resource
up(&rmutex); //release for other readers
up(&readLock); //Done with trying to access the resource
<CRITICAL Section>
//reading is performed
<EXIT Section>
down(&rmutex); //reserve exit section - avoids race condition with readers
readcount--; //indicate you're leaving
if (readcount == 0) //checks if you are last reader leaving
up(&resource); //if last, you must release the locked resource
up(&rmutex); //release exit section for other readers
}
//WRITER
void writer() {
<ENTRY Section>
down(&wmutex); //reserve entry section for writers - avoids race conditions
writecount++; //report yourself as a writer entering
if (writecount == 1) //checks if you're first writer
down(&readLock); //if you're first, then you must lock the readers out. Prevent them from trying to enter CS
up(&wmutex); //release entry section
<CRITICAL Section>
down(&resource); //reserve the resource for yourself - prevents other writers from simultaneously editing the shared resource
//writing is performed
up(&resource); //release file
<EXIT Section>
down(&wmutex); //reserve exit section
writecount--; //indicate you're leaving
if (writecount == 0) //checks if you're the last writer
up(&readLock); //if you're last writer, you must unlock the readers. Allows them to try enter CS for reading
up(&wmutex); //release exit section
}
2018-09-06 00:52:22 +08:00
```
We can observe that every reader is forced to acquire ReadLock. On the otherhand, writers doesnt need to lock individually. Once the first writer locks the ReadLock, it will be released only when there is no writer left in the queue.
From the both cases we observed that either reader or writer has to starve. Below solutionadds the constraint that no thread shall be allowed to starve; that is, the operation of obtaining a lock on the shared data will always terminate in a bounded amount of time.
2018-09-06 18:24:01 +08:00
```source-c
int readCount; // init to 0; number of readers currently accessing resource
// all semaphores initialised to 1
Semaphore resourceAccess; // controls access (read/write) to the resource
Semaphore readCountAccess; // for syncing changes to shared variable readCount
Semaphore serviceQueue; // FAIRNESS: preserves ordering of requests (signaling must be FIFO)
void writer()
{
down(&serviceQueue); // wait in line to be servicexs
// <ENTER>
down(&resourceAccess); // request exclusive access to resource
// </ENTER>
up(&serviceQueue); // let next in line be serviced
// <WRITE>
writeResource(); // writing is performed
// </WRITE>
// <EXIT>
up(&resourceAccess); // release resource access for next reader/writer
// </EXIT>
}
void reader()
{
down(&serviceQueue); // wait in line to be serviced
down(&readCountAccess); // request exclusive access to readCount
// <ENTER>
if (readCount == 0) // if there are no readers already reading:
down(&resourceAccess); // request resource access for readers (writers blocked)
readCount++; // update count of active readers
// </ENTER>
up(&serviceQueue); // let next in line be serviced
up(&readCountAccess); // release access to readCount
// <READ>
readResource(); // reading is performed
// </READ>
down(&readCountAccess); // request exclusive access to readCount
// <EXIT>
readCount--; // update count of active readers
if (readCount == 0) // if there are no readers left:
up(&resourceAccess); // release resource access for all
// </EXIT>
up(&readCountAccess); // release access to readCount
}
2018-04-06 22:46:59 +08:00
```
2018-09-06 18:24:01 +08:00
### 2. 哲学家进餐问题
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/a9077f06-7584-4f2b-8c20-3a8e46928820.jpg"/> </div><br>
2018-04-06 22:46:59 +08:00
五个哲学家围着一张圆桌,每个哲学家面前放着食物。哲学家的生活有两种交替活动:吃饭以及思考。当一个哲学家吃饭时,需要先拿起自己左右两边的两根筷子,并且一次只能拿起一根筷子。
下面是一种错误的解法,考虑到如果所有哲学家同时拿起左手边的筷子,那么就无法拿起右手边的筷子,造成死锁。
```c
#define N 5
void philosopher(int i) {
while(TRUE) {
think();
take(i); // 拿起左边的筷子
take((i+1)%N); // 拿起右边的筷子
eat();
put(i);
put((i+1)%N);
}
2018-04-06 22:46:59 +08:00
}
```
为了防止死锁的发生,可以设置两个条件:
- 必须同时拿起左右两根筷子;
- 只有在两个邻居都没有进餐的情况下才允许进餐。
2018-04-06 22:46:59 +08:00
```c
#define N 5
#define LEFT (i + N - 1) % N // 左邻居
#define RIGHT (i + 1) % N // 右邻居
#define THINKING 0
#define HUNGRY 1
#define EATING 2
typedef int semaphore;
int state[N]; // 跟踪每个哲学家的状态
semaphore mutex = 1; // 临界区的互斥
semaphore s[N]; // 每个哲学家一个信号量
void philosopher(int i) {
while(TRUE) {
think();
take_two(i);
eat();
put_two(i);
}
2018-04-06 22:46:59 +08:00
}
void take_two(int i) {
down(&mutex);
state[i] = HUNGRY;
test(i);
up(&mutex);
down(&s[i]);
2018-04-06 22:46:59 +08:00
}
void put_two(i) {
down(&mutex);
state[i] = THINKING;
test(LEFT);
test(RIGHT);
up(&mutex);
2018-04-06 22:46:59 +08:00
}
void test(i) { // 尝试拿起两把筷子
if(state[i] == HUNGRY && state[LEFT] != EATING && state[RIGHT] !=EATING) {
state[i] = EATING;
up(&s[i]);
}
2018-04-06 22:46:59 +08:00
}
```
## 进程通信
2018-04-06 22:46:59 +08:00
2018-05-25 15:47:52 +08:00
进程同步与进程通信很容易混淆,它们的区别在于:
2018-04-06 22:46:59 +08:00
- 进程同步:控制多个进程按一定顺序执行;
- 进程通信:进程间传输信息。
2018-04-06 22:46:59 +08:00
进程通信是一种手段,而进程同步是一种目的。也可以说,为了能够达到进程同步的目的,需要让进程进行通信,传输一些进程同步所需要的信息。
### 1. 管道
2018-04-06 22:46:59 +08:00
管道是通过调用 pipe 函数创建的fd[0] 用于读fd[1] 用于写。
2018-04-06 22:46:59 +08:00
2018-06-21 13:46:58 +08:00
```c
#include <unistd.h>
int pipe(int fd[2]);
2018-06-21 13:46:58 +08:00
```
它具有以下限制:
2018-04-06 22:46:59 +08:00
- 只支持半双工通信(单向交替传输);
- 只能在父子进程中使用。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/53cd9ade-b0a6-4399-b4de-7f1fbd06cdfb.png"/> </div><br>
2018-04-06 22:46:59 +08:00
### 2. FIFO
2018-04-06 22:46:59 +08:00
2018-06-21 13:46:58 +08:00
也称为命名管道,去除了管道只能在父子进程中使用的限制。
2018-04-06 22:46:59 +08:00
2018-06-21 13:46:58 +08:00
```c
#include <sys/stat.h>
int mkfifo(const char *path, mode_t mode);
int mkfifoat(int fd, const char *path, mode_t mode);
2018-06-21 13:46:58 +08:00
```
2018-04-06 22:46:59 +08:00
FIFO 常用于客户-服务器应用程序中FIFO 用作汇聚点,在客户进程和服务器进程之间传递数据。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/2ac50b81-d92a-4401-b9ec-f2113ecc3076.png"/> </div><br>
2018-04-06 22:46:59 +08:00
### 3. 消息队列
2018-04-06 22:46:59 +08:00
相比于 FIFO消息队列具有以下优点
2018-04-06 22:46:59 +08:00
- 消息队列可以独立于读写进程存在,从而避免了 FIFO 中同步管道的打开和关闭时可能产生的困难;
- 避免了 FIFO 的同步阻塞问题,不需要进程自己提供同步方法;
- 读进程可以根据消息类型有选择地接收消息,而不像 FIFO 那样只能默认地接收。
2018-04-06 22:46:59 +08:00
### 4. 信号量
2018-04-06 22:46:59 +08:00
2018-06-21 13:46:58 +08:00
它是一个计数器,用于为多个进程提供对共享数据对象的访问。
2018-04-06 22:46:59 +08:00
### 5. 共享存储
2018-04-06 22:46:59 +08:00
允许多个进程共享一个给定的存储区。因为数据不需要在进程之间复制,所以这是最快的一种 IPC。
2018-04-06 22:46:59 +08:00
2018-06-21 13:46:58 +08:00
需要使用信号量用来同步对共享存储的访问。
2018-04-06 22:46:59 +08:00
多个进程可以将同一个文件映射到它们的地址空间从而实现共享内存。另外 XSI 共享内存不是使用文件,而是使用使用内存的匿名段。
2018-04-06 22:46:59 +08:00
### 6. 套接字
2018-04-06 22:46:59 +08:00
2018-06-21 13:46:58 +08:00
与其它通信机制不同的是,它可用于不同机器间的进程通信。
2018-04-06 22:46:59 +08:00
# 三、死锁
2018-04-06 22:46:59 +08:00
## 必要条件
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/c037c901-7eae-4e31-a1e4-9d41329e5c3e.png"/> </div><br>
2018-04-06 22:46:59 +08:00
- 互斥:每个资源要么已经分配给了一个进程,要么就是可用的。
- 占有和等待:已经得到了某个资源的进程可以再请求新的资源。
- 不可抢占:已经分配给一个进程的资源不能强制性地被抢占,它只能被占有它的进程显式地释放。
- 环路等待:有两个或者两个以上的进程组成一条环路,该环路中的每个进程都在等待下一个进程所占有的资源。
2018-04-06 22:46:59 +08:00
## 处理方法
2018-04-06 22:46:59 +08:00
2018-09-01 17:09:59 +08:00
主要有以下四种方法:
- 鸵鸟策略
- 死锁检测与死锁恢复
- 死锁预防
- 死锁避免
2018-09-01 17:09:59 +08:00
## 鸵鸟策略
2018-04-06 22:46:59 +08:00
把头埋在沙子里,假装根本没发生问题。
2018-09-01 17:09:59 +08:00
因为解决死锁问题的代价很高,因此鸵鸟策略这种不采取任务措施的方案会获得更高的性能。
当发生死锁时不会对用户造成多大影响,或发生死锁的概率很低,可以采用鸵鸟策略。
2018-04-06 22:46:59 +08:00
大多数操作系统,包括 UnixLinux 和 Windows处理死锁问题的办法仅仅是忽略它。
2018-04-06 22:46:59 +08:00
## 死锁检测与死锁恢复
2018-04-06 22:46:59 +08:00
不试图阻止死锁,而是当检测到死锁发生时,采取措施进行恢复。
### 1. 每种类型一个资源的死锁检测
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/b1fa0453-a4b0-4eae-a352-48acca8fff74.png"/> </div><br>
2018-04-06 22:46:59 +08:00
上图为资源分配图,其中方框表示资源,圆圈表示进程。资源指向进程表示该资源已经分配给该进程,进程指向资源表示进程请求获取该资源。
图 a 可以抽取出环,如图 b它满足了环路等待条件因此会发生死锁。
2018-04-06 22:46:59 +08:00
每种类型一个资源的死锁检测算法是通过检测有向图是否存在环来实现,从一个节点出发进行深度优先搜索,对访问过的节点进行标记,如果访问了已经标记的节点,就表示有向图存在环,也就是检测到死锁的发生。
### 2. 每种类型多个资源的死锁检测
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/e1eda3d5-5ec8-4708-8e25-1a04c5e11f48.png"/> </div><br>
2018-04-06 22:46:59 +08:00
上图中,有三个进程四个资源,每个数据代表的含义如下:
- E 向量:资源总量
- A 向量:资源剩余量
- C 矩阵:每个进程所拥有的资源数量,每一行都代表一个进程拥有资源的数量
- R 矩阵:每个进程请求的资源数量
2018-04-06 22:46:59 +08:00
进程 P<sub>1</sub> 和 P<sub>2</sub> 所请求的资源都得不到满足,只有进程 P<sub>3</sub> 可以,让 P<sub>3</sub> 执行,之后释放 P<sub>3</sub> 拥有的资源,此时 A = (2 2 2 0)。P<sub>2</sub> 可以执行,执行后释放 P<sub>2</sub> 拥有的资源A = (4 2 2 1) 。P<sub>1</sub> 也可以执行。所有进程都可以顺利执行,没有死锁。
2018-04-06 22:46:59 +08:00
算法总结如下:
每个进程最开始时都不被标记,执行过程有可能被标记。当算法结束时,任何没有被标记的进程都是死锁进程。
1. 寻找一个没有标记的进程 P<sub>i</sub>,它所请求的资源小于等于 A。
2. 如果找到了这样一个进程,那么将 C 矩阵的第 i 行向量加到 A 中,标记该进程,并转回 1。
3. 如果没有这样一个进程,算法终止。
2018-04-06 22:46:59 +08:00
### 3. 死锁恢复
2018-04-06 22:46:59 +08:00
- 利用抢占恢复
- 利用回滚恢复
- 通过杀死进程恢复
2018-04-06 22:46:59 +08:00
## 死锁预防
2018-04-06 22:46:59 +08:00
在程序运行之前预防发生死锁。
### 1. 破坏互斥条件
2018-04-06 22:46:59 +08:00
例如假脱机打印机技术允许若干个进程同时输出,唯一真正请求物理打印机的进程是打印机守护进程。
### 2. 破坏占有和等待条件
2018-04-06 22:46:59 +08:00
一种实现方式是规定所有进程在开始执行前请求所需要的全部资源。
### 3. 破坏不可抢占条件
2018-04-06 22:46:59 +08:00
### 4. 破坏环路等待
2018-04-06 22:46:59 +08:00
给资源统一编号,进程只能按编号顺序来请求资源。
## 死锁避免
2018-04-06 22:46:59 +08:00
在程序运行时避免发生死锁。
### 1. 安全状态
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/ed523051-608f-4c3f-b343-383e2d194470.png"/> </div><br>
2018-04-06 22:46:59 +08:00
图 a 的第二列 Has 表示已拥有的资源数,第三列 Max 表示总共需要的资源数Free 表示还有可以使用的资源数。从图 a 开始出发,先让 B 拥有所需的所有资源(图 b运行结束后释放 B此时 Free 变为 5图 c接着以同样的方式运行 C 和 A使得所有进程都能成功运行因此可以称图 a 所示的状态时安全的。
2018-04-06 22:46:59 +08:00
定义:如果没有死锁发生,并且即使所有进程突然请求对资源的最大需求,也仍然存在某种调度次序能够使得每一个进程运行完毕,则称该状态是安全的。
安全状态的检测与死锁的检测类似,因为安全状态必须要求不能发生死锁。下面的银行家算法与死锁检测算法非常类似,可以结合着做参考对比。
### 2. 单个资源的银行家算法
2018-04-06 22:46:59 +08:00
一个小城镇的银行家,他向一群客户分别承诺了一定的贷款额度,算法要做的是判断对请求的满足是否会进入不安全状态,如果是,就拒绝请求;否则予以分配。
<div align="center"> <img src="pics/d160ec2e-cfe2-4640-bda7-62f53e58b8c0.png"/> </div><br>
2018-04-06 22:46:59 +08:00
上图 c 为不安全状态,因此算法会拒绝之前的请求,从而避免进入图 c 中的状态。
2018-04-06 22:46:59 +08:00
### 3. 多个资源的银行家算法
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/62e0dd4f-44c3-43ee-bb6e-fedb9e068519.png"/> </div><br>
2018-04-06 22:46:59 +08:00
上图中有五个进程,四个资源。左边的图表示已经分配的资源,右边的图表示还需要分配的资源。最右边的 E、P 以及 A 分别表示:总资源、已分配资源以及可用资源,注意这三个为向量,而不是具体数值,例如 A=(1020),表示 4 个资源分别还剩下 1/0/2/0。
2018-04-06 22:46:59 +08:00
检查一个状态是否安全的算法如下:
- 查找右边的矩阵是否存在一行小于等于向量 A。如果不存在这样的行那么系统将会发生死锁状态是不安全的。
- 假若找到这样一行,将该进程标记为终止,并将其已分配资源加到 A 中。
- 重复以上两步,直到所有进程都标记为终止,则状态时安全的。
2018-04-06 22:46:59 +08:00
2018-05-25 15:47:52 +08:00
如果一个状态不是安全的,需要拒绝进入这个状态。
2018-04-06 22:46:59 +08:00
# 四、内存管理
2018-04-06 22:46:59 +08:00
## 虚拟内存
2018-04-06 22:46:59 +08:00
2018-05-25 15:47:52 +08:00
虚拟内存的目的是为了让物理内存扩充成更大的逻辑内存,从而让程序获得更多的可用内存。
2018-04-06 22:46:59 +08:00
2018-08-03 00:12:55 +08:00
为了更好的管理内存,操作系统将内存抽象成地址空间。每个程序拥有自己的地址空间,这个地址空间被分割成多个块,每一块称为一页。这些页被映射到物理内存,但不需要映射到连续的物理内存,也不需要所有页都必须在物理内存中。当程序引用到不在物理内存中的页时,由硬件执行必要的映射,将缺失的部分装入物理内存并重新执行失败的指令。
2018-04-06 22:46:59 +08:00
从上面的描述中可以看出,虚拟内存允许程序不用将地址空间中的每一页都映射到物理内存,也就是说一个程序不需要全部调入内存就可以运行,这使得有限的内存运行大程序成为可能。例如有一台计算机可以产生 16 位地址,那么一个程序的地址空间范围是 0\~64K。该计算机只有 32KB 的物理内存,虚拟内存技术允许该计算机运行一个 64K 大小的程序。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/7b281b1e-0595-402b-ae35-8c91084c33c1.png"/> </div><br>
2018-04-06 22:46:59 +08:00
## 分页系统地址映射
2018-04-06 22:46:59 +08:00
内存管理单元MMU管理着地址空间和物理内存的转换其中的页表Page table存储着页程序地址空间和页框物理内存空间的映射表。
2018-04-06 22:46:59 +08:00
2018-10-14 16:33:10 +08:00
一个虚拟地址分成两个部分,一部分存储页面号,一部分存储偏移量。
2018-04-06 22:46:59 +08:00
下图的页表存放着 16 个页,这 16 个页需要用 4 个比特位来进行索引定位。例如对于虚拟地址0010 000000000100前 4 位是存储页面号 2读取表项内容为110 1页表项最后一位表示是否存在于内存中1 表示存在。后 12 位存储偏移量。这个页对应的页框的地址为 110 000000000100
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/cf4386a1-58c9-4eca-a17f-e12b1e9770eb.png" width="500"/> </div><br>
2018-04-06 22:46:59 +08:00
## 页面置换算法
2018-04-06 22:46:59 +08:00
在程序运行过程中,如果要访问的页面不在内存中,就发生缺页中断从而将该页调入内存中。此时如果内存已无空闲空间,系统必须从内存中调出一个页面到磁盘对换区中来腾出空间。
2018-06-30 19:33:37 +08:00
页面置换算法和缓存淘汰策略类似,可以将内存看成磁盘的缓存。在缓存系统中,缓存的大小有限,当有新的缓存到达时,需要淘汰一部分已经存在的缓存,这样才有空间存放新的缓存数据。
2018-06-20 11:35:11 +08:00
2018-04-06 22:46:59 +08:00
页面置换算法的主要目标是使页面置换频率最低(也可以说缺页率最低)。
### 1. 最佳
2018-04-06 22:46:59 +08:00
> OPT, Optimal replacement algorithm
2018-04-06 22:46:59 +08:00
所选择的被换出的页面将是最长时间内不再被访问,通常可以保证获得最低的缺页率。
是一种理论上的算法,因为无法知道一个页面多长时间不再被访问。
举例:一个系统为某进程分配了三个物理块,并有如下页面引用序列:
<div align="center"><img src="https://latex.codecogs.com/gif.latex?70120304230321201701"/></div> <br>
2018-04-06 22:46:59 +08:00
开始运行时,先将 7, 0, 1 三个页面装入内存。当进程要访问页面 2 时,产生缺页中断,会将页面 7 换出,因为页面 7 再次被访问的时间最长。
2018-04-06 22:46:59 +08:00
### 2. 最近最久未使用
2018-04-06 22:46:59 +08:00
> LRU, Least Recently Used
2018-04-06 22:46:59 +08:00
虽然无法知道将来要使用的页面情况但是可以知道过去使用页面的情况。LRU 将最近最久未使用的页面换出。
2018-04-06 22:46:59 +08:00
为了实现 LRU需要在内存中维护一个所有页面的链表。当一个页面被访问时将这个页面移到链表表头。这样就能保证链表表尾的页面是最近最久未访问的。
2018-06-30 19:33:37 +08:00
因为每次访问都需要更新链表,因此这种方式实现的 LRU 代价很高。
2018-06-20 11:35:11 +08:00
<div align="center"><img src="https://latex.codecogs.com/gif.latex?47071012126"/></div> <br>
2018-06-20 11:35:11 +08:00
<div align="center"> <img src="pics/eb859228-c0f2-4bce-910d-d9f76929352b.png"/> </div><br>
2018-04-06 22:46:59 +08:00
### 3. 最近未使用
2018-05-29 08:41:27 +08:00
> NRU, Not Recently Used
2018-05-29 08:41:27 +08:00
每个页面都有两个状态位R 与 M当页面被访问时设置页面的 R=1当页面被修改时设置 M=1。其中 R 位会定时被清零。可以将页面分成以下四类:
2018-05-29 08:41:27 +08:00
- R=0M=0
- R=0M=1
- R=1M=0
- R=1M=1
2018-05-29 08:41:27 +08:00
当发生缺页中断时NRU 算法随机地从类编号最小的非空类中挑选一个页面将它换出。
2018-05-30 18:41:35 +08:00
NRU 优先换出已经被修改的脏页面R=0M=1而不是被频繁使用的干净页面R=1M=0
2018-05-29 08:41:27 +08:00
### 4. 先进先出
2018-04-06 22:46:59 +08:00
> FIFO, First In First Out
2018-04-06 22:46:59 +08:00
2018-06-20 11:35:11 +08:00
选择换出的页面是最先进入的页面。
2018-04-06 22:46:59 +08:00
2018-06-20 11:35:11 +08:00
该算法会将那些经常被访问的页面也被换出,从而使缺页率升高。
2018-04-06 22:46:59 +08:00
### 5. 第二次机会算法
2018-05-29 08:41:27 +08:00
FIFO 算法可能会把经常使用的页面置换出去,为了避免这一问题,对该算法做一个简单的修改:
2018-05-29 08:41:27 +08:00
当页面被访问 (读或写) 时设置该页面的 R 位为 1。需要替换的时候检查最老页面的 R 位。如果 R 位是 0那么这个页面既老又没有被使用可以立刻置换掉如果是 1就将 R 位清 0并把该页面放到链表的尾端修改它的装入时间使它就像刚装入的一样然后继续从链表的头部开始搜索。
2018-05-29 08:41:27 +08:00
<div align="center"> <img src="pics/ecf8ad5d-5403-48b9-b6e7-f2e20ffe8fca.png"/> </div><br>
2018-05-29 08:41:27 +08:00
### 6. 时钟
2018-04-06 22:46:59 +08:00
> Clock
2018-04-06 22:46:59 +08:00
2018-08-28 21:52:21 +08:00
第二次机会算法需要在链表中移动页面,降低了效率。时钟算法使用环形链表将页面连接起来,再使用一个指针指向最老的页面。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/5f5ef0b6-98ea-497c-a007-f6c55288eab1.png"/> </div><br>
2018-04-06 22:46:59 +08:00
## 分段
2018-05-25 15:47:52 +08:00
虚拟内存采用的是分页技术,也就是将地址空间划分成固定大小的页,每一页再与内存进行映射。
下图为一个编译器在编译过程中建立的多个表,有 4 个表是动态增长的,如果使用分页系统的一维地址空间,动态增长的特点会导致覆盖问题的出现。
2018-05-25 15:47:52 +08:00
<div align="center"> <img src="pics/22de0538-7c6e-4365-bd3b-8ce3c5900216.png"/> </div><br>
2018-05-25 15:47:52 +08:00
分段的做法是把每个表分成段,一个段构成一个独立的地址空间。每个段的长度可以不同,并且可以动态增长。
<div align="center"> <img src="pics/e0900bb2-220a-43b7-9aa9-1d5cd55ff56e.png"/> </div><br>
2018-05-25 15:47:52 +08:00
## 段页式
2018-05-25 15:47:52 +08:00
程序的地址空间划分成多个拥有独立地址空间的段,每个段上的地址空间划分成大小相同的页。这样既拥有分段系统的共享和保护,又拥有分页系统的虚拟内存功能。
## 分页与分段的比较
2018-05-25 15:47:52 +08:00
- 对程序员的透明性:分页透明,但是分段需要程序员显示划分每个段。
2018-05-25 15:47:52 +08:00
- 地址空间的维度:分页是一维地址空间,分段是二维的。
2018-05-25 15:47:52 +08:00
- 大小是否可以改变:页的大小不可变,段的大小可以动态改变。
2018-05-25 15:47:52 +08:00
- 出现的原因:分页主要用于实现虚拟内存,从而获得更大的地址空间;分段主要是为了使程序和数据可以被划分为逻辑上独立的地址空间并且有助于共享和保护。
2018-05-25 15:47:52 +08:00
# 五、设备管理
2018-04-06 22:46:59 +08:00
## 磁盘结构
2018-08-03 00:12:55 +08:00
- 盘面Platter一个磁盘有多个盘面
- 磁道Track盘面上的圆形带状区域一个盘面可以有多个磁道
- 扇区Track Sector磁道上的一个弧段一个磁道可以有多个扇区它是最小的物理储存单位目前主要有 512 bytes 与 4 K 两种大小;
- 磁头Head与盘面非常接近能够将盘面上的磁场转换为电信号或者将电信号转换为盘面的磁场
- 制动手臂Actuator arm用于在磁道之间移动磁头
- 主轴Spindle使整个盘面转动。
2018-08-03 00:12:55 +08:00
<div align="center"> <img src="pics/014fbc4d-d873-4a12-b160-867ddaed9807.jpg"/> </div><br>
2018-08-03 00:12:55 +08:00
## 磁盘调度算法
2018-04-06 22:46:59 +08:00
2018-06-09 17:00:56 +08:00
读写一个磁盘块的时间的影响因素有:
2018-04-06 22:46:59 +08:00
- 旋转时间(主轴转动盘面,使得磁头移动到适当的扇区上)
- 寻道时间(制动手臂移动,使得磁头移动到适当的磁道上)
- 实际的数据传输时间
2018-06-09 17:00:56 +08:00
其中,寻道时间最长,因此磁盘调度的主要目标是使磁盘的平均寻道时间最短。
2018-04-06 22:46:59 +08:00
### 1. 先来先服务
2018-04-06 22:46:59 +08:00
> FCFS, First Come First Served
2018-04-06 22:46:59 +08:00
2018-06-09 17:00:56 +08:00
按照磁盘请求的顺序进行调度。
优点是公平和简单。缺点也很明显,因为未对寻道做任何优化,使平均寻道时间可能较长。
2018-04-06 22:46:59 +08:00
### 2. 最短寻道时间优先
2018-04-06 22:46:59 +08:00
> SSTF, Shortest Seek Time First
2018-04-06 22:46:59 +08:00
2018-06-09 17:00:56 +08:00
优先调度与当前磁头所在磁道距离最近的磁道。
2018-04-06 22:46:59 +08:00
2018-10-01 22:26:22 +08:00
虽然平均寻道时间比较低,但是不够公平。如果新到达的磁道请求总是比一个在等待的磁道请求近,那么在等待的磁道请求会一直等待下去,也就是出现饥饿现象。具体来说,两端的磁道请求更容易出现饥饿现象。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/4e2485e4-34bd-4967-9f02-0c093b797aaa.png"/> </div><br>
2018-04-06 22:46:59 +08:00
### 3. 电梯算法
2018-04-06 22:46:59 +08:00
> SCAN
2018-04-06 22:46:59 +08:00
2018-06-09 17:00:56 +08:00
电梯总是保持一个方向运行,直到该方向没有请求为止,然后改变运行方向。
2018-04-06 22:46:59 +08:00
2018-06-09 17:00:56 +08:00
电梯算法(扫描算法)和电梯的运行过程类似,总是按一个方向来进行磁盘调度,直到该方向上没有未完成的磁盘请求,然后改变方向。
2018-04-06 22:46:59 +08:00
因为考虑了移动方向,因此所有的磁盘请求都会被满足,解决了 SSTF 的饥饿问题。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/271ce08f-c124-475f-b490-be44fedc6d2e.png"/> </div><br>
2018-04-06 22:46:59 +08:00
# 六、链接
2018-04-06 22:46:59 +08:00
## 编译系统
2018-04-06 22:46:59 +08:00
以下是一个 hello.c 程序:
2018-04-06 22:46:59 +08:00
```c
#include <stdio.h>
2018-04-06 22:46:59 +08:00
int main()
2018-04-06 22:46:59 +08:00
{
printf("hello, world\n");
return 0;
2018-04-06 22:46:59 +08:00
}
```
在 Unix 系统上,由编译器把源文件转换为目标文件。
2018-04-06 22:46:59 +08:00
```bash
gcc -o hello hello.c
2018-04-06 22:46:59 +08:00
```
这个过程大致如下:
<div align="center"> <img src="pics/b396d726-b75f-4a32-89a2-03a7b6e19f6f.jpg" width="800"/> </div><br>
2018-04-06 22:46:59 +08:00
- 预处理阶段:处理以 # 开头的预处理命令;
- 编译阶段:翻译成汇编文件;
- 汇编阶段:将汇编文件翻译成可重定向目标文件;
- 链接阶段:将可重定向目标文件和 printf.o 等单独预编译好的目标文件进行合并,得到最终的可执行目标文件。
2018-04-06 22:46:59 +08:00
## 静态链接
2018-04-06 22:46:59 +08:00
2018-09-18 09:31:50 +08:00
静态链接器以一组可重定向目标文件为输入,生成一个完全链接的可执行目标文件作为输出。链接器主要完成以下两个任务:
2018-04-06 22:46:59 +08:00
- 符号解析:每个符号对应于一个函数、一个全局变量或一个静态变量,符号解析的目的是将每个符号引用与一个符号定义关联起来。
- 重定位:链接器通过把每个符号定义与一个内存位置关联起来,然后修改所有对这些符号的引用,使得它们指向这个内存位置。
2018-04-06 22:46:59 +08:00
<div align="center"> <img src="pics/47d98583-8bb0-45cc-812d-47eefa0a4a40.jpg"/> </div><br>
2018-04-06 22:46:59 +08:00
## 目标文件
2018-06-09 17:00:56 +08:00
- 可执行目标文件:可以直接在内存中执行;
- 可重定向目标文件:可与其它可重定向目标文件在链接阶段合并,创建一个可执行目标文件;
- 共享目标文件:这是一种特殊的可重定向目标文件,可以在运行时被动态加载进内存并链接;
2018-06-09 17:00:56 +08:00
## 动态链接
2018-04-06 22:46:59 +08:00
静态库有以下两个问题:
- 当静态库更新时那么整个程序都要重新进行链接;
- 对于 printf 这种标准函数库,如果每个程序都要有代码,这会极大浪费资源。
共享库是为了解决静态库的这两个问题而设计的,在 Linux 系统中通常用 .so 后缀来表示Windows 系统上它们被称为 DLL。它具有以下特点
- 在给定的文件系统中一个库只有一个文件,所有引用该库的可执行目标文件都共享这个文件,它不会被复制到引用它的可执行文件中;
- 在内存中,一个共享库的 .text 节(已编译程序的机器代码)的一个副本可以被不同的正在运行的进程共享。
<div align="center"> <img src="pics/76dc7769-1aac-4888-9bea-064f1caa8e77.jpg"/> </div><br>
# 参考资料
- Tanenbaum A S, Bos H. Modern operating systems[M]. Prentice Hall Press, 2014.
- 汤子瀛, 哲凤屏, 汤小丹. 计算机操作系统[M]. 西安电子科技大学出版社, 2001.
- Bryant, R. E., & OHallaron, D. R. (2004). 深入理解计算机系统.
- 史蒂文斯. UNIX 环境高级编程 [M]. 人民邮电出版社, 2014.
- [Operating System Notes](https://applied-programming.github.io/Operating-Systems-Notes/)
- [Operating-System Structures](https://www.cs.uic.edu/\~jbell/CourseNotes/OperatingSystems/2_Structures.html)
- [Processes](http://cse.csusb.edu/tongyu/courses/cs460/notes/process.php)
- [Inter Process Communication Presentation[1]](https://www.slideshare.net/rkolahalam/inter-process-communication-presentation1)
- [Decoding UCS Invicta Part 1](https://blogs.cisco.com/datacenter/decoding-ucs-invicta-part-1)