Mrli
别装作很努力,
因为结局不会陪你演戏。
Contacts:
QQ博客园

ZJU开学摸底考试——操作系统复习

2022/02/27 计算机基础知识
Word count: 18,833 | Reading time: 64min

操作系统

特性:

  • 并发:
    • ▲理解并发和并行的区别
  • 共享
    • 互斥共享方式(摄像头设备的共享使用)
    • 同时共享方式(硬盘访问)——宏观的同时,微观上进程还是交替访问的(分时共享)
  • 虚拟:
    • 虚拟存储器:
      • 空分复用
    • 虚拟处理器:
      • 时分复用
  • 异步
    • 只有系统具有并发性,才可能导致异步性

注: 并发与共享互为存在条件

操作系统发展

单道批处理系统

  • 主要优点:缓解了一定程度的人机速度矛盾,资源利用率有所提升。
  • 主要缺点:内存中仅能有一道程序运行,只有该程序运行结束之后才能调入下一道程序。CPU有大量的时间是在空闲等待/0完成。资源利用率依然很低。

多道批处理系统:

  • 主要优点:多道程序并发执行,共享计算机资源。资源利用率大幅提升,CPU和其他资源保持“忙碌”状态,系统吞吐量增大。
  • 主要缺点:用户响应时间长,没有人机交互功能(用户提交自己的作业之后就只能等待计算机处理完成,中间不能控制自己的作业执行)

分时操作系统:

计算机以时间片为单位轮流为各个用户/作业服务,各个用户可通过终端与计算机进行交互。

  • 主要优点:用户请求可以被即时响应,解决了人机交互问题。允许多个用户同时使用一台计算机,并且用户对计算机的操作相互独立,感受不到别人的存在。
  • 主要缺点:不能优先处理一些紧急任务。操作系统对各个用户/作业都是完全公平的,循环地为每个用户/作业服务一个时间片,不区分任务的紧急性。

实时操作系统:

  • 主要优点:能够优先响应一些紧急任务,某些紧急任务不需时间片排队。
    在实时操作系统的控制下,计算机系统接收到外部信号后及时进行处理,并且要在严格的时限内处理完事件。实时操作系统的主要特点是及时性可靠性

OS的运行机制和体系结构

运行机制:

指令:“指令”就是处理器(CPU)能识别、执行的最基本命令。而OS运行过程就是CPU不断执行指令的过程

  • 特权指令: 内存清零指令
  • 非特权指令:普通加减乘除指令

处理器状态:

  • 内核态(管态):既可以执行特权指令也可执行非特权指令
  • 用户态(目态):此时CPU只能执行非特权指令

▲:“用户态->核心态”是通过中断实现的并且中断是唯一途径。而“核心态->用户态”的切换是通过执行一个特权指令,将程序状态字(PSW)的标志位设置为“用户态”

内核:

内核是计算机上配置的底层软件,是操作系统最基本、最核心的部分。
实现操作系统内核功能的那些程序就是内核程序。

体系结构

体系结构

中断:

为了解决最初各个程序只能串行执行,人们发明了操作系统(作为计算机的管理者),引入中断机制,从而实现了多道程序并发执行

本质:发生中断就意味着需要操作系统介入,开展管理工作

▲:“用户态->核心态”是通过中断实现的并且中断是唯一途径。而“核心态->用户态”的切换是通过执行一个特权指令,将程序状态字(PSW)的标志位设置为“用户态”

中断分类:

  • 内中断(与CPU当前执行指令有关)
    • 自愿中断——指令中断
    • 强迫中断——硬件故障(缺页)、软件中断(除零)
  • 外中断(与CPU当前执行指令无关)
    • 外设请求(IO操作完成发出中断信号)
    • 人工干涉(用户强行关闭进程)

系统调用

操作系统作为用户和计算机硬件之间的接口,需要向上提供一些简单易用的服务。主要包括命令接口和程序接口。其中,程序接口由一组系统调用组成。

“系统调用”是操作系统提供给应用程序(程序员/编程人员)使用的接口,可以理解为一种可供应用程序调用的特殊函数,应用程序可以发出系统调用请求来获得操作系统的服务。

进程

定义

程序段数据段PCB三部分组成了进程实体(进程映像)。一般情况下,我们把进程实体就简称为进程,例如,所谓创建进程,实质上是创建进程实体中的PCB;而撤销进程,实质上是撤销进程实体中的PCB。
注意:PCB是进程存在的唯一标志!

从不同的角度,进程可以有不同的定义,比较传统典型的定义有:
1.进程程序的一次执行过程。
2.进程是一个程序及其数据在处理机上顺序执行时所发生的活动。
3.进程是具有独立功能的程序在数据集合上运行的过程,它是系统进行资源分配和调度的一个独立单位

▲它是一个动态的过程。

引入进程实体的概念后,可把进程定义为:进程是进程实体的**运行过程,**是系统进行资源分配和调度的一个独立单位。

注:严格来说,进程实体和进程并不一样,进程实体是静态的,进程则是动态的。不过,除非题目专门考察二者区别,否则可以认为避程实体就是进程。因此我们也可以说“进程由程序段、数据段、PCB三部分组成”

组织形式

链接方式:按照进程状态将PCB分成多个队列,操作系统持有指向各个队列的指针

索引方式:根据进程状态不同建立多张索引表,操作系统持有指向各个索引表的指针

进程特性

进程特性

进程状态:

  • 创建态:进程正在被创建,操作系统为进程分配资源、初始化PCB
  • 运行态
  • 阻塞态
  • 就绪态
  • 终止态: 进程从系统中撤销,操作系统回收进程拥有的资源、撤销PCB

进程状态转换

进程控制:

用原语实现进程控制。原语的特点是执行期间不允许中断,只能一气呵成。
这种不可被中断的操作即原子操作
原语采用“关中断指令”和“开中断指令”实现

注:显然,关/开中断指令的权限非常大,必然是只允许在核心态下执行的特权指令

创建原语:无->创建态->就绪态

  • 申请空白PcB
  • 为新进程分配所需资源
  • 初始化PCB
  • 将PcB插入就绪队列

撤销原语:就绪态/阻塞态/运行态→终止态→无

  • 从PcB集合中找到终止进程的PCB
  • 若进程正在运行,立即剥夺CPU,将CPU分配给其他进程
  • 终止其所有子进程
  • 将该进程拥有的所有资源归还给父进程或操作系统
  • 删除PcB

阻塞原语:

  • 找到要阻塞的进程对应的PcB
  • 保护进程运行现场,将PcB状态信息设置为阻塞态",暂时停止进程运行
  • 将PcB插入相应事件的等待队列

唤醒原语:

  • 在事件等待队列中找到PcB
  • 将PcB从等待队列移除,设置进程为就绪态
  • 将pcB插入就绪队列,等待被调度

通信

各进程拥有的内存地址空间相互独立

方式:

都需要互斥

  • 共享存储

    • 基于数据结构:速度慢,是一种低级的通信方式
    • 基于存储区:存放位置都由进程控制,而不是操作系统。相比之下,这种共享方式速度更快,是一种高级通信方式
  • 管道通信

    “管道”是指用于连接读写进程的一个共享文件,又名pipe文件。其实就是在内存中开辟一个大小固定的缓冲区

    数据以字符流的形式写入管道,当管道写满时,写进程的write()系统调用将被阻塞,等待读进程将数据取走。当读进程将数据全部取走后,管道变空,此时读进程的read()系统调用将被阻塞。

    • 半双工管道,如果全双工需要设置两个管道
    • 需要互斥访问
    • 读进程最多只能有一个——否则可能有读错数据的情况
  • 消息传递

    进程间的数据交换以格式化的消息(Message)为单位。进程通过操作系统提供的“发送消息/接收消息”两个原语进行数据交换。

    • 直接通信方式: 消息直接挂到接收进程的消息缓冲队列上
    • 间接通信方式:消息先发送到中间实体(信箱)中,因此也成为信箱通信方式

进程互斥原则:

为了实现对临界资源的互斥访问,同时保证系统整体性能,需要遵循以下原则:

1.空闲让进。临界区空闲时,可以允许一个请求进入临界区的进程立即进入临界区
2.忙则等待。当已有进程进入临界区时,其他试图进入临界区的进程必须等待;
3.有限等待。对请求访问的进程,应保证能在有限时间内进入临界区(保证不会饥饿);
4.让权等待。当进程不能进入临界区时,应立即释放处理机,防止进程忙等待。

进程互斥软件实现:

  • 单标志法:算法思想:两个进程在访问完临界区后会把使用临界区的权限转交给另一个进程。也就是说每个进程进入临界区的权限只能被另一个进程赋予
    • 单标志法存在的主要问题是:违背“空闲让进”原则。
  • 双标志先检查:算法思想:设置一个布尔型数组flag囗,数组中各个元素用来标记各进程想进入临界区的意愿,比如flag=ture”意味着0号进程P0现在想要进入临界区。每个进程在进入临界区之前先检査当前有没有别的进程想进入临界区,如果没有,则把自身对应的标志fa】设为true,之后开始访问临界区。
    • 双标志先检查法的主要问题是:违反“忙则等待”原则。
  • 双标志后检查:算法思想:双标志先检査法的改版。前一个算法的问题是先“检査”后“上锁”,但是这两个操作又无法一气呵成,因此导致了两个进程同时进入临界区的问题。因此,人们又想到先“上锁”后“检查”的方法,来避免上述问题。
    • 双标志后检査法虽然解决了“忙则等待”的问题,但是又违背了“空闲让进”和“有限等待”原则,会因各进程都长期无法访问临界资源而产生“饥饿”现象。
  • Peterson算法——三标志:算法思想:双标志后检査法中,两个进程都争着想进入临界区,但是谁也不让谁,最后谁都无法进入临界区。 Gary L. Peterson想到了一种方法,如果双方都争着想进入临界区,那可以让进程尝试“孔融让梨”,主动让对方先使用临界区。
    • Peterson算法用软件方法解决了进程互斥问题,遵循了空闲让进、忙则等待、有限等待三个原则,但是依然未遵循让权等待的原则。

进程互斥硬件实现:

  • 中断屏蔽方法
  • TestAndSet
  • Swap指令

信号量

用户进程可以通过使用操作系统提供的一对原语来对信号量进行操作,从而很方便的实现了进程互斥、进程同步

信号量其实就是一个变量(可以是一个整数,也可以是更复杂的记录型变量),可以用一个信号量来表示系统中某种资源的数量,比如:系统中只有一台打印机,就可以设置一个初值为1的信号量。

wait、 signal原语常简称为ρ、V操作(来自荷兰语 proberen和 verhogen)。因此,做题的时候常把Wait(S)、 sIgna|(S)两个操作分别写为P(S)、V(S)

  • 整形信号量:用一个整数型的变量作为信号量,用来表示系统中某种资源的数量
    • 存在的问题:不满足“让权等待”原则,会发生“忙等”
  • 整型信号量的缺陷是存在“忙等”问题,因此人们又提岀了“记录型信号量”,即用记录型数据结构表示的信号量。

操作方式:

  • S value的初值表示系统中某种资源的数目
  • 对信号量S的一次P操作意味着进程请求一个单位的该类资源,因此需要执行va|ue-,表示资源数减1,当S value<0时表示该类资源已分配完毕,因此进程应调用 block原语进行自我阻塞(当前运行的进程从运行态→阻塞态),主动放弃处理机,并插入该类资源的等待队列SL中。可见,该机制遵循了“让权等待”原则,不会出现“忙等”现象。
  • 对信号量S的一次∨操作意味着进程释放一个单位的该类资源,因此需要执行 S value++,表示资源数加1,若加1后仍是 S value<=0,表示依然有进程在等待该类资源,因此应调用 wakeup原语唤醒等待队列中的第个进程(被唤醒进程从阻塞态→就绪态)。

信号量

技巧总结:

基础

  • 互斥问题,将信号量初值设置为1
  • 同步问题,将信号量初值设置为0——一前一后问题,进程执行有先后顺序需要同步协调
  • 除了互斥、同步问题外还会考察有多个资源的问题,有多少资源就把信号量初值设为多少。申请资源时进行P操作,释放资源时进行V操作即可
    • 设置一个信号量,初始值即为资源的数量(本质上也属于“同步问题”,若无空闲资源,则申请资源的进程需要等待别的进程释放资源后才能继续往下执行)

进阶

  • 实现互斥是在同一进程中进行一对PV操作
  • 实现两进程的同步关系,是在其中个进程中执行P,另进程中执行V
  • **实现互斥的P操作一定要在实现同步的P操作之后。**V操作不会导致进程阻塞,因此两个V操作顺序可以交换。

生产消费者问题

读者和写者问题

有读者和写者两组并发进程,共享一个文件,当两个或两个以上的读进程同时访问共享数据时不会产生副作用,但若某个写进程和其他进程(读进程或写进程)同时访问共享数据时则可能导致数据不一致的错误。因此要求:

  1. 允许多个读者可以同时对文件执行读操作;
  2. 只允许一个写者往文件中写信息;
  3. 任一写者在完成写操作之前不允许其他读者或写者工作;
  4. 写者执行写操作前,应计口有的读者和写者全部退出

管程:信号量机制存在的问题:编写程序困难、易出错,能不能设计一种机制,让程序员写程序时不需要再关注复杂的PV操作,让写代码更轻松呢?——管程,一种高级同步机制

管程是一种特殊的软件模块,有这些部分组成:
1.局部于管程的共享数据结构说明
2.对该数据结构进行操作的1组过程(函数);
3.对局部于管程的共享数据设置初始值的语句;
4.管程有一个名字。

管程的基本特征:
1.局部于管程的数据只能被局部于管程的过程所访问;
2.一个进程只有通过调用管程内的过程才能进入管程访问共享数据;
3.每次仅允许一个进程在管程内执行某个内部过程。

死锁

什么是死锁
进程死锁、饥饿、死循环的区别

  • 死锁:各进程互相等待对方手里的资源,导致各进程都阻塞,无法向前推进的现象。
  • 饥饿:由于长期得不到想要的资源,某进程无法向前推进的现象。比如:在短进程优先(sPF)算法
    中,若有源源不断的短进程到来,则长进程将一直得不到处理机,从而发生长进程“饥饿”
  • 死循环:某进程执行过程中一直跳不出某个循环的现象。有时是因为程序逻辑bug导致的,有时是
    程序员故意设计的。

死锁产生的必要条件

  • 互斥条件:只有对必须互斥使用的资源的争抢才会导致死锁(如哲学家的筷子、打印机设备)。像内存、扬声器这样可以同时让多个进程使用的资源是不会导致死锁的(因为进程不用阻塞等待这种资源)。
  • 不剥夺条件:进程所获得的资源在未使用完之前,不能由其他进程强行夺走,只能主动释放。
  • 请求和保持条件:进程已经保持了至少一个资源,但又提出了新的资源请求,而该资源又被其他进程占有,此时请求进程被阻塞,但又对自己已有的资源保持不放。
  • 循环等待条件:存在一种进程资源的循环等待链,链中的每一个进程已获得的资源同时被下一个进程所请求。

什么时候会发生死锁

  • 对系统资源的竞争。各进程对不可剥夺的资源(如打印机)的竞争可能引起死锁,对可剥夺的资源(CPU)的竞争是不会引起死锁的
  • 进程推进顺序非法。请求和释放资源的顺序不当,也同样会导致死锁。例如,并发执行的进程P1、
    分别申请并占有了资源R1、R2,之后进程P1又紧接着申请资源R2,而进程P2又申请资源R1,两者会因为申请的资源被对方占有而阻塞,从而发生死锁
  • 信号量的使用不当也会造成死锁。如生产者-消费者问题中,如果实现互斥的P操作在实现同步的操作之前,就有可能导致死锁。(可以把互斥信号量、同步信号量也看做是一种抽象的系统资源)

死锁的处理策略

  • 死锁忽略
  • 预防死锁。破坏死锁产生的四令必要条件中的一个或几个。
  • 避免死锁。用某种方法防止系统进入不安全状态,从而避免死锁(银行家算法)
  • 死锁的检测和解除。允许死锁的发生,不过操作系统会负责检测出死锁的发生,然后采取某种措施解除死锁。
    • 检测
      • 资源分配图
      • 死锁检测算法
    • 接触:
      • 资源剥夺法:
      • 撤销(终止)进程法:
      • 进程回退法:

线程

在没有引入进程之前,程序都是串行执行的。引入进程后计算机可以同时执行多个程序,但进程是程序的一次执行,比如QQ拥有视频、发丧图片等功能,程序的多个功能是不可能顺序执行就实现的,因此引出了线程。为此,引入了线程来增加并发性

▲传统的进程是程序执行流的最小单位 ===> 引入线程后,线程成了程序执行流的最小单位 ==> 可以吧线程理解为轻量级进程

线程是一个基本的CPU执行单元也是程序执行流的最小单位。

  • 引入线程之后,不仅是进程之间可以并发,进程内的各线程之间也可以并发,从而进一步提升了系统的并发度,使得一个进程内也可以并发处理各种任务(如QQ视频、文字聊天、传文件)
  • 引入线程后,进程只作为除CPU之外的系统资源的分配单元(如打印机、内存地址空间等都是分配给进程的)==> 引入线程后,进程是资源分配的基本单位,线程是调度的基本单位

理解类比:

引人线程后,并及所带来的系统开销,比如去图书馆看书。

  • 切换进程运行环境=有一个不认识的人要用桌子,你需要你的书收走,他把自己的书放到桌上
  • 同一进程内的线程切换=你的舍友要用这张书桌,可以不把桌子上的书收走

线程属性

  • 用户级线程(ULT: User-Level Thread)

    • 用户级线程由应用程序通过线程库实现。
      所有的线程管理工作都由应用程序负责(包括线程切换)
      用户级线程中,线程切换可以在用户态下即可完成,无需操作系统干预。
      在用户看来,是有多个线程。但是在操作系统内核看来,并意识不到线程的存在。(用户级线程对用户不透明,对操作系统透明)

      ==> 用户线程就是从用户视角能看到的线程

  • 内核级线程(KLT: Kernel-Level Thread)

    • 内核级线程的管理工作由操作系统内核完成。
      线程调度、切换等工作都由内核负责,因此内核级线程的切换必然需要在核心态下才能完成。

      ==> 可以这样理解,“内核级线程”就是“从操作系统内核视角看能看到的线程”

组合方式: KLT(m个)与ULT混合(n个)共同使用, n>=m

线程实现方式

多线程模型:

  • 多对一模型:多个用户及线程映射到一个内核级线程。每个用户进程只对应一个内核级线程。
    • 优点:用户级线程的切换在用户空间即可完成,不需要切换到核心态,线程管理的系统开销小,效率高
    • 缺点:当一个用户级线程被阻塞后,整个进程都会被阻塞,并发度不高。多个线程不可在多核处理机上并行运行
  • 一对一模型:一个用户及线程映射到一个内核级线程。每个用户进程有与用户级线程同数量的内核级线程
    • 优点:当一个线程被阻塞后,别的线程还可以继续执行,并发能力强。多线程可在多核处理机上并行执行。
    • 缺点:一个用户进程会占用多个内核级线程,线程切换由操作系统内核完成,需要切换到核心态,因此线程管理的成本高,开销大。
  • ★多对多模型:用户及线程映射到m个内核级线程(n>=m)。每个用户进程对应m个内核级线程。
    • 克服了多对一模型并发度不高的缺点,又克服了一对一模型中一个用户进程占用太多内核级线程,开销太大的缺点。

处理机调度

调度:当有一堆仼务要处理,但由于资源有限,这些事情没法同时处理。这就需要确定某种规则来决定处理这些任务的顺序(按某种算法选择一个进程将处理机分配给它),这就是“调度”研究的问题。

三个层次:

  • 作业调度(高级调度)

    • 高级调度是辅存(外存)与内存之间的调度。每个作业只调入一次,调出一次。作业调入时会建立相应的PCB,作业调出时才撤销PCB。
    • 高级调度主要是指调入的问题,因为只有调入的时机需要操作系统来确定,但调出的时机必然是作业运行结束才调出。
  • 内存调度(中级调度)——比作业调度多了挂起队列

    • 引入了虚拟存储技术之后,可将暂时不能运行的进程调至外存等待。等它重新具备了运行条件且内存又稍有空闲时,再重新调入内存。==>从而提高了内存利用率和系统吞吐量
    • 中级调度(内存调度),就是要决定将哪个处于挂起状态的进程重新调入内存。

    七状态模型

  • 进程调度(低级调度)

    • 主要任务是按照某种方法和策略从就绪队列中选取一个进程,将处理机分配给它
    • 进程调度是操作系统中最基本的一种调度,在一般的操作系统中都必须配置进程调度。

调度对比

不能进行进程切换的情况:

  • 在处理中断的过程中。中断处理过程复杂,与硬件密切相关,很难做到在中断处理过程中进行进程切换。

  • 进程在操作系统内核程序临界区中

    • 进程在操作系统内核程序临界区中不能进行调度与切换 √
    • (2012年联考真题)进程处于临界区时不能进行处理机调度(X

    临界资源:一个时间段内只允许一个进程使用的资源。各进程需要互斥地访问临界资源。

    临界区:访问临界资源的那段代码。
    内核程序临界区一般是用来访问某种内核数据结构的,比如进程的就绪队列(由各就绪进程的PcB组成)

  • 在原子操作过程中(原语)。原子操作不可中断,要一气呵成(如之前讲过的修改PCB中进程状态标志,并把PCB放到相应队列)

调度算法评价指标

  • CPU利用率:指CPU“忙碌”的时间占总时间的比例。
  • 系统吞吐量:单位时间内完成作业的数量
  • 周转时间:是指从作业被提交给系统开始,到作业完成为止的这段时间间隔。
    • 它包括四个部分:作业在外存后备队列上等待作业调度(高级调度)的时间、进程在就绪队列上等
      待进程调度(低级调度)的时间、进程在CPU上执行的时间、进程等待O操作完成的时间。后三项
      在一个作业的整个处理过程中,可能发生多次。
  • 等待时间:进程作业等待被服务的时间之和
  • 响应时间:指从用户提交请求到首次产生响应所用的时间。

调度算法:

  • 先来先服务
    • 非抢占式
  • 短作业优先
    • 非抢占式、抢占式(最短剩余时间)
  • 高响应比优先
    • 非抢占式
  • 时间片轮转调度算法RR
    • 抢占式
    • 如果时间片太大,使得每个进程都可以在一个时间片内就完成,则时间片轮转调度算法退化为先来先服务调度算法,并且会增大进程响应时间。因此时间片不能太大。
    • 另一方面,进程调度、切换是有时间代价的(保存、恢复运行环境),因此如果时间片太小,会导致进程切换过于频繁,系统会花大量的时间来处理进程切换,从而导致实际用于进程执行的时间比例减少。可见时间片也不能太小。
  • 优先级调度算法
    • 抢占式+非抢占式
  • 多级反馈队列调度算法
    • 抢占式

内存管理

内存是用于存放数据的硬件程序执行前需要先放到内存中才能被CPU处理

内存的每个存储单元都会进行编址:①按字节编址、②按字编址

  • 我们写的代码要翻译成CPU能识别的指令。这些指令会告诉CPU应该去内存的哪个地址存/取数据。但实际在生成机器指令的时候并不知道该进程的数据会被放到什么位置。所以编译生成的指令中一般是使用逻辑地址(相对地址)

  • 相对地址又称逻辑地址,绝对地址又称物理地址。

  • 编译:由编译程序将用户源代码编译成若干个目标模块(编译就是把高级语言翻译为机器语言)

  • 链接:由链接程序将编译后形成的一组目标模块,以及所需库函数链接在一起,形成一个完整的装入模块

    1. 静态链接.a:在程序运行之前,先将各目标模块及它们所需的库函数连接成一个完整的可执行文件(装入模块),之后不再拆开。
    2. 装入时动态链接.so:将各目标模块装入内存时,边装入边链接的链接方式。
    3. 运行时动态链接.dll:在程序执行中需要该目标模块时,才对它进行链接。其优点是便于修改和更新,便于实现对目标模块的共享。
  • 装入(装载):由装入程序将装入模块装入内存运行

    装入的三种方式(用三种不同的方法完成逻辑地址到物理地址的转换):

    1. 绝对装入

      • 绝对装入只适用于单道程序环境。程序中使用的绝对地址,可在编译或汇编时给出,也可由程序员直接赋予。通常情况下都是编译或汇编时再转换为绝对地址。
    2. 静态重定位(可重定位装入)

      • 编译、链接后的装入模块的地址都是从0开始的,指令中使用的地址、数据存放的地址都是相对于起始地址而言的逻辑地址。可根据内存的当前情况,将装入模块装入到内存的适当位置。装入时对地址进行“重定位”,将逻辑地址变换为物理地址(地址变换是在装入时一次完成的)。

      • 静态重定位的特点是在一个作业装入内存时,必须分配其要求的全部内存空间,如果没有足够的内存,就不能装入该作业。作业一旦进入内存后,在运行期间就不能再移动,也不能再申请内存空间。

    3. 动态重定位(又称动态运行时装入,目前采用的方式)

      • 编译、链接后的装入模块的地址都是从0开始的。装入程序把裝入模块装入内存后,并不会立即把逻辑地址转换为物理地址,而是把地址转换推迟到程序真正要执行时才进行。因此装入内存后所有的地址依然是逻辑地址。这种方式需要一个重定位寄存器(存放装入模块存放的起始位置)的支持。
      • 采用动态重定位时允许程序在内存中发生移动。
      • ★并且可将程序分配到不连续的存储区中;在程序运行前只需装入它的部分代码即可投入运行,然后在程序运行期间,根据需要动态申请分配内存;便于程序段的共享,可以向用户提供一个比存储空间大得多的地址空间。

操作系统需要做的事?

1.操作系统负责内存空间的分配与回收
2.操作系统需要提供某种技术从逻辑上对内存空间进行扩充
3.操作系统需要提供地址转换功能,负责程序的逻辑地址与物理地址的转换

内存保护:

保证各进程在自己的内存空间内运行,不会越界访问

  • 方法一:在CPU中设置一对上、下限寄存器,存放进程的上、下限地址。进程的指令要访问某个地址时,CPU检查是否越界
  • 方法二:采用重定位寄存器(又称基址寄存器)和界地址寄存器(又称限长寄存器)进行越界检査。重定位寄存器中存放的是进程的起始物理地址。界地址寄存器中存放的是进程的最大逻辑地址

内存空间扩充:

  • 覆盖技术(弃用):将程序分为多个段(多个模块)。常用的段常驻内存,不常用的段在需要时调入内存。
    • 内存中分为一个“固定区”和若干个“覆盖区”。
    • 需要常驻内存的段放在“固定区”中,调入后就不再调出(除非运行结束)
    • 不常用的段放在“覆盖区”,需要用到时调入内存,用不到时调出内存
    • 必须由程序员声明覆盖结构,操作索统完成自动覆盖。缺点:对用户不透明,增加了用户编程负担。
  • 交换技术:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)、
    • 交换(对换)技术的设计思想:内存空间紧张时,系统将内存中某些进程暂时换出外存,把外存中某些已具备运行条件的进程换入内存(进程在内存与磁盘间动态调度)
    • 暂时换出外存等待的进程状态为挂起状态(挂起态, suspend)
    • 挂起态又可以进一步细分为就绪挂起、阻塞挂起两种状态
    • 覆盖与交换的区别
      • 覆盖是在同一个程序或进程中的
      • 交换是在不同进程(或作业)之间的
  • 虚拟存储技术
    • 基于局部性原理,在程序装入时,可以将程序中很快会用到的部分装入内存,暂时用不到的部分留在外存,就可以让程序开始执行在程序执行过程中,当所访问的信息不在内存时,由操作系统负责将所需信息从外存调入内存,然后继续执行程序。
      若内存空间不够,由操作系统负责将内存中暂时用不到的信息换出到外存在操作系统的管理下,在用户看来似乎有一个比实际内存大得多的内存,这就是虚拟内存
    • 传统存储管理方式的特征、缺点:
      • 一次性:作业必须一次性全部装入内存后才能开始运行。这会造成两个问题:①作业很大时,不能全部装入内存,导致大作业无法运行;②当大量作业要求运行时,由于内存无法容纳所有作业,因此只有少量作业能运行,导致多道程序并发度下降
      • 驻留性:一旦作业被装入内存,就会一直驻留在内存中,直至作业运行结束。事实上,在一个时间段内,只需要访问作业的一小部分数据即可正常运行,这就导致了内存中会驻留大量的、暂时用不到的数据,浪费了宝贵的内存资源。
    • 多次性:无需在作业运行时一次性全部装入内存,而是允许被分成多次调入内存。
      对换性:在作业运行时无需一直常驻内存,而是允许在作业运行过程中,将作业换入、换出。
      虚拟性:从逻辑上扩充了内存的容量,使用户看到的内存容量,远大于实际的容量。
    • 请求分页存储管理
      请求分段存储管理
      请求段页式存储管理

内存空间的分配与回收:

  • 连续分配管理方式:为用户进程分配的必须是一个连续的内存空间

    • 单一连续分配:在单一连续分配方式中,内存被分为系统区和用户区。系统区通常位于内存的低地址部分,用于存放操作系统相关数据;用户区用于存放用户进程相关数据。内存中只能有一道用户程序,用户程序独占整个用户区空间。
      • 优点:实现简单;无外部碎片;可以采用覆盖技术扩充内存;不一定需要采取内存保护(eg:早期的PC操侬系统 MS-DOS)。
      • 缺点:只能用于单用户、单任务的操作系统中;有内部碎片;存储器利用率极低。
    • 固定分区分配:将整个用户空间划分为若干个固定大小的分区,在每个分区中只装入一道作业,这样就形成了最早的、最简单的一种可运行多道程序的内存管理方式。
      • 优点:实现简单,无外部碎片
      • 缺点:a.当用户程序太大时,可能所有的分区都不能满足需求,此时不得不采用覆盖技术来解决,但这又会降低性能;b.会产生内部碎片,内存利用率低。
    • 动态分区分配:动态分区分配又称为可变分区分配。这种分配方式不会预先划分内存分区,而是在进程装入内存时根据进程的大小动态地建立分区,并使分区的大小正好适合进程的需要。因此系统分区的大小和数目是可变的。(eg:假设某计算机内存大小为64MB,系统区8MB,用户区共56MB.)
      • 空闲分区链:每个分区的起始部分和末尾部分分别设置前向指针和后向指针。起始部分处还可记录分区大小等信息
      • 空闲分区表:每个空闲分区对应个表项。表项中包含分区号分区大小、分区起始地址等信息
      • 动态分区分配没有内部碎片,但是有外部碎片。内部碎片,分配给某进程的内存区域中,如果有些部分没有用上外部碎片,是指内存中的某些空闲分区由于太小而难以利用。
  • 非连续分配管理方式(离散分配方式):为用户进程分配的可以是一些分散的内存空间。

    • 基本分页存储管理

      • 把“固定分区分配”改造为“非连续分配版本”,将内存空间分为一个个大小相等的分区(比如:每个分区4KB),每个分区就是一个“页框”,或称“页帧”、“内存块”、“物理块”。每个页框有一个编号,即“页框号”(或者“内存块号”、“页帧号”、“物理块号”)页框号从0开始。
      • 用户进程的地址空间也分为与页框大小相等的一个个区域,称为“页”或“页面”。每个页面也有一个编号,即“页号页号也是从0开始。(注:进程的最后一个页面可能没有一个页框那么大。因此,页框不能太大,否则可能产生过大的内部碎片)
      • 操作系统以页框为单位为各个进程分配内存空间。进程的每个页面分别放入一个页框中。也就是说,进程的页面与内存的页框有一一对应的关系
      • 为了方便计算页号、页内偏移量,页面大小一般设为2的整数幂
      • 如果有K位表示“页内偏移量”,则说明该系统中一个页面的大小是2K个内存单元
        如果有M位表示“页号”,则说明在该系统中,一个进程最多允许有2M个页面
      • 一个进程对应一张页表
        ▲进程的每一页对应一个页表项,每个页表项由“页号”和“块号”组成
        页表记录进程页面和实际存放的内存块之间的对应关系
      • 优点:内存空间利用率高,不会产生外部碎片,只会有少量的页内碎片
      • 缺点:不方便按照逻辑模块实现信息的共享和保护
      • 单级列表:
        • 问题一:页表必须连续存放,因此当页表很大时,需要占用很多连续的页框。
          • 多级,顶级页表
        • 问题二:没有必要让整个页表常驻内存,因为进程在一段时间内可能只需要访问某几个特定的页面。
          • 可以在需要访问页面时才把页面调入内存(虚拟存储技术)。可以在页表项中增加一个标志位,用于表示该页面是否已经调入内存
          • 若想访问的页面不在内存中,则产生缺页中断(内中断),然后将目标页面从外存调入内存
    • 基本分段存储管理

      • 优点:很方便按照逻辑模块实现信息的共享和保护
      • 缺点:如果段长过大,为其分配很大的连续空间会很不方便。另外,段式管理会产生外部碎片
      • 段号的位数决定了每个进程最多可以分几个段
        段内地址位数决定了每个段的最大长度是多少

      对比:

      • 页是信息的物理单位。分页的主要目的是为了实现离散分配,提高内存利用率。分页仅仅是系统管理上的需要,完全是系统行为,对用户是不可见的。
      • 段是信息的逻辑单位。分段的主要目的是更好地满足用户需求。一个段通常包含着一组属于一个逻辑模块的信息。分段对用户是可见的,用户编程时需要显式地给出段名
      • 页的大小固定且由系统决定。段的长度却不固定,决定于用户编写的程序。
      • 分页的用户进程地址空间是一维的,程序员只需给出一个记忆符即可表示一个地址。
      • 分段的用户进程地址空间是二维的,程序员在标识一个地址时,既要给出段名,也要给出段内地址
      • 分段比分页更容易实现信息的共享和保护。
    • 段页式存储管理

局部性原理

时间局部性
空间局部性
高速缓存技术

页面置换算法:

  • OPT
  • FIFO
  • LRU
  • CLOCK (NRU)
  • 改进型 CLOCK(改进型NRU)

文件系统

  • 无结构文件(流式文件)

  • 有结构文件(记录式文件)

    • 每条记录由多个数据项组成,而每条记录的单个数据项都通过关键字表达具体含义,如名字。

    • 逻辑结构:

      • 顺序文件: 链式存储(不可随机读取)、顺序存储(可变长记录不可随机读取、定长记录可以)
      • 索引文件
      • 索引顺序文件

注:

  • 逻辑结构:就是指在用户看来,文件内部的数据应该是如何组织起来的。
  • 物理结构:是在操作系统看来,文件的数据是如何存放在外存中的。

注:一般来说,考试题目中所说的顺序文件”指的是物理上顺序存储的顺序文件。之后的讲解中提到的顺序文件也默认如此。

文件目录

  • 文件控制块(FCB): 文件名、类型、读写权限、...、物理位置,包含逻辑结构、物理结构,存取控制信息、使用信息

  • 目录结构

    • 单级目录结构

    • 两级目录结构:MFD主文件目录、用户文件目录UFD

    • 多级目录结构(树形目录结构):

      • 不同目录下的文件可以重名,可以对文件进行分关不方便文件共享
      • 系统根据“文件路径"找到目标文件
      • 从根目录出发的路径是“绝对路径(“照片/201508/自拍jpg”)
      • 从当前目录出发的路径是相对路径(照片12015-08/自拍jpg"
        • 相对路径减少磁盘IO:是因为内存中存储了当前目录表,因此当用户想访问当前目录的某个文件的时候,就可以直接从内存中直接通过相对路径来找,自然搜索效率更高些

      树形目录结构可以方便的对文件进行分类,层次结构清晰;但是不便于实现文件的共享==>无环图目录结构,在树形目录的基础上,增加指向同一节点的有向边,使得整个目录成了有向无环图

    • 无环图目录结构——方便文件共享

  • 索引结点(对文件控制块的优化)

    • 将FCB中除了文件名以外的信息放在索引节点上,而取而代之的将其内容换成2B的索引节点地址,从而大大减小了FCB大小,从而相同的记录项能够使用更少的磁盘块,从而加快了磁盘搜索的速度

目录文件中的一条记录就是一个FCB,FCB的有序集合称为“文件目录”,一个FCB就是一个文件目录项。

文件物理结构——管理非空闲磁盘块

文件数据怎样存放在外存中?

  • 类似于内存分页,磁盘中的存储单元是“块or磁盘块or物理块”,内存与磁盘之间数据交互是以块为单位的。
  • 文件的逻辑地址空间也被分成了一个个文件“块”==> 文件的逻辑地址形式:(逻辑块号, 块内地址)
  • 用户通过逻辑地址来操作自己的文件,操作系统负责从逻辑地址到物理地址的映射
  • 连续分配

    • 连续分配方式要求每个文件在磁盘上占有一组连续的块。
    • 优点:支持顺序访问和直接访问(即随机访问);连续分配的文件在顺序访问时速度最快
    • 缺点:不方便文件拓展;存储空间利用率低,会产生磁盘碎片
  • 链接分配

    • 隐式链接(题目默认指的是隐式链接)
      • 隐式链接——除文件的最后一个盘块之外,每个盘块中都存有指向下一个盘块的指针。文件目录包括文件第一块的指针和最后一块的指针。
      • 优点:很方便文件拓展,不会有碎片问题,外存利用率高。
      • 缺点:只支持顺序访问,不支持随机访问,查找效率低,指向下一个盘块的指针也需要耗费少量的存储空间。
    • 显式链接
      • 显式链接——把用于链接文件各物理块的指针显式地存放在一张表中,即文件分配表(FAT,File Allocation Table)。一个磁盘只会建立一张文件分配表。开机时文件分配表放入内存,并常驻内存
      • 优点:很方便文件拓展,不会有碎片问题,外存利用率高,并且支持随机访问。相比于隐式链接来说,地址转换时不需要访问磁盘,因此文件的访问效率更高。
      • 缺点:文件分配表的需要占用一定的存储空间。
  • 索引分配

    • 索引分配允许文件离散地分配在各个磁盘块中,系统会为每个文件建立一张索引表,索引表中文
      件的各个逻辑块对应的物理块(索引表的功能类似于内存管理中的页表一一建立逻辑页面到物理页之间
      的映射关系)。索引表存放的磁盘块称为索引块。文件数据存放的磁盘块称为数据块
    • 可见,索引分配方式可以支持随机访问文件拓展也很容易实现(只需要给文件分配个空闲块,并增加一个索引表项即可)但是索引表需要占用一定的存储空间
    • Q:这种存储方式会带来一个问题,由于一个索引项占4B,一个磁盘块大小为1KB,那么最多存储256(1024/4)个索引项,也就是说存储文件最大为256*1KB=256KB。但是如果一个文件大小超过了256块,一个磁盘块装不下所有的索引表该怎么办呢?
      • 链接方案: 索引块的最后一个索引项存储下一个索引块的地址。
        • 需要顺序读取每个索引块,无法根据逻辑块号随机访问,磁盘IO次数多
      • 多层索引:建立多层索引(类似多级页表)。使第一层索引表指向第二层索引表,还可以根据文件大小建立第三层、第四层
        • 若采用多层索引,则各层的索引表大小不能超过一个磁盘块;
        • 二层索引,文件最大大小:256*256*1KB=64MB
        • 可根据逻辑块号算出应该查找索引表中的哪个表项。如:要访问1026号逻辑块,则1026/256=4,1026%256=2
        • 采用K层索引结构,且顶级索引表未调入内存,则访问一个数据块只需要K+1次读磁盘操作
      • 混合索引:多种索引分配方式的结合。例如,一个文件的顶级索引表中,既包含直接地址索引(直接指向数据块),又包含一级间接索引(指向单层索引表)、还包含两级间接索引(指向两层索引表)。
        • 题型:根据顶级索引表的结构,计算能够存储文件的最大长度
        • 对于小文件,只需较少的读磁盘次数就可以访问目标数据块。(一般计算机中小文件更多)

    超级超级超级重要考点:①要会根据多层索引、混合索引的结构计算出文件的最大长度(Key:各级索引表最大不能超过一个块);②要能自己分析访问某个数据块所需要的读磁盘次数(Key:FCB中会存有指向顶级索引块的指针,因此可以根据FCB读入顶级索引块。每次读入下一级的索引块都需要一次读磁盘操作。另外,要注意题目条件一一顶级索引块是否已调入内存)

存储空间管理——管理空闲磁盘块

划分与初始化

  • 将物理磁盘分成一个个文件卷(逻辑卷、逻辑盘)
  • 初始化:将各个文件卷划分为目录区(文件目录信息FCB、磁盘储存空间管理的信息)、文件区(存放文件数据)
  • 一个物理磁盘可以划分成多个逻辑磁盘;也可以将多个物理磁盘合并成一个逻辑磁盘

管理方法

  • 空闲表法: 适用于连续分配方式

    • 第一个空闲盘块号 空闲磁盘数
    • 与内存管理中的动态分区分配很类似,当回收某个存储区时需要有四种情况一一

      1. 回收区的前后都没有相邻空闲区;
      2. 回收区的前后都是空闲区;
      3. 回收区前面是空闲区;
      4. 回收区后面是空闲区。

    总之,回收时需要注意表项的合并问题。

  • 空闲链表法:

    • 空闲盘块链:以盘块为单位组成一条空闲链
      • 适用于离散分配的物理结构。为文件分配多个盘块时可能要重复多次操作
      • 分配:如果申请K个盘块,则从链头开始依次摘下K个盘块进行分配,并修改空闲链的链头指针
      • 回收:将回收的盘块依次挂到链尾,并修改空闲链的链尾指针
    • 空闲盘区链:以盘区为单位组成一条空闲链
      • 操作系统保存着链头、链尾指针。
      • 如何分配:若某文件申请K个盘块,则可以采用首次适应、最佳适应等算法,从链头开始检索,按照算法规则找到一个大小符合要求的空闲盘区分配给文件。若没有合适的连续空闲块,也可以将不同盘区的盘块同时分配给一个文件,注意分配后可能要修改相应的链指针、盘区大小等数据。
      • 如何回收:若回收区和某个空闲盘区相邻,则需要将回收区合并到空闲盘区中。若回收区没有和任何空闲区相邻,将回收区作为单独的一个空闲盘区挂到链尾。
  • 位示图法:

    • 每个二进制位对应一个盘块。在本例中,“0”代表盘块空闲,“1”代表盘块已分配。位示图一般用连续的“字”来表示,如本例中个字的字长是16位,字中的每一位对应一个盘块。因此可以用**(字号,位号)对应一个盘块号。当然有的题目中也描述为(行号,列号)**

    • 重要重要重要:要能自己推出盘块号与(字号位号)相互转换的公式注意题目条件:盘块号、字号、位号到底是从0开始还是从1开始

      如本例中盘块号、字号、位号从0开始,若n表示字长,则(字号,位号)=(i,j)的二进制位对应的盘块号b=n*i+j, b号盘块对应的字号i=b/n取整数部分,位号j=b%n

    • 如何分配:若文件需要κ个块,①顺序扫描位示图,找到K个相邻或不相邻的“0”;②根据字号、位号算出对应的盘块号,将相应盘块分配给文件;
      ③将相应位设置为“1

    • 如何回收:①根据回收的盘块号计算出对应的字号、位号;②将相应二进制位设为“0

  • 成组链接法:

    前两者不适用于大型文件系统,因为空闲表或者空闲链表可能会太大。Unix中采用了成组链接法对磁盘空闲块进行管理

    文件卷的目录区中专门用一个磁盘块作为“超级块”,当系统启动时需要将超级块读入內存。并且要保证内存外存中的“超级块”数据一致

    成组链接法-超级块

    • 一个分组中的块号不需要连续
    • 当前组的空闲盘块数有上限大小
    • 超级块记录着当前组空闲块的信息: 空闲盘块数、空闲块号(地址)

    分配过程:

    • Eg:需要1个空闲块
      ①检查第一个分组的块数是否足够。1<10,因此是足够的。
    • Eg:需要100个空闲块
      ①检查第一个分组的块数是否足够。100=100,是足够的。
      ②分配第一个分组中的100个空闲块。但是由于300号块内存放了再下一组的信息,因此300号块的数据需要复制到超级块(超级块相当于是个链头)中。

    回收过程:

    • Eg:假设每个分组最多为100个空闲块,此时第一个分组已有99个块,还要再回收一块
    • Eg:假设每个分组最多为100个空闲块,此时第一个分组已有100个块,还要再回收一块。需要将超级块中的数据复制到新回收的块中,并修改超级块的内容,让新回收的块成为第个分组

文件操作

创建文件

参数:

  • 文件大小
  • 存放路径
  • 文件名

操作系统的过程

在外存中找到文件所需的空间–>根据文件存放信息找到该目录对应的目录信息(在目录中创建该文件对应的目录项)

删除文件

参数:

  • 文件存放路径
  • 文件名

根据文件存放路径找到相应的目录文件,从目录中找到文件名对应的目录项–>根据目录项记录的外存位置、文件大小等信息,回收文件占用的磁盘块–>从目录表中删除文件对应的目录项

打开文件

参数:

  • 文件存放路径
  • 文件名
  • 对文件的操作类型

操作系统:

根据文件存放路径找到相应的目录文件,从目录中找到文件名对应的的目录项,并检查该用户是否有指定的操作权限----->将目录项复制到内存中的“打开文件表”中。并将对应表目的编号返回给用户。之后用户使用打开文表的编号来指明要操作的文件。

  • 系统的“打开文件表”
    • 编号(索引号也叫文件描述符)、文件名、外存地址、打开计数器
  • 用户进程A的“打开文件表”
    • 编号, 文件名, 读写指针, 访问权限, 系统表索引号

关闭文件

进程使用完文件后,要“关闭文件”操作系统在处理Cose系统调用时,主要做了几件事:

  1. 进程的打开文件表相应表项删除
  2. 回收分配给该文件的内存空间等资源
  3. 系统打开文件表的打开计数器 count减1,若 count=0,则删除对应表项

文件共享

多个用户共享同一个文件,意味着系统中**只有“一份”**文件数据。并且只要某个用户修改了该文件的数据,其他用户也可以看到文件数据的变化。

与“复制”区分:如果是多个用户都“复制”了同一个文件,那么系统中会有“好几份文件数据。其中一个用户修改了自己的那份文件数据,对其他用户的文件数据并没有影响。

  • 基于索引结点的共享方式(硬链接)
    • 索引节点记录cnt:用于表示链接到本索引结点上的用户目录项数
    • 不同用户对于该共享文件的命名可以是不同的
    • 索引节点指向的是真实地文件
  • 基于符号链的共享方式(软链接)
    • 索引节点指向地是Link类型地文件,它记录了真实文件的存放路径(相当于windows的快捷方式)——比硬链接经历的磁盘IO更多
    • 即使软链接指向的共享文件已被删除,Link型文件依然存在,只是通过Link型文件中的路径去查找共享文件会失败(找不到对应目录项)

文件保护

  • 口令保护
    • 优点:保存口令的空间开销不多,验证口令的时间开销也很小。
      缺点:正确的“口令”存放在系统内部,不够安全。
  • 加密保护
    • 优点:保密性强,不需要在系统中存储“密码”
      缺点:编码/译码,或者说加密/解密要花费一定时间。
  • 访问控制:ACL访问控制列表
    • 读、写、执行、添加、删除、列表文件夹内容
    • 精简的访问列表——组:完全控制:执行、修改、读、写(2^4=0-7)

磁盘

结构

  • 磁盘:磁盘的表面由一些磁性物质组成,可以用这些磁性物质来记录二进制数据
  • 磁道:磁盘的盘面被划分成一个个磁道这样的一个“圈”就是一个磁道
  • 扇区:一个磁道又被划分成一个个扇区,每个扇区就是一个“磁盘块”。各个扇区存放的数据量相同(如1KB)
    • 最内侧的扇区面积最小,因此数据密度最大
  • 盘面:一个盘片会有多个盘面
  • 柱面:所有盘面中相对位置相同的磁道组成柱面

磁盘的物理地址:可用(柱面号,盘面号,扇区号)来定位任意一个“磁盘块”。在“文件的物理结构”小节中,我们经常提到文件数据存放在外存中的几号块,这个块号就可以转换成**(柱面号,盘面号,扇区号)**的地址形式。

如何读取数据:磁盘转起来,让磁头从目标扇区上划过,才能完成对扇区的读写操作:

  • 可根据该地址读取一个“块”
    ①根据“柱面号”移动磁臂,让磁头指向指定柱面;
    ②激活指定盘面对应的磁头;
    ③磁盘旋转的过程中,指定的扇区会从磁头下面划过,这样就完成了对指定扇区的读/写。

分类:

  • 固定头磁盘(每个磁道都有一个固定的磁头)
  • 移动头磁盘(一个盘面就只有一个可移动的磁头)
  • 固定盘磁盘
  • 可换盘磁盘

磁盘调度

一次磁盘读/写操作需要的时间

  • 寻找(磁道)时间TsT_s:在读/写数据前,将磁头移动到指定磁道所花的时间:Ts=启动磁头臂s+n条磁道*跨越每个磁道耗时m
  • 延迟时间TRT_R:磁盘旋转,等磁头转到目标扇区所需要的时间。平均所需延迟时间TR=121r=12rT_R=\frac{1}{2}*\frac{1}{r}=\frac{1}{2r},r为转速(r/s,r/min),1/r是转一圈所需要的时间,1/2是找到目标扇区平均需要转半圈。
  • 传输时间TtT_t:从磁盘读出或向磁盘写入数据所经历的时间,假设磁盘转速为r,此次读/写的字节数为b,每个磁道上的字节数为N,b个字节需要b/N个磁道储存则:传输时间Tt=1rbN=brNT_t=\frac{1}{r}*\frac{b}{N}=\frac{b}{rN}

总的平均存取时间Ta=Ts+TR+TtT_a=T_s+T_R+T_t

注:延迟时间和传输时间都与磁盘转速相关,且为线性相关。而转速是硬件的固有属性,因此操作系统也无法优化延迟时间和传输时间。而可以控制的时间为寻道时间Ts,这个与磁盘调度算法直接相关

算法

  • 先来先服务(FCFS)

    • 优点:公平;如果请求访问的磁道比较集中的话,算法性能还算过的去
    • 缺点:如果有大量进程竞争使用磁盘,请求访问的磁道很分散,则FCFS在性能上很差,寻道时间长。
  • 最短寻找时间优先(SSTF)

    • 优点:性能较好,平均寻道时间短

    • 缺点:可能产生“饥饿”现象

      Eg:本例中,如果在处理18号磁道的访问请求时又来了一个38号磁道的访问请求,处理38号磁道的访问请求时又来了一个18号磁道的访问请求。如果有源源不断的18号、38号磁道的访问请求到来的话,150、160、184号磁道的访问请求就永远得不到满足,从而产生“饥饿”现象。

  • 扫描算法(SCAN)

    • SSTF算法会产生饥饿的原因在于:磁头有可能在一个小区域内来回来去地移动。为了防止这个问题,可以规定,只有磁头移动到最外侧磁道的时候才能往内移动,移动到最内侧磁道的时候才能往外移动。这就是扫描算法(SCAN)的思想。由于磁头移动的方式很像电梯,因此也叫电梯算法
    • 优点:性能较好,平均寻道时间较短,不会产生饥饿现象
    • 缺点:①只有到达最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要再往右移动磁头了。②SCAN算法对于各个位置磁道的响应频率不平均(如:假设此时磁头正在往右移动,且刚处理过90号磁道,那么下次处理90号磁道的请求就需要等磁头移动很长一段距离;而响应了184号磁道的请求之后,很快又可以再次响应184号磁道的请求了)
  • 循环扫描算法(C-SCAN)

    • 扫描算法(SCAN)中,只有到达最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要再往右移动磁头了。LoOK调度算法就是为了解决这个问题,如果在磁头移动方向上已经没有别的请求,就可以立即改变磁头移动方向。(边移动边观察,因此叫LOOK)
      • 优点:比起SCAN算法来,不需要每次都移动到最外侧或最内侧才改变磁头方向,使寻道时间进步缩短
    • SCAN算法对于各个位置磁道的响应频率不平均,而 C-SCAN算法就是为了解决这个问题。规定只有磁头朝某个特定方向移动时才处理磁道访问请求,而返回时直接快速移动至起始端而不处理任何请求
      • 优点:比起SCAN来,对于各个位置磁道的响应频率很平均
      • 缺点:只有到达最边上的磁道时才能改变磁头移动方向,事实上,处理了184号磁道的访问请求之后就不需要再往右移动磁头了;并且,磁头返回时其实只需要返回到18号磁道即可,不需要返回到最边缘的磁道。另外,比起SCAN算法来,平均寻道时间更长。
    • CLOOK算法:结合LOOK和C-SCAN

若题目中无特别说明,则sCAN就是LoOK, C-SCAN就是 C-LOOK

磁盘管理

磁盘初始化:

step1:进行低级格式化(物理格式化),将磁盘的各个磁道划分为扇区。一个扇区通常可分为头、数据区域(如512B大小)、尾三个部分组成。管理扇区所需要的各种数据结构一般存放在头、尾两个部分,包括扇区校验码(如奇偶校验、CRC循环冗余校验码等,校验码用于校验扇区中的数据是否发生错误)
Step2:将磁盘分区,每个分区由若干柱面组成(即分为我们熟悉的C盘、D盘、E盘)
Step3:进行逻辑格式化,创建文件系统。包括创建文件系统的根目录、初始化存储空间管理所用的数据结构(如位示图、空闲分区表)

引导块:

计算机开机时需要进行一系列初始化的工作,这些初始化工作是通过执行初始化程序(自举程序)完成的

初始化程序可以放在ROM(只读存储器)中。ROM中的数据在出厂时就写入了,并且以后不能再修改注:ROM一般是出厂时就集成在主板上的===> 现在的做法是:ROM只存放很小的“自举装入程序”,完整的自举程序放在磁盘的启动块(即引导块/启动分区上),启动块位于磁盘的固定位置。拥有启动分区的磁盘成为启动磁盘或系统磁盘

IO设备

使用特性进行分类

  • 人机交互类外部设备
  • 存储设备
  • 网络通信设备

按信息交换的单位分类

  • 块设备:传输速率较高,可寻址,即对它可随机地读/写任一块,如磁盘
  • 字符设备:传输速率较慢,不可寻址,在输入/输出时常采用中断驱动方式,如键盘和鼠标、串口

IO控制器

功能

  • 接受和识别CPU发出的命令
  • 向CPU报告设备的状态
  • 数据交换
  • 地址识别

寄存器的地址

  • 内存映像I/O:控制器中的寄存器与内存地址统编址
  • 寄存器独立编址:控制器中的寄存器使用单独的地址

IO控制方式:

  • 程序直接控制方式:

    1. 完成一次读/写操作的流程(见右图, Key word:轮询)
    2. CPU干预的频率:很频繁,O操作开始之前、完成之后需要CPU介入,并且在等待/O完成的过程中CpU需要不断地轮询检查。
    3. 数据传送的单位:每次读/写一个
    4. 数据的流向
      读操作(数据输入):I/O设备→CPU→内存
      写操作(数据输出):内存→CPU→I/O设备
      每个字的读/写都需要CPU的帮助读入下个字
    5. 主要缺点和主要优点
      优点:实现简单。在读/写指令之后,加上实现循环检查的
      系列指令即可(因此才称为“程序直接控制方式”)
      缺点:CPU和i/o设备只能串行工作,CPU需要一直轮询检查,
      长期处于“忙等”状态,CPU利用率低。
  • 中断驱动方式

    • ①CPU会在每个指令周期的末尾检查中断;
      ②中断处理过程中需要保存、恢复逑程的运行环境,这个过程是需要一定时间开销的。可见,如果中断发的频率太高,也会降低系统性能。
    1. 完成一次读/写操作的流程(见右图, Key word:中断)
    2. CPU干预的频率
      每次o操作开始之前、完成之后需要CPU介入
      等待0完成的过程中CPU可以切换到别的进程执行。
    3. 数据传送的单位
      每次读/写一个字
    4. 数据的流向
      读操作(数据输入):V/O设备→CPU→内存
      写操作(数据输出):内存→CPU→1/O设备
    5. 主要缺点和主要优点
      优点:与“程序直接控制方式”相比,在“中断驱动方式”中,Ⅵo控制器会通过中断信号主动报告O已完成,CPU不再需要不停地轮询CPU和i/o设备可并行工作,CPU利用率得到明显提升。
      缺点:每个字在O设备与内存之间的传输,都需要经过cPU。而频繁的中断处理会消耗较多的CPU时间
  • DMA方式:直接存储器存取

    • ①数据的传送单位是“块”,不再是一个字、一个字的传送(写入内存时是一块写入的,但从设备到DMA控制器读取数据时仍然是一个字一个字读取or写入的);每次读写
      ②数据的流向是从设备直接放入内存,或者从内存直接到设备。不再需要CPU作为“快递小哥”
      ③仅在传送一个或多个数据块的开始和结束时,才需要CPU干预。

    • DMA

    • DR( Data Register,数据寄存器):暂存从设备到内存,或从内存到设备的数据。

    • MAR( Memory Address Register,内存地址寄存器):在输入时,MAR表示数据应放到内存中的什么位置;输出时MAR表示要输出的数据放在内存中的什么位置。

    • DC( Data Counter,数据计数器):表示剩余要读/写的字节数。

    • CR( Command Register,命令/态寄存器):用于存放CPU发来的/O命令,或设备的状态信息。

    1. CPU干预的频率:仅在传送一个或多个数据块的开始和结束时,才需要CPU干预。

    2. 数据传送的单位:每次读/写一个或多个块(注意:每次读写的只能是连续的多个块,且这些块读入内存后在内存中也必须是连续的)

    3. 数据的流向(不再需要经过cPU)
      读操作(数据输入):U/O设备→内存
      写操作(数据输出):内存→/O设备

    4. 主要缺点和主要优点优点:数据传输以“块”为单位,CPU介入频率进一步降低。数据的传输不再需要先经过Cpu再写入内存,数据传输效率进一步增加。CPU和/O设备的并行性得到提升。

      缺点:cPU每发出一条IO指令,只能读/写一个或多个连续的数据块如果要读/写多个离散存储的数据块,或者要将数据分别写到不同的内存区域时,CPU要分别发出多条IO指令,进行多次中断处理才能完成。

  • 通道控制方式

    • 通道:一种硬件,可以理解为是“弱鸡版的CpU”。通道可以识别并执行一系列通道指令
    • 相比DMA,通道可以识别指令
    1. CPU干预的频极低,通道会根据CPU的指示执行相应的通道程序,只有完成一组数据块的读/写后才需要发出中断信号,请求CPU干预。
    2. 数据传送的单位每次读/写一组数据块
    3. 数据的流向(在通道的控制下进行)读操作(数据输入):1/O设备→内存写操作(数据输出):内存IO设备
    4. 主要缺点和主要优点缺点:实现复杂,需要专门的通道硬件支持
    5. 优点:CPU、通道、1/O设备可并行工作,资源利用率很高。

缓冲区

  • 缓和CPU与IO设备之间速度不匹配的矛盾
  • 减少对CPU的中断频率,放宽对CPU中断相应时间的限制
  • 解决数据粒度不匹配的问题
  • 提高CPU与IO设备之间的并行性

缓冲策略

  • 单缓冲:假设某用户进程请求某种块设备读入若干块的数据。若采用单缓冲的策略,操作系统会在主存中为其分配一个缓冲区(若题目中没有特别说明,一个缓冲区的大小就是一个块)
  • 双缓冲:
  • 循环缓冲
  • 缓冲池

附录

Q: 显示器和键盘是终端TTY设备

Q:解决临界区问题要满足三个条件:互斥(Mutual Exclusion)空闲让进/前进(Progress)有限等待(Bounded Waiting)

最短任务优先(SJF)调度策略平均周转时间最优性

Author: Mrli

Link: https://nymrli.top/2021/09/09/ZJU开学摸底考试——操作系统复习/

Copyright: All articles in this blog are licensed under CC BY-NC-SA 3.0 unless stating additionally.

< PreviousPost
学点Kotlin
NextPost >
学习画好架构图
CATALOG
  1. 1. 操作系统
    1. 1.1. 特性:
    2. 1.2. 操作系统发展
    3. 1.3. OS的运行机制和体系结构
    4. 1.4. 中断:
    5. 1.5. 系统调用
    6. 1.6. 进程
    7. 1.7. 信号量
      1. 1.7.1. 生产消费者问题
      2. 1.7.2. 读者和写者问题
    8. 1.8. 死锁
    9. 1.9. 线程
    10. 1.10. 内存管理
      1. 1.10.1. 操作系统需要做的事?
      2. 1.10.2. 内存空间的分配与回收:
    11. 1.11. 文件系统
      1. 1.11.1. 文件目录
      2. 1.11.2. 文件物理结构——管理非空闲磁盘块
      3. 1.11.3. 存储空间管理——管理空闲磁盘块
      4. 1.11.4. 文件操作
      5. 1.11.5. 文件共享
    12. 1.12. 磁盘
      1. 1.12.1. 结构
      2. 1.12.2. 磁盘调度
      3. 1.12.3. 磁盘管理
    13. 1.13. IO控制器
    14. 1.14. 缓冲区
  2. 2. 附录