购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

2.1 考点精讲

2.1.1 考纲要求

计算机硬件基础主要是考试中所涉及的计算机硬件知识。本章在考纲中主要有以下内容:

● 计算机系统体系结构(计算机体系结构概述、指令系统、CPU结构、流水线)。

● 存储系统(存储系统、多级存储、RAID、硬盘存储器)。

● 可靠性与系统性能评测。

● I/O技术(程序控制方式、中断方式、DMA方式)。

● 总线结构。

计算机硬件基础考点如图2-1所示,用星级★标示知识点的重要程度。

图2-1 计算机硬件基础考点

2.1.2 考点分布

统计2010年至2020年试题真题,本章主要考点分值为4~6分。历年真题统计如表2-1所示。

表2-1 历年真题统计

2.1.3 知识点精讲

2.1.3.1 计算机体系结构概述

计算机体系结构指软、硬件的系统结构,计算机体系结构分类如下。

1.宏观上按处理机的数量进行分类

● 单处理系统,利用一个处理单元与其他外部设备结合起来,实现存储、计算、通信、输入与输出等功能的系统。

● 并行处理与多处理系统,将两个以上的处理机互联起来,彼此进行通信协调,以便共同求解一个大问题的计算机系统。

● 分布式处理系统,远距离而松耦合的多计算机系统。

2.微观上按并行程度分类

● Flynn分类法,按指令流和数据流的多少进行分类(指令流为机器执行的指令序列,数据流是由指令调用的数据序列),分为单指令流单数据流(SISD)、单指令流多数据流(SIMD)、多指令流单数据流(MISD)、多指令流多数据流(MIMD),如表2-2所示。

表2-2 Flynn分类法

● 冯泽云分类法,按并行度对各种计算机系统进行结构分类(最大并行度是指计算机系统在单位时间内能够处理的最大二进制位数),分为字串行位串行(WSBS)计算机、字并行位串行(WPBS)计算机、字串行位并行(WSBP)计算机、字并行位并行(WPBP)计算机。

● Handler分类法,基于硬件并行程度计算并行度的方法,把计算机的硬件结构分为3个层次:处理机级、每个处理机中的算术逻辑单元级、每个算术逻辑单元中的逻辑门电路级。分别计算这三级中可以并行或流水处理的程序,即可计算出某系统的并行度。

● Kuck分类法,用指令流和执行流及其多重性来描述计算机系统控制结构的特征,分为单指令流单执行流(SISE)、单指令流多执行流(SIME)、多指令流单执行流(MISE)、多指令流多执行流(MIME)。

2.1.3.2 指令系统

一个处理器支持的指令和指令的字节级编码称为其指令集体系结构,不同的处理器族支持不同的指令集体系结构,因此,一个程序被编译在一种机器上运行,往往不能再在另一种机器上运行。

对指令集的分类有两种,一种是从体系结构上分类,另一种是按暂存机制分类。

(1)按指令集体系结构分类

● 操作数在CPU中的存储方式,即操作数从主存中取出后保存在什么地方。

● 显式操作数的数量,即在典型的指令中有多少个显式命名的操作数。

● 操作数的位置,即任一ALU指令的操作数能否放在主存中,如何定位。

● 指令的操作,即在指令集中提供哪些操作。

● 操作数的类型与大小。

(2)CISC和RISC

CISC(复杂指令集计算机)和RISC(精简指令集计算机)是指令集发展的两种途径。CISC的基本思想是进一步增强原有指令的功能,用更为复杂的新指令取代原先由软件子程序完成的功能,实现软件功能的硬化,导致机器的指令系统越来越庞大复杂。目前使用的大多数计算机都属于此类型。

● CISC:数量多,使用频率差别大,可变长格式。支持多种寻址方式,研制周期长。指令集过分庞杂。每条复杂指令都要通过执行一段解释性程序才能完成,这就需要多个CPU周期,从而降低了机器的处理速度。由于指令系统过分庞大,高级程序语言选择目标指令的范围很大,使得编译程序冗长、复杂。强调完善的中断控制,导致动作繁多、设计复杂、研制周期长,给芯片设计带来困难,使得芯片种类增多,出错概率增大。

● RISC:数量少,使用频率接近,定长格式。支持少数几种寻址方式,优化编译,有效支持高级语言,超流水及超标量技术,硬布线逻辑与微程序在微程序技术中相结合。基本思想是通过减少指令总数和简化指令功能降低硬件设计的复杂度,使指令能单周期执行,并通过优化编译提高指令的执行速度,采用硬布线控制逻辑优化编译程序。

2.1.3.3 CPU结构

计算机系统是由硬件和软件组成的,它们协同工作来运行程序。计算机基本硬件系统包括运算器、控制器、存储器、输入设备、输出设备。CPU由运算器、控制器、寄存器组和内部总线等部件集成,是硬件系统的核心。

CPU是计算机系统的核心部件,它负责获取程序指令、对指令进行译码并加以执行。CPU的功能有程序控制、操作控制、时间控制、数据处理(还可以对系统内部和外部的中断异常做出响应,进行响应处理)。

(1)运算器

它是数据加工处理部件,用于完成各种算术和逻辑运算,运算器所进行的全部操作都是由控制器发出的控制信号指挥的。

功能:执行所有算术运算、逻辑运算并进行逻辑检测。

组成:

● 算术逻辑单元(ALU):负责处理数据,实现对数据的算术运算和逻辑运算。

● 累加寄存器(AC):它是一个通用寄存器,其功能是当运算器的算术逻辑单元执行算术或逻辑运算时,为ALU提供一个工作区。

● 数据缓冲寄存器(DR):作为CPU与内存、外部设备之间数据传送的中转站,用于CPU和内存、外围设备之间在操作速度上的缓冲。

● 状态条件寄存器(PSW):保存由算术指令和逻辑指令运行或测试的结果建立的各种条件码的内容,主要分为状态标志和控制标志,例如运算结果进位标志(C)、运算结果溢出标志(V)、运算结果为0标志(Z)、运算结果为负标志(N)、中断标志(I)、方向标志(D)和单步标志(T)等。

(2)控制器

功能:运算器只能完成运算,而控制器用于控制整个CPU的工作,它决定了计算机运行过程的自动化。它不仅要保证程序的正确执行,而且要能够处理异常事件。控制器一般包括指令控制逻辑、时序控制逻辑、总线控制逻辑和中断控制逻辑等部分。

指令控制逻辑要完成取指令、分析指令、执行指令的操作,其过程分为取指令、指令译码、按指令操作码执行、形成下一条指令地址等步骤。

时序控制逻辑要为每条指令按时间顺序提供应有的控制信号。

总线控制逻辑是为多个功能部件服务的信息通路的控制电路。

中断控制逻辑用于控制各种中断请求,并根据优先级的高低对中断请求进行排队,逐个交给CPU处理。

组成:

● 指令寄存器(IR):是临时存放从内存中取得的程序指令的寄存器,用于存放当前从主存储器读出的正在执行的一条指令。

● 程序计数器(PC):用于存放下一条指令所在单元的地址,当执行一条指令时,处理器首先要从计算机中取出指令在内存中的地址,通过地址总线寻址获取。

● 地址寄存器(AR):用于保存当前CPU所访问的内存单元的地址。

● 指令译码器(ID):对指令中的操作码字段进行分析解释,识别该指令规定的操作,向控制器发出具体的控制信号,控制各部件的工作,完成所需的功能。

(3)寄存器组

寄存器组可分为专用寄存器、通用寄存器。

2.1.3.4 流水线

流水线是指在程序执行时多条指令重叠进行操作的一种准并行处理实现技术。各种部件同时处理是针对不同指令而言的,它们可同时为多条指令的不同部分进行工作,以提高各部件的利用率和指令的平均执行速度。

每条指令需要三步来执行:取指→分析→执行。

指令流水线是将指令执行分成几个子过程,每一个子过程对应一个工位,我们称之为流水级或流水节拍,这个工位在计算机中就是可以重叠工作的功能部件,称为流水部件。

如图2-2所示,IF、ID、EX、WB分别是流水线的流水部件。

图2-2 几个部件组成的流水线

流水线要求所有的流水级部件必须在相同的时间内完成各自的子过程。在流水线中,指令流动一步便是一个机器周期,机器周期的长度必须由最慢的流水级部件处理子过程所需的时间来决定。图2-3是一个非流水线结构系统执行指令时空图。

图2-3 非流水线结构系统执行指令时空图

我们从图2-3中可以看到,任意一个系统时间都有大量的设备处于空闲状态,如第一个时间段有 ID、EX、WB空闲,第二个时间段有 IF、EX、WB空闲。我们再来看采用了流水线结构的指令时空图,如图2-4所示。

图2-4 采用了流水线结构的指令时空图

显然,采用流水线可以大大提升系统资源的利用率以及整个系统的吞吐量。

(1)流水线的操作周期

流水线的执行时间公式为:

第1条指令的执行时间+(指令条数-1)×流水线操作周期

流水线的操作周期为执行时间最长的一段。流水线的操作周期取决于基本操作中最慢的那个。例如,一个3段流水线,各段的执行时间分别为 t 、2 t t ,则最慢的一段执行时间为2 t ,所以流水线操作周期为2 t

(2)流水线的吞吐率

流水线的吞吐率(TP)是指在单位时间内流水线所完成的任务数量或输出的结果数量。公式如下:

TP=指令条数/流水线执行时间

流水线的最大吞吐率为:

TP max =1/流水线周期

(3)流水线的加速比

完成同样的一批任务,不使用流水线所用的时间与使用流水线所用的时间之比称为流水线的加速比。公式如下:

S =不使用流水线的执行时间/使用流水线的执行时间

(4)流水线的效率

流水线的效率是指流水线的设备利用率。在时空图上,流水线的效率定义为 n 个任务占用的时空区与 k 个流水线总的时空区之比。公式如下:

E = n 个任务占用的时空区/ k 个流水段总的时空区

2.1.3.5 存储系统

1.存储器的层次结构

对于通用计算机而言,存储层次依次为寄存器、Cache(高速缓冲存储器)、主存储器、磁盘、可移动存储器5层,如图2-5所示。

图2-5 存储器的层次结构

2.存储器的分类

1)按存储器的位置分类:内存、外存。

2)按存储器的构成材料分类:磁存储器、半导体存储器、光存储器。

3)按存储器的工作方式分类:随机存储器(RAM)、只读存储器(ROM)。

只读存储器可细分为:固定存储器(NVM)、可编程只读存储器(PROM)、可擦可编程只读存储器(EPROM)、电擦除可编程只读存储器(EEPROM)、闪速存储器(Flash Memory)等类型。

4)按访问方式分类:按地址访问的存储器和按内容访问的存储器。

5)按寻址方式分类:随机存储器(RAM)、顺序存储器(SAM)、直接存储器(DAM)。

3.相联存储器

相联存储器是一种按内容访问的存储器。其工作原理是把数据或数据的某一部分作为关键字,按顺序写入信息,读出时并行地将该关键字与存储器中的每一单元进行比较,找出存储器中所有与关键字相同的数据字,特别适合信息的检索和更新。

相联存储器可用在高速缓冲存储器中,在虚拟存储器中用来作为段表、页表或快表存储器,用在数据库和知识库中。

4.Cache

Cache(高速缓冲存储器)用来存放当前最活跃的程序和数据,其特点是位于CPU与主存之间,容量一般在几千字节到几兆字节之间,速度一般比主存快5~10倍,由快速半导体存储器构成。

(1)Cache的作用

Cache、主存与CPU的关系如图2-6所示。

图2-6 Cache、主存与CPU的关系

Cache部分用来存放主存的部分拷贝(副本)信息。控制部分的功能是判断CPU要访问的信息是否在Cache中,若在即为命中。命中时,直接对Cache寻址;未命中时,要按照替换原则决定主存的一块信息放到Cache的哪一块中。

(2)Cache中的地址映射方法

①直接映射。

直接映射是指主存的块与Cache的对应关系是固定的,如图2-7所示。

图2-7 直接映射

优点:地址变换简单。

缺点:灵活性差。

②全相联映射。

这种映射方式允许主存的任何一个块调入 Cache(高速缓冲存储器)的任何一个块的空间中,如图2-8所示。

图2-8 全相联映射

优点:主存的块调入Cache的位置不受限制,十分灵活。

缺点:无法从主存块号中直接获得Cache的块号,变换比较复杂,速度较慢。

③组相联映射。

这种方式是前面两种方式的折中,就是规定组采用直接映射方式,而块采用全相联映射方式。

假定Cache有16块,再将每两块分为1组,则Cache就分为8组;内存同样分区,每区16块,再将每两块分为一组,则每区就分为8组。规定组采用直接映射方式,而块采用全相联映射方式,即内存任何区的0组只能存到Cache的0组中,1组只能存到Cache的1组中,以此类推。组内的块则采用全相联映射方式,即一组内的块可以任意存放。

5.替换算法

由于主存中的块比Cache中的块多,因此当要从主存中调一个块到Cache中时,会出现该块所映射到的一组(或一个)Cache块已全部被占用的情况。这时,需要被迫腾出其中的某一块,以接纳新调入的块。

替换算法的目标是使Cache获得尽可能高的命中率。

● 随机替换(RAND)算法:就是用硬件或软件随机产生一个要替换的块号,将该块替换出去。

● 先进先出(FIFO)算法:就是将最先进Cache的块替换出去,可能产生“抖动”。

● 近期最少使用(LRU)算法:就是将近期最少使用的Cache中的信息替换出去,不会产生“抖动”。

● 优化替换(OPT)算法:就是指定未来的近期不用或最久才用的Cache中的信息作为被替换页,替换出去。

6.Cache性能分析

Cache性能是计算机系统性能的重要方面。命中率是Cache的一个重要指标,但不是主要指标。

h 为Cache的命中率, t c 为Cache的存取时间, t m 为主存的访问时间,则Cache的等效加权平均访问时间 t a 为:

t a = h × t c +(1 -h t m = t c +(1 -h )×( t m -t c )

降低Cache失效率的主要方法有:选择恰当的块容量、提高Cache的容量、提高Cache的相联度等。

7.磁盘容量计算

1)存取时间=寻道时间+等待时间。寻道时间是指磁头移动到磁道所需的时间。等待时间为等待读写的扇区转到磁头下方所用的时间,有时还需要加上数据的传输时间。

2)在处理过程中,如果有关于缓冲区的使用,需要了解单缓冲区每次只能被一个进程使用,即向缓冲区传输数据的时候不能从缓冲区读取数据,反之亦然。

3)对磁盘存储进行优化,是因为磁头保持转动的状态,当读取数据传输或处理时,磁头会移动到超前的位置,需要继续旋转才能回到下一逻辑磁盘块。优化存储就是调整磁盘块的位置,让下一逻辑磁盘块放到磁头将要开始读取该逻辑块的位置。

4)在磁盘调度管理中,先进行移臂调度寻找磁道,再进行旋转调度寻找扇区。磁盘调度算法包括:先来先服务(FCFS,谁先申请先服务谁);最短寻道时间优先(SSTF,申请时判断与磁头当前位置的距离,谁短先服务谁);扫描算法(SCAN,电梯算法,双向扫描);循环扫描(CSCAN,单向扫描)。最短移臂调度算法,即优先响应距离较近磁道的申请。

磁盘容量有两种指标:一种是非格式化容量,它是指一个磁盘能存储的总位数;另一种是格式化容量,它是指各扇区中数据区容量的总和。计算公式如下:

非格式化容量=面数×(磁道数/面)×内圆周长×最大位密度

格式化容量=面数×(磁道数/面)×(扇区数/道)×(字节数/扇区)

8.磁盘阵列

磁盘阵列(RAID)是由多台磁盘存储器组成的一个快速、大容量、高可靠的外存子系统。

现在常见的磁盘阵列是廉价冗余磁盘阵列。不同级别的磁盘阵列具有不同的特点,具体说明如表2-3所示。

表2-3 磁盘阵列的级别说明表

2.1.3.6 可靠性评测

1.计算机可靠性概述

计算机系统的可靠性是指从它开始运行( t =0)到某时刻 t 这段时间内能正常运行的概率。所谓失效率,是指单位时间内失效的元件数与元件总数的比例,用 λ 表示。

两次故障之间系统能正常工作的时间平均值称为平均无故障时间(Mean Time Between Failure,MTBF),即

通常用平均修复时间(MTRF)来表示计算机的可维修性,即计算机的维修效率,指从故障发生到机器修复平均所需要的时间。

计算机的可用性是指计算机的使用效率,它以系统在执行任务的任意时刻能正常工作的概率 A 来表示,即

A =MTBF/(MTBF+MTRF)

计算机的RAS是指可靠性(Reliability)、可用性(Availability)、可维护性(Serviceability),用这三个指标衡量一个计算机系统的性能。

2.计算机可靠性模型

(1)串联系统

可靠性 R = R 1 × R 2 × R 3 ×…× R n

(2)并联系统

可靠性 R =1-(1 -R 1 )×(1 -R 2 )×(1 -R 3 )×…×(1 -R n

2.1.3.7 I/O技术

1.微型计算机中常用的内存与接口的编址方式

(1)内存与接口地址独立编址

优点:编程序或读程序时很容易使用和辨别。

缺点:用于接口的指令太少,功能太弱。

(2)内存与接口地址统一编址

优点:原则上用于内存的指令都可以用于接口,这就大大增强了对接口的操作功能,而且在指令上也不再区分内存或接口指令。

缺点:整个地址空间被分为两部分,其中一部分分配给接口使用,剩余的为内存所用,这经常会导致内存地址不连续。由于用于内存和用于接口的指令是完全一样的,维护程序时就需要根据参数定义表仔细加以辨认。

2.直接程序控制

直接程序控制是指外设数据的输入/输出过程是在CPU执行程序的控制下完成的。

(1)无条件传送

这种条件下外设总是准备好的,它可以无条件地随时接收CPU发来的输出数据,也可以无条件地随时向CPU提供需要输入的数据。

(2)程序查询方式

利用查询方式进行输入/输出,通过CPU执行程序来查询外设的状态,判断外设是否准备好接收数据或向CPU输入数据。根据这种状态,CPU有针对性地为外设的输入/输出服务。

缺点:降低了CPU的效率,对外部的突发事件无法做出实时响应。

3.中断方式

当采用程序查询方式控制I/O时,CPU需要定期地去查询I/O系统的状态,因此整个系统的性能严重下降。采用中断方式完成数据的输入/输出过程,使得CPU无须等待,因此提高了效率。

(1)中断方式的工作过程

1)当I/O系统与外设交换数据时,CPU无须等待,也不用去查询I/O的状态。

2)当I/O系统准备好后,则发出中断请求信号通知CPU。

3)CPU接收到中断信号后,保存正在执行程序的现场,转入 I/O中断服务程序的执行,完成与I/O系统的数据交换。

4)返回被打断的程序继续执行。

(2)利用中断方式完成数据的输入/输出过程

1)当I/O系统与外设交换数据时,CPU无须等待,也不必去查询I/O的状态。

2)当I/O系统准备好后,则发出中断请求信号通知CPU。

3)CPU接到请求后,保存正在执行程序的现场,转入 I/O中断服务程序的执行,完成 I/O系统的数据交换。

4)返回被打断的程序继续执行。

(3)中断处理方法

中断处理方法包括多中断信号法、中断软件查询法、菊花链法、总线仲裁法、中断向量表法。

4.直接存储器存取方式

在计算机与外设交换数据的过程中,无论是无条件传送、利用查询方式传送还是利用中断方式传送,都需要由CPU通过执行程序来实现,这就限制了数据的传送速度。

直接存储器存取(DMA,也称为直接内存存取)指数据在内存与 I/O设备之间直接成块传送,不需要CPU的任何干涉,只需要CPU在过程开始和结束时进行处理,实际操作由DMA硬件直接执行完成。在DMA传送数据时要占用系统总线,此时CPU不能使用总线。

5.输入/输出处理机(IOP)

DMA方式的出现减轻了CPU对 I/O操作的控制,使得CPU的效率显著提高。输入/输出处理机又称 I/O通道机,通道的出现进一步提高了CPU的效率。它分担了CPU的部分功能,可以实现对外围设备的统一管理,完成外围设备与主存之间的数据传输。

2.1.3.8 总线结构

1.总线分类

(1)数据总线

数据总线(Data Bus,DB)用来传送数据,是双向的。数据总线的宽度决定了CPU和计算机其他设备之间每次交换数据的位数。

(2)地址总线

地址总线(Address Bus,AB)用于传送CPU发出的地址信息,是单向的。地址总线的宽度决定了CPU的最大寻址能力。

(3)控制总线

控制总线(Control Bus,CB)用来传送控制信号、时序信号和状态信息等,是双向的。

2.常见的总线

● ISA总线:工业标准总线,支持16位I/O设备。

● EISA总线:是在ISA基础上发展起来的32位数据总线。

● PCI总线:目前微机上广泛采用的内总线,采用并行传输方式,支持32位和64位。

● PCI-E总线:采用点对点串行连接。

● 前端总线(FSB):是将CPU连接到北桥芯片的总线。

● RS-232C总线:串行外总线,传输线较少,最少只需三条线(发线、收线、地线)即可完成全双工通信。

● SCSI总线:并行外总线,广泛用于连接软硬磁盘、光盘、扫描仪等。

● SATA总线:串行ATA,主要用于主板和大量存储设备之间的数据传输。

● USB总线:通用串行总线,近几年应用十分广泛,支持外设热插拔。

● IEEE-1394总线:高速串行外总线,支持外设热插拔。

● IEEE-488总线:并行总线接口标准,用来连接系统,如微型计算机、数字电压表、数码显示器等设备。 NehN6aZY8a4bHs7sk1LbDzit00H0mmcz9H3OeqlVi9cwFnpG2tXTaAipyIGz8Gm9

点击中间区域
呼出菜单
上一章
目录
下一章
×

打开