购买
下载掌阅APP,畅读海量书库
立即打开
畅读海量书库
扫码下载掌阅APP

第1章

计算机组成与体系结构

根据考试大纲,本章内容要求考生掌握以下知识点:

● 各种计算机体系结构的特点与应用(SMP、MPP等)。

● 构成计算机的各类部件的功能及其相互关系。

试题1(2006年上半年试题14~15)

某计算机主存按字节编址,主存与高速缓存cache的地址变换采用组相联映像方式(即组内全相联,组间直接映像)。高速缓存分为2组,每组包含4块,块的大小为512B,主存容量为1MB。构成高速缓存的地址变换表相联存储器容量为 (14) 。每次参与比较的存储单元为 (15) 个。

(14)A.4×10bit

B.8×10bit

C.4×11bit

D.8×11bit

(15)A.1

B.2

C.4

D.8

试题1分析

已知主存容量为1MB,按字节编址,所以主存地址应为20位,主存可分为1MB/512B=2048块。在组相联映像方式中,主存与cache都分组,主存中一个组内的块数与cache的分组数相同。因为高速缓存分为2组,所以主存每组2块,主存可分为2048/2=1024=2 10 个组。因此需要10位组号。

因为高速缓存共有8块,因此,其地址变换表(块表)应包含8个存储单元,每个存储单元的长度为主存地址组号长度,即10位二进制数。

因为主存中的各块与cache的组号有固定的映像关系,但可自由映像到对应的cache组中的任一块,所以每次参与相联比较的是4个存储单元。

试题1答案

(14)B (15)C

试题2(2006年上半年试题16~17)

设指令由取指、分析、执行3个子部件完成,并且每个子部件的时间均为Δ t 。若采用常规标量单流水线处理机(即该处理机的度为1),连续执行12条指令,共需 (16) Δ t 。若采用度为4的超标量流水线处理机,连续执行上述12条指令,只需 (17) Δ t

(16)A.12

B.14

C.16

D.18

(17)A.3

B.5

C.7

D. 9

试题2分析

单流水线处理机的度为1,即通常所有的线性流水线计算机。在线性流水线中,在流水线各段的执行时间均相等(设为Δ t ),输入到流水线中的任务是连续的。理想情况下,一条 k 段线性流水线能够在 m Δ t 时间内完成 n 个任务( m Δ t =1条指令的正常时间+( n -1)× 流水线周期)。

具体到本题,12条指令的处理时间为(1Δ t +1Δ t +1Δ t )+ (12-1)× Δ t =14Δ t

在度为4的超标量流水线处理机中,同时运行4条流水线,连续执行12条指令,则每条流水线执行3条。此时相当于求1条流水线执行3条指令的时间,所以处理时间为(1Δ t +1Δ t +1Δ t )+ (3-1)× Δ t =5Δ t

试题2答案

(16)B (17)B

试题3(2006年上半年试题20~21)

编号为0、1、2、3、…、15的16个处理器,用单级互联网络互联。当互联函数为Cube 3 (4维立方体单级互联函数)时,6号处理器与 (20) 号处理器相连接。若采用互联函数Shuffle(全混洗单级互联函数)时,6号处理器与 (21) 号处理器相连接。

(20)A.15

B.14

C.13

D.12

(21)A.15

B.14

C.13

D.12

试题3分析

并行处理机互联有多种方法,分别列举如下。

(1)恒等置换。相同编号的输入端与输出端一一对应互联。其表达式如下:

I x n-1 x k x 1 x 0 )= x n-1 x k x 1 x 0

(2)交换置换。实现二进制地址编号中第0位位值不同的输入端和输出端之间的连接,其表达式如下:

(3)方体置换(Cube)。实现二进制地址编号中第 k 位位值不同的输入端和输出端之间的连接,其表达式如下:

(4)均匀洗牌置换(Shuffle)。将输入端二进制地址循环左移一位得到对应的输出端二进制地址,其表达式如下:

S x n-1 x n-2 x 1 x 0 )= x n-2 x n-3 x 1 x 0 x n-1

(5)蝶式置换(Butterfly)。将输入端二进制地址的最高位和最低位互换位置,得到对应的输出端二进制地址,其表达式如下:

B x n-1 x n-2 x 1 x 0 )= x 0 x n-2 x 1 x n-1

(6)位序颠倒置换。将输入端二进制地址的位序颠倒过来得到对应的输出端二进制地址,其表达式如下:

P x n-1 x n-2 x 1 x 0 )= x 0 x 1 x n-2 x n-1

在本题中,编号为0、1、2、3、…、15的16个处理器,用单级互联网络互联。当互联函数为Cube 3 (4维立方体单级互联函数)时,6号(0110号)处理器应与14号(1110号)处理器相连接。若采用互联函数Shuffle(全混洗单级互联函数)时,6号(0110号)处理器应与12号(1100号)处理器相连接。

试题3答案

(20)B (21)D

试题4(2006年下半年试题14)

下面关于RISC计算机的论述中,不正确的是 (14)

(14)A.RISC计算机的指令简单,且长度固定

B.RISC计算机的大部分指令不访问内存

C.RISC计算机采用优化的编译程序,有效地支持高级语言

D.RISC计算机尽量少用通用寄存器,把芯片面积留给微程序

试题4分析

RISC计算机指精简指令集计算机,这种计算机有下列特点:

(1)指令数量少:优先选取使用频率最高的一些简单指令及常用指令,避免使用复杂指令。大多数指令都是对寄存器操作,对存储器的操作仅提供了读和写两种方式。

(2)指令的寻址方式少:通常只支持寄存器寻址方式、立即数寻址方式及相对寻址方式。

(3)指令长度固定,指令格式种类少:因为RISC指令数量少,格式相对简单,其指令长度固定,指令之间各字段的划分比较一致,译码相对容易。

(4)只提供LOAD/STORE指令访问存储器:只提供了从存储器读数(LOAD)和把数据写入存储器(STORE)两条指令,其余所有的操作都在CPU的寄存器间进行。因此,RISC需要大量的寄存器。

(5)以硬布线逻辑控制为主:为了提高操作的执行速度,通常采用硬布线逻辑(组合逻辑)来构建控制器。而CISC计算机的指令系统很复杂,难以用组合逻辑电路实现控制器,通常采用微程序控制。

(6)单周期指令执行:因为简化了指令系统,很容易利用流水线技术使得大部分指令都能在一个机器周期内完成。因此,RISC通常采用流水线组织。少数指令可能会需要多个周期执行,例如LOAD/STORE指令因为需要访问存储器,其执行时间就会长一些。

(7)优化的编译器:RISC的精简指令集使编译工作简单化。因为指令长度固定、格式少、寻址方式少,编译时不必在具有相似功能的许多指令中进行选择,也不必为寻址方式的选择而费心,同时易于实现优化,从而可以生成高效率执行的机器代码。

RISC计算机的指令简单,且长度固定,没有必要采用微程序设计。RISC计算机仅用LOAD/STORE指令访问内存,会使用大量的寄存器,采用优化的编译程序,能有效地支持高级语言。

试题4答案

(14)D

试题5(2006年下半年试题15)

下面关于计算机cache的论述中,正确的是 (15)

(15)A.cache是一种介于主存和辅存之间的存储器,用于主辅存之间的缓冲存储

B.若访问cache不命中,则用从内存中取到的字节代替cache中最近访问过的字节

C.cache的命中率必须很高,一般要达到90%以上

D.cache中的信息必须与主存中的信息时刻保持一致

试题5分析

使用cache改善系统性能的依据是程序的局部性原理。依据局部性原理,把主存储器中访问概率高的内容存放在cache中。当CPU需要读取数据时,首先在cache中查找是否有所需内容,如果有,则直接从cache中读取;若没有,再从主存中读取该数据,然后同时送往CPU和cache。如果CPU需要访问的内容大多能在cache中找到(称为访问命中),则可以大大提高系统性能。

系统的平均存储周期与命中率有很密切的关系,命中率的提高即使很小也能带来性能上的较大改善。

在CPU发出访存请求后,存储器地址先被送到cache控制器以确定所需数据是否已在cache中,若命中则直接对cache进行访问。这个过程称为cache的地址映射。常见的映射方法有直接映射、相联映射和组相联映射。

在cache存储器产生了一次访问未命中之后,相应的数据应同时读入CPU和cache。但是在cache已存满数据后,新数据必须淘汰cache中的某些旧数据。最常用的淘汰算法有随机淘汰法、先进先出法(FIFO)和近期最少使用淘汰法(LRU)。

因为需要保证缓存在cache中的数据与主存中的内容一致,所以相对读操作而言,cache的写操作比较复杂,常用的有以下几种方法:

(1)写直达(write through)。当要写cache时,数据同时写回主存储器,有时也称为写通。

(2)写回(write back)。CPU修改cache的某一行后,相应的数据并不立即写入主存储器单元,而是在该行被从cache中淘汰时,才把数据写回到主存储器中。

(3)标记法。对cache中的每一个数据设置一个有效位。当数据进入cache后,有效位置1;而当CPU要对该数据进行修改时,只需将其写入主存储器并同时将该有效位清0。当要从cache中读取数据时需要测试其有效位:若为1则直接从cache中取数,否则从主存中取数。

试题5答案

(15)C

试题6(2006年下半年试题17)

关于相联存储器,下面的论述中,错误的是 (17)

(17)A.相联存储器按地址进行并行访问

B.相联存储器的每个存储单元都具有信息处理能力

C.相联存储器能并行进行各种比较操作

D.在知识库中应用相联存储器实现按关键字检索

试题6分析

相联存储器(CAM)是一种特殊的存储器,是一种基于数据内容进行访问的存储设备,特点是每个存储单元都必须有一个处理单元。当对其写入数据时,CAM能够自动选择一个未用的空单元进行存储;当要读出数据时,不是给出其存储单元的地址,而是直接给出该数据或该数据的一部分内容,CAM对所有的存储单元中的数据同时进行比较,并标记符合条件的所有数据以供读取。由于比较是同时、并行进行的,所以这种基于数据内容进行读/写的机制,其速度比基于地址进行读/写的方式要快许多。

在计算机系统中,相联存储器主要用于虚拟存储器和cache。在虚拟存储器中存放分段表、页表和快表,在高速缓冲存储器中存放cache的行地址。另外,相联存储器还经常用于数据库与知识库中按关键字进行检索。

试题6答案

(17)A

试题7(2006年下半年试题18)

下面关于系统总线的论述中,不正确的是 (18)

(18)A.系统总线在计算机各个部件之间传送信息

B.系统总线就是连接一个源部件和多个目标部件的传输线

C.系统总线必须有选择功能,以判别哪个部件可以发送信息

D.系统总线的标准分为正式标准和工业标准

试题7分析

总线就是一组进行互联和传输信息(指令、数据和地址)的信号线,它好比连接计算机系统各个部件之间的桥梁。另外,广义上通常也把AGP接口、USB接口等称为AGP总线、USB总线。可以说,总线在计算机中无处不在。

按总线相对于CPU或其他芯片的位置,可分为内部总线(Internal Bus)和外部总线(External Bus)两种。在CPU内部,寄存器之间和算术逻辑部件ALU与控制部件之间传输数据所用的总线称为内部总线;而外部总线是指CPU与内存RAM、ROM和输入/输出设备接口之间进行通信的通路。由于CPU通过总线实现程序取指令、内存/外设的数据交换,在CPU与外设一定的情况下,总线速度是制约计算机整体性能的最大因素。

按总线功能来划分,可分为地址总线、数据总线、控制总线3类。我们通常所说的总线都包括上述3个组成部分,地址总线用来传送地址信息,数据总线用来传送数据信息,控制总线用来传送各种控制信号。例如,ISA总线共有98条线。其中,数据线16条,地址线24条,其余为控制信号线、接地线和电源线。

按总线在微机系统中的位置可分为机内总线和机外总线(Peripheral Bus)两种。我们上面所说的总线都是机内总线,而机外总线顾名思义是指与外部设备接口相连的,实际上是一种外设的接口标准。如目前计算机上流行的接口标准IDE、SCSI、USB和IEEE 1394等,前两种主要是与硬盘、光驱等IDE设备接口相连,后面两种新型外部总线可以用来连接多种外部设备。

计算机的总线按其功用来划分主要有局部总线、系统总线、通信总线3种类型。其中,局部总线是在传统的ISA总线和CPU总线之间增加的一级总线或管理层,它的出现是由于计算机软硬件功能的不断发展,系统原有的ISA/EISA等已远远不能适应系统高传输能力的要求,而成为整个系统的主要瓶颈。局部总线主要可分为3种,分别是专用局部总线、VL总线(VESA Local Bus)和PCI(Peripheral Component Interconnect)总线。前两种已被淘汰,采用PCI总线后,数据宽度升级到64位,总线工作频率为33/66MHz,数据传输率(带宽)可达266MB/s。而系统总线是计算机系统内部各部件(插板)之间进行连接和传输信息的一组信号线,例如,ISA、EISA、MCA、VESA、PCI、AGP等。通信总线是系统之间或微机系统与设备之间进行通信的一组信号线。

总线标准是指计算机部件各生产厂家都需要遵守的系统总线要求,从而使不同厂家生产的部件能够互换。总线标准主要规定总线的机械结构规范、功能结构规范和电气规范。总线标准可以分为正式标准和工业标准。其中,正式标准是由IEEE等国际组织正式确定和承认的标准,工业标准是首先由某一厂家提出,得到其他厂家广泛使用的标准。

试题7答案

(18)B

试题8(2006年下半年试题19)

下面关于超级流水线的论述中,正确的是 (19)

(19)A.超级流水线用增加流水线级数的方法缩短机器周期

B.超级流水线是一种单指令流多操作码多数据的系统结构

C.超级流水线配置了多个功能部件和指令译码电路,采用多条流水线并行处理

D.超级流水线采用简单指令以加快执行速度

试题8分析

采用流水线技术的CPU使用指令重叠的办法,即在一条指令还没有处理完时,就开始处理下一条指令。典型的流水线将每一条机器指令分成5步,即取指、译码、取操作数(或译码2)、执行、回写。在理想条件下,平均每个时钟周期可以完成一条指令。而所谓“超级流水线处理”是将机器指令划分为更多级的操作,以减轻每一级的复杂程度,增加流水线级数来提高频率。在流水线的每一步中,如果需要执行的逻辑操作少一些,则每一步就可以在较短的时间内完成。

对于超级流水线结构,其中指令部件可以只有一套,也可以有多套独立的执行部件。虽然每个机器周期只能流出一条指令,但它的周期比其他机器短。

试题8答案

(19)A

试题9(2007年上半年试题14)

利用海明码(Hamming Code)纠正单位错,如果有 6 位信息位,则需要加入 (14) 位冗余位。

(14)A.2

B.3

C.4

D.5

试题9分析

按照海明的理论,纠错码的编码就是把所有合法的码字尽量安排在 n 维超立方体的顶点上,使得任一对码字之间的距离尽可能大。如果任意两个码字之间的海明距离是 d ,则所有少于等于 d -1位的错误都可以检查出来,所有少于 d /2位的错误都可以纠正。一个自然的推论是,对某种长度的错误串,要纠正错误就要用比仅仅检测它多一倍的冗余位。

如果对于 m 位的数据,增加 k 位冗余位, n = m + k 位的纠错码,则有:

m + k +1<2 k

对于给定的数据位 m ,上式给出了 k 的下界,即要纠正单个错误, k 必须取最小值。在本题中, m =6,6+ k +1<2 k ,可取 k =4,得到6+4+1=11<2 4 =16。

试题9答案

(14)C

试题10(2007年上半年试题15)

以下关于CISC/RISC计算机的叙述中,不正确的是 (15)

(15)A.RISC机器指令比CISC机器指令简单

B.RISC机器中通用寄存器比CISC多

C.CISC机器采用微码比RISC多

D.CISC机器比RISC机器可以更好地支持高级语言

试题10分析

请参考试题4的分析。

试题10答案

(15)D

试题11(2007年上半年试题16)

以下关于指令流水线的描述中,正确的是 (16)

(16)A.出现数据相关时采用猜测法来加快执行

B.解决程序转移对流水线的影响需要相关专用通路的支持

C.在出现中断的情况下可以让已经进入流水线的指令继续执行

D.流水线机器不能执行复杂指令

试题11分析

流水线计算机中通常采用相关专用通路的方法解决数据相关问题,例如第 n +1条指令的操作数地址为第 n 条指令的运算结果,这时第 n +1条指令的操作数通过专用通路直接从数据处理部件取得,而不必等待第 n 条指令存入。

流水线计算机出现程序转移时采用猜测法处理,即先选定一条转移分支继续执行,使得流水线不会中断,等到条件码生成后,如果猜错了,则要返回分支重新执行,这里要保证不能破坏分支点的现场,避免产生错误的结果。

流水线出现I/O中断时可以让已经进入流水线的指令继续执行,直到执行完成,这种方法叫做不精确断点法。所谓精确断点法是指出现中断时立即停止所有指令的执行,转入中断处理。

在CISC计算机和RISC计算机中都可以使用流水线来加快指令处理。

试题11答案

(16)C

试题12(2007年上半年试题17)

cache 存储器一般采用 (17) 存储器件构成。

(17)A.DRAM

B.SRAM

C.ROM

D.NVRAM

试题12分析

cache存储器一般采用静态随机访问存储器(SRAM)技术,这种存储器的速度比动态RAM快,能够跟得上CPU的要求,弥合CPU和主存之间的速度差距。

试题12答案

(17)B

试题13(2007年上半年试题18)

虚拟存储系统中的页表有快表和慢表之分,下面关于页表的叙述中正确的是 (18)

(18)A.快表与慢表都存储在主存中,但快表比慢表容量小

B.快表采用了优化的搜索算法,因此比慢表的查找速度快

C.快表比慢表的命中率高,因此快表可以得到更多的搜索结果

D.快表采用快速存储器件组成,按照查找内容访问,因此比慢表查找速度快

试题13分析

虚拟存储系统中的快表采用快速存储器构成,按内容访问,因此比慢表查找速度快。

试题13答案

(18)D

试题14(2007年下半年试题14)

在流水线控制的计算机中,对于数据相关的处理,通常采用的方法是 (14)

(14)A.暂停指令的执行,等待前面的指令输出运算结果

B.设置相关专用通路,从相关专用通路直接读出操作数

C.让已经进入流水线的指令继续执行

D.出现数据相关时采用猜测法来加快执行

试题14分析

在流水线控制的计算机中,数据相关是指共享资源访问的冲突,也就是后一条指令需要使用的数据与前一条指令发生的冲突,这会使得流水线失败。例如:前一条指令是写,后一条指令是读,当前一条指令保存结果没有完成时,后一条指令的读操作就已经开始,这样后一条指令读到的就是未改写的数据。

为了解决这个问题,当遇到资源冲突时,就只好暂停后读指令进入流水线,这样就降低了流水线的效率,显然,流水线步骤越多越容易引起资源冲突的发生。

对于数据相关的处理,通常采用的方法是设置相关专用通路,从相关专用通路直接读出操作数。也可以在编译系统上做文章,当发现相邻的语句存在资源共享冲突时,在两者之间插入其他语句,将两条指令进入流水线的时间拉开,以避免错误。

试题14答案

(14)B

试题15(2007年下半年试题15~16)

在计算机的浮点数表示中,主要影响数值表示范围的是 (15) ,影响计算精度的是 (16)

(15)A.尾数的位数

B.阶码的位数

C.规格化的方法

D.尾数下溢的处理

(16)A.尾数的位数

B.阶码的位数

C.规格化的方法

D.尾数下溢的处理

试题15分析

在计算机的浮点数表示中,因为规格化表示格式为尾数×2 阶码 。显然,主要影响数值表示范围的是阶码的位数,影响计算精度的是尾数的位数。

试题15答案

(15)B (16)A

试题16(2007年下半年试题65)

以下不具有容错功能的是 (65)

(65)A.RAID 0

B.RAID 1

C.RAID 3

D.RAID 5

试题16分析

廉价磁盘冗余阵列(Redundant Array of Inexpensive Disks,RAID)技术旨在缩小日益扩大的CPU速度和磁盘存储器速度之间的差距。其策略是用多个较小的磁盘驱动器替换单一的大容量磁盘驱动器,同时合理地在多个磁盘上分布存放数据以支持同时从多个磁盘进行读/写,从而改善系统的I/O性能。小容量驱动器阵列与大容量驱动器相比,具有成本低、功耗小、性能好等优势;低代价的编码容错方案在保持阵列的速度与容量优势的同时可保证极高的可靠性。同时也较容易扩展容量。但是由于允许多个磁头同时进行操作以提高I/O数据传输速度,因此会不可避免地提高出错的概率。为了补偿可靠性方面的损失,RAID使用存储的校验信息来从错误中恢复数据。最初,inexpensive一词主要针对当时的另一种技术(single large expensive disk,SLED)而言,但随着技术的发展,SLED已是明日黄花,RAID和non-RAID皆采用了类似的磁盘技术。因此,RAID现在代表独立磁盘冗余阵列(Redundant Array of Independent Disks),用 independent来强调RAID技术所带来的性能改善和更高的可靠性。

RAID机制中共分8个级别,RAID应用的主要技术有分块技术、交叉技术和重聚技术。

(1)RAID0级(无冗余和无校验的数据分块):具有最高的I/O性能和最高的磁盘空间利用率,易管理,但系统的故障率高,属于非冗余系统,主要应用于那些关注性能、容量和价格而不是可靠性的应用程序。

(2)RAID1级(磁盘镜像阵列):由磁盘对组成,每一个工作盘都有其对应的镜像盘,上面保存着与工作盘完全相同的数据拷贝,具有最高的安全性,但磁盘空间利用率只有50%。RAID1主要用于存放系统软件、数据及其他重要文件。它提供了数据的实时备份,一旦发生故障所有的关键数据即刻可用。

(3)RAID2级(采用纠错海明码的磁盘阵列):采用了海明码纠错技术,用户需增加校验盘来提供单纠错和双验错功能。对数据的访问涉及阵列中的每一个盘。大量数据传输时I/O性能较高,但不利于小批量数据传输。实际应用中很少使用。

(4)RAID3和RAID4级(采用奇偶校验码的磁盘阵列):把奇偶校验码存放在一个独立的校验盘上。如果有一个盘失效,其上的数据可以通过对其他盘上的数据进行异或运算得到。读数据很快,但因为写入数据时要计算校验位,速度较慢。

(5)RAID5(无独立校验盘的奇偶校验码磁盘阵列):与RAID4类似,但没有独立的校验盘,校验信息分布在组内所有盘上,对于大批量和小批量数据的读/写性能都很好。RAID4和RAID5使用了独立存取技术,阵列中每一个磁盘都相互独立地操作,所以I/O请求可以并行处理。所以,该技术非常适合于I/O请求率高的应用,而不太适应于要求高数据传输率的应用。与其他方案类似,RAID4、RAID5也应用了数据分块技术,但块的尺寸相对大一些。

(6)RAID6(具有独立的数据磁盘与两个独立的分布式校验方案):RAID6级的阵列中设置了一个专用的、可快速访问的异步校验盘。该盘具有独立的数据访问通路,其性能改进有限,但价格却很昂贵。

(7)RAID7(具有最优化的异步高I/O速率和高数据传输率的磁盘阵列):是对RAID6的改进。在这种阵列中的所有磁盘,都具有较高的传输速度,有着优异的性能,是目前最高档次的磁盘阵列。

(8)RAID1+0(高可靠性与高性能的组合):由多个RAID等级组合而成,建立在RAID0和RAID1基础上。RAID1是一个冗余的备份阵列,而RAID0是负责数据读/写的阵列,由于利用了RAID0极高的读/写效率和RAID1较高的数据保护和恢复能力,因此RAID1+0是一种性价比较高的等级,目前几乎所有的RAID控制卡都支持这一等级。需要注意的是,如果先做RAID0,后做RAID1,则是RAID0+1;如果先做RAID1,后做RAID0,则是RAID1+0。

试题16答案

(65)A

试题17(2008年上半年试题14)

下面关于RISC计算机的描述中,正确的是 (14)

(14)A.在RISC计算机中减少了通用寄存器的数量

B.由于指令简单,一个机器周期可以执行多条指令

C.RISC计算机的指令更适合流水处理

D.RISC计算机程序只占用很小的内存

试题17分析

请参考试题4的分析。

试题17答案

(14)C

试题18(2008年上半年试题15)

关于cache存储器,下面的叙述中正确的是 (15)

(15)A.cache存储器是内存中的一个特定区域

B.cache存储器的存取速度介于内存和磁盘之间

C.cache存储器中存放的内容是内存的备份

D.cache存储器存放正在处理的部分指令和数据

试题18分析

请参考试题5的分析。

试题18答案

(15)D

试题19(2008年上半年试题16)

为了解决CPU与主存速度不匹配的问题,通常采用的方法是 (16)

(16)A.采用速度更快的主存

B.在CPU和主存之间插入少量的高速缓冲存储器

C.在CPU周期中插入等待周期

D.扩大主存的容量

试题19分析

请参考试题5的分析。

试题19答案

(16)B

试题20(2008年上半年试题17)

大规模并行处理(MPP)计算机的特点是 (17)

(17)A.这种系统最适合SIMD 计算模式

B.这种系统可以实现多条流水线并行处理

C.这种系统编程容易,但难于管理

D.这种系统由大量通用微处理器构成

试题20分析

并行处理机有时也称为阵列处理机,使用按地址访问的随机存储器,以SIMD方式工作。主要用于要求大量高速向量矩阵运算的应用领域。并行处理机制并行性来源于资源重复,把大量相同的处理单元通过互联网连接起来,在统一的控制器控制下,对各自分配来的数据并行完成同一条指令所规定的操作。并行处理机有两种基本结构类型:采用分布式存储器的并行处理结构和采用集中式共享存储器的并行处理结构。分布式存储器的并行处理结构中,每一个处理机都有自己局部的存储器,只要控制部件将并行处理的程序分配至各处理机,它们便能并行处理,各自从自己的局部存储器中取得信息。而共享存储多处理机结构中的存储器是集中共享的,由于多个处理机共享,在各处理机访问共享存储器时会发生竞争。因此,需采取措施尽可能避免竞争的发生。

MPP是由众多的微处理器(从几百到上万)组成的大规模的并行系统。MPP出现后即成为计算机领域中一个研发热点,被用做开发万亿次乃至更高速的巨型机的主要结构。MPP可以采用市场上出售的RISC处理器,所以有很高的性价比。

试题20答案

(17)D

试题21(2008年下半年试题14~15)

计算机的存储系统采用分级存储体系的理论依据是 (14) 。目前,计算机系统中常用的三级存储体系是 (15)

(14)A.存储容量、价格与存取速度间的协调性

B.程序访问的局部性

C.主存和CPU 之间的速度匹配

D.程序运行的定时性

(15)A.寄存器、内存、外存

B.寄存器、cache、内存

C.cache、主存、辅存

D.L0、L1、L2三级cache

试题21分析

计算机的存储系统采用分级存储体系的理论依据是程序访问的局部性原理。CPU访问存储器时,无论是取指令还是存取数据,所访问的存储单元都趋于聚集在一个较小的连续区域中。局部性分为两种,分别是时间局部性和空间局部性。时间局部性是指如果一个信息项正在被访问,那么在近期很可能还会被再次访问。程序循环、堆栈等是产生时间局部性的原因。空间局部性是指在最近的将来将用到的信息很可能与现在正在使用的信息在空间地址上是临近的。

计算机系统中常用的三级存储体系是指cache、主存、辅存,这3个级别从左向右容量越来越大,价格越来越低,速度越来越慢。

试题21答案

(14)B (15)C

试题22(2008年下半年试题16~17)

紧耦合多机系统一般通过 (16) 实现多机间的通信。对称多处理器结构(SMP)属于 (17) 系统。

(16)A.因特网

B.共享内存

C.进程通信

D.共享寄存器

(17)A.松耦合

B.紧耦合

C.混合耦合

D.最低耦合

试题22分析

多机系统是指一个系统中有多个处理机,属于MIMD计算机系统。按多机之间连接的紧密程度,可分为紧耦合多机系统和松耦合多机系统两种。

紧耦合多机系统又称为直接耦合系统,是指各处理机之间通过互联网络共享内存。紧耦合多机系统由 P 台处理机、 m 个存储器模块、 d 个I/O通道和3个互联网络构成。处理机-存储器网络实现处理机与各存储模块的连接。处理机中断信号网络实现多处理机之间的互联。处理机-I/O互联网络实现处理机与外设的连接。每个处理机可自带局部存储器,也可自带cache。存储器模块可采用流水工作方式。紧耦合多机系统多用于并行作业中的多任务,一般处理机是同构的。SMP属于紧耦合多机系统。

松耦合多机系统又称为间接耦合系统,是指各处理机间通过共享I/O子系统、通道或通信线路实现机间通信,不共享内存。松耦合多处理机由 P 台处理机、1个通道、1个仲裁开关和消息传送系统构成。每个处理机带有一个局部存储器和一组I/O设备。在仲裁开关的通道中有高速通信存储,用来缓冲传送的信息块。松耦合多处理机较适合粗粒度的并行计算。MPP属于松耦合多机系统。

试题22答案

(16)B (17)B

试题23(2008年下半年试题18)

在流水线控制方式下, (18) 是全局性相关。

(18)A.转移指令相关

B.写-读相关

C.读-写相关

D.写-写相关

试题23分析

在流水线技术中,相关是指相近指令出现某种关联不能同时执行,通常会导致流水线等待或被破坏。

局部性相关处理由于流水机器同时解释多条指令,这些指令可能有对同一主存单元或同一寄存器的“先写后读”的要求,这时就出现了相关,这种相关包括指令相关、访存操作数相关及通用寄存器组相关等,它只影响相关的两条或几条指令,而且至多影响流水线的某些段推后工作,并不会改动指令缓冲器中预取到的指令内容,影响是局部的,所以称为局部性相关。解决局部性相关有两种方法:一种是推后法,即推后对相关单元的读,直至写入完成;另一种是通路法,即设置相关专用通路,使得不必先把运算结果写入相关存储单元,再从这里读出后才能使用,而是经过相关专用通路直接使用运算结果,这样可以加快速度。

全局性相关处理转移指令(尤其是条件转移指令)与它后面的指令之间存在关联,使之不能同时解释,执行转移指令时,可能会改动指令缓冲器中预取到的指令内容,从而造成流水线吞吐率和效率下降,比局部性相关的影响要严重得多,所以称为全局性相关。解决全局性相关有3种方法:猜测转移分支、加快和提前形成条件码,以及加快短循环程序的处理。

试题23答案

(18)A

试题24(2009年上半年试题14)

一般来讲,在并行处理系统中,将程序的模块划分得越小, (14)

(14)A.程序模块间的数据相关性越大,线程创建和通信的开销越大

B.程序模块间的数据相关性越小,线程创建和通信的开销越大

C.程序模块间的数据相关性越小,线程创建和通信的开销越小

D.程序模块间的数据相关性越大,线程创建和通信的开销越小

试题24分析

一般来说,将程序的模块划分得越小,模块间的数据相关性就越大,通信的开销也越大。线程是程序中一个单一的顺序控制流程。模块越小就需要越多的线程,如果有大量的线程,会由于相互切换而影响性能。更多的线程也需要更多的内存空间,即开销更大。

试题24答案

(14)A

试题25(2009年上半年试题15)

在cache-主存两级存储体系中,关于cache的叙述,错误的是 (15)

(15)A.cache设计的主要目标是在成本允许的情况下达到较高的命中率,使存储系统具有最短的平均访问时间

B.cache设计的一个重要原则是在争取获得较快的存取速度和花费较低的存储成本之间达到合理的折中

C.除了cache容量和块的大小,地址相联方式和替换策略也会影响cache的命中率

D.在速度要求较高的场合采用直接映像,在速度要求较低的场合采用组相联或全相联

试题25分析

请参考试题5的分析。

试题25答案

(15)D

试题26(2009年上半年试题17~18)

某计算机系统的结构如图1-1所示,按照弗林(Michael J.Flynn)提出的分类法,它属于 (17) ,其中,PU i i =1,…, n )为处理单元,CU为控制部件,MM j j =1,…, n )为存储部件。该计算机 (18)

图1-1 某计算机系统的结构

(17)A.单指令流单数据流计算机

B.单指令流多数据流计算机

C.多指令流单数据流计算机

D.多指令流多数据流计算机

(18)A.通过时间重叠实现并行性

B.通过资源重复实现并行性

C.通过资源共享实现并行性

D.通过精简指令系统实现并行性

试题26分析

计算机系统中开发并行性的方法有资源重复、时间重叠和资源共享3种基本途径。本题中的计算机只有一个控制单元,所以是单指令流;有多个处理单元和存储部件,所以是多数据流,因此,属于SIMD计算机。

显然,该计算机将大量重复设置的处理单元按一定方式互联成阵列,在单一控制部件控制下对各自所分配的不同数据并行执行同一指令规定的操作,是操作并行的SIMD计算机。因此,采用了资源重复的措施开发并行性。

试题26答案

(17)B (18)B

试题27(2010年上半年试题14)

在计算机系统中,对构成内存的半导体存储器进行自检的方法有许多种,其中对 (14) 一般采用对其内容求累加和进行自检的方法。

(14)A.ROM

B.DRAM

C.SDRAM

D.DDR SDRAM

试题27分析

一般来讲,片内的RAM自检可以送入0x00、0xaa、0x55、0xff等数字,然后再读出来。这样,RAM中保存的数据就会冲掉,因此,一般在初始化之前做自检。相对来说,ROM自检比较方便,不存在数据保护等诸多考虑,只要在固定地址存放累加和,在程序开始执行时,完成整片ROM数据的求累加和,然后和事先存储的累加和比较。

试题27答案

(14)A

试题28(2010年上半年试题15)

(15) 不是复杂指令系统计算机(Complex Instruction Set Computer,CISC)的特征。

(15)A.丰富的寻址方式

B.多种指令格式

C.指令长度可变

D.设置大量通用寄存器

试题28分析

RISC和CISC是目前设计制造微处理器的两种典型技术,虽然它们都试图在体系结构、操作运行、软硬件、编译时间和运行时间等诸多因素中做出某种平衡,以求达到高效的目的,但采用的方法不同,主要区别如下:

● 指令系统:RISC设计者把主要精力放在那些经常使用的指令上,尽量使它们具有简单高效的特点。对不常用的功能,常通过组合指令来完成。因此,在RISC机器上实现特殊功能时,效率可能较低。但可以利用流水技术和超标量技术加以改进和弥补;同时,大量使用通用寄存器来提高子程序执行的速度。而CISC计算机的指令系统比较丰富,有专用指令来完成特定的功能。因此,处理特殊任务效率较高。

● 存储器操作:RISC对存储器操作有限制,控制简单;而CISC机器的存储器操作指令多,操作直接。

● 程序:RISC汇编语言程序一般需要较大的内存空间,实现特殊功能时程序复杂,不易设计;而CISC汇编语言程序编程相对简单,科学计算及复杂操作的程序设计相对容易,效率较高。

● 中断:RISC机器在一条指令执行的适当地方可以响应中断;而CISC机器是在一条指令执行结束后响应中断。

● CPU:RISC的CPU包含有较少的单元电路,因而面积小、功耗低;而CISC CPU 包含有丰富的电路单元,因而功能强、面积大、功耗大。

● 设计周期:RISC微处理器结构简单,布局紧凑,设计周期短,且易于采用最新技术;CISC微处理器结构复杂,设计周期长。

● 用户使用:RISC微处理器结构简单,指令规整,性能容易把握,易学易用;CISC微处理器结构复杂,功能强大,实现特殊功能容易。

● 应用范围:由于RISC指令系统的确定与特定的应用领域有关,故RISC机器更适合于专用机;而CISC机器则更适合于通用机。

试题28答案

(15)D

试题29(2010年上半年试题16~17)

在计算机系统中,若一个存储单元被访问,这个存储单元有可能很快会再被访问,该特性被称为 (16) ;这个存储单元及其邻近的存储单元有可能很快会再被访问,该特性被称为 (17)

(16)A.程序局部性

B.空间局部性

C.时间局部性

D.数据局部性

(17)A.程序局部性

B.空间局部性

C.时间局部性

D.数据局部性

试题29分析

请参考试题21的分析。

试题29答案

(16)C (17)B

试题30(2011年上半年试题14)

若计算机采用CRC进行差错校验,生成多项式为G(X)= X 4 +X+1,信息字为10110,则CRC校验码是 (14)

(14)A.0000

B.0100

C.0010

D.1111

试题30分析

CRC(Cyclic Redundancy Check,循环冗余校验)是常用的一种差错校验方法,其特征是信息字段和校验字段的长度可以任意选定。在CRC中,进行多项式除法(模2除法)运算后的余数为校验字段。

在本题中,信息字为10110,对应的多项式M(X)= X 4 +X 2 +X;生成多项式为G(X)= X 4 +X+1,对应的代码为10011。校验码的计算过程如下:

先将信息码左移4位(生成码长-1),得到101100000,然后反复进行异或运算(即除数和被除数最高位对齐,按位异或),如下所示:

10110⊕10011=00101,00101左移两位得到10100再与10011异或;

10100⊕10011=00111,00111左移两位得到11100再与10011异或;

11100⊕10011=01111,其结果为CRC校验码,即余数1111。

试题30答案

(14)D

试题31(2011年上半年试题15)

以下关于复杂指令集计算机弊端的叙述中,错误的是 (15)

(15)A.指令集过分庞杂

B.每条复杂指令需要占用过多的CPU周期

C.CPU中的寄存器过多,利用率低

D.强调数据控制,导致设计复杂,研制周期长

试题31分析

请参考试题28的分析。

试题31答案

(15)C

试题32(2011年上半年试题16)

以下关于在I/O设备与主机间交换数据的叙述中,错误的是 (16)

(16)A.中断方式下,CPU需要执行程序来实现数据传送

B.中断方式和DMA方式下,CPU与I/O设备都可同步工作

C.中断方式和DMA方式相比,快速I/O设备更适合采用中断方式传递数据

D.若同时接到DMA请求和中断请求,CPU优先响应DMA请求

试题32分析

I/O系统主要有4种方式与主机交换数据,分别是程序直接控制方式、中断控制方式、DMA方式和通道方式。

(1)程序直接控制方式。CPU直接利用I/O指令编程,实现数据的输入/输出。CPU发出I/O命令,命令中包含了外设的地址信息和所要执行的操作,相应的I/O系统执行该命令并设置状态寄存器;CPU不停地(定期地)查询I/O系统以确定该操作是否完成。由程序主动查询外设,完成主机与外设间的数据传送,方法简单,硬件开销小。

(2)中断控制方式。CPU利用中断方式完成数据的输入/输出,当I/O系统与外设交换数据时,CPU无须等待也不必去查询I/O的状态,I/O系统完成数据传输后以中断信号通知CPU。CPU然后保存正在执行程序的现场,转入I/O中断服务程序完成与I/O系统的数据交换。之后返回原主程序继续执行。与程序直接控制方式相比,中断控制方式因为CPU无须等待而可提高效率。在系统中具有多个中断源的情况下,常用的处理方法有:多中断信号线法、中断软件查询法、雏菊链法、总线仲裁法和中断向量表法。

(3)DMA方式。使用DMA控制器(DMAC)来控制和管理数据传输。DMAC和CPU共享系统总线,并且具有独立访问存储器的能力。在进行DMA时,CPU放弃对系统总线的控制而由DMAC控制总线;由DMAC提供存储器地址及必需的读写控制信号,实现外设与存储器之间的数据交换。DMAC获取总线的3种方式是暂停方式、周期窃取方式和共享方式。

(4)通道方式。通道是一种通过执行通道程序管理I/O操作的控制器,它使主机与I/O操作之间可达到更高的并行程度。在具有通道处理机的系统中,当用户进程请求启动外设时,由操作系统根据I/O要求构造通道程序和通道状态字,将通道程序保存在主存中,并将通道程序的首地址放到通道地址字中,然后执行“启动I/O”指令。按照所采取的传送方式,可将通道分为字节多路通道、选择通道和数组多路通道3种。

程序直接控制方式和中断控制方式都只适用于简单的、外设很少的计算机系统,因为程序直接控制方式会耗费大量的CPU时间,而且无法检测发现设备或其他硬件产生的错误,设备与CPU、设备与设备之间只能串行工作。中断控制方式虽然在某种程度上解决了上述问题,但由于中断次数多,CPU仍需要花费较多的时间处理中断,而且能够并行操作的设备台数也会受到中断处理时间的限制,中断次数增多也会导致数据丢失。

DMA方式和通道方式较好地解决了上述问题。这两种方式采用了外设和内存直接交换数据的方式。只有在一段数据传送结束时,才发出中断信号要求CPU做善后处理,从而大大减少CPU的工作负担。DMA方式与通道控制方式的区别是,DMA方式要求CPU执行设备驱动程序来启动设备,给出存放数据的内存起始地址及操作方式和传送字节长度等;而通道控制方式则是在CPU发出I/O启动命令之后,由通道指令来完成这些工作。

试题32答案

(16)C

试题33(2011年上半年试题17)

在cache-主存层次结构中,主存单元到cache单元的地址转换由 (17) 完成。

(17)A.硬件

B.寻址方式

C.软件和少量的辅助硬件

D.微程序

试题33分析

在由cache-主存构成的层次式存储系统中,为了提高地址转换速度,主存单元到cache单元的地址转换采用硬件完成。

试题33答案

(17)A

试题34(2011年上半年试题18)

某4级流水线如图1-2所示,若每3Δ t 向该流水线输入一个任务,连续输入4个,则该流水线的加速比为 (18)

图1-2 某4级流水线

(18)A.4

B.1.75

C.1.5

D.1

试题34分析

在本题中,如果不采用流水线,则执行完4个任务的时间为4×(Δ t +3Δ t +2Δ t t )= 28Δ t 。采用流水线后,执行4个任务的时空图如图1-3所示:

图1-3 执行4个任务的时空图

由图1-3可知,执行时间为16Δ t ,因此,流水线的加速比为28Δ t /16Δ t =1.75。

试题34答案

(18)B

试题35(2012年上半年试题14~15)

设每条指令由取指、分析、执行3个子部件完成,并且每个子部件的执行时间均为Δ t 。若采用常规标量单流水线处理机(即该处理机的度为1),连续执行16条指令,则共耗时 (14) Δ t 。若采用度为4的超标量流水线处理机,连续执行上述16条指令,则共耗时 (15) Δ t

(14)A.16

B.18

C.32

D.48

(15)A.4

B.5

C.6

D.8

试题35分析

本题考查系统流水线知识。

采用常规标量单流水线处理机(即该处理机的度 m =1),连续执行16条指令的时空图如图1-4所示,从中可以看出,连续执行16条指令所需时间为18Δ t

图1-4 标量流水线处理机执行16条指令的时空图

当采用度 m 为4的超标量流水线处理机,连续执行上述16条指令时,时空图如图1-5所示。从中可以看出,连续执行16条指令所需时间为6Δ t

图1-5 超标量流水处理机执行16条指令的时空图

试题35答案

(14)B (15)C

试题36(2012年上半年试题17)

在高级语言程序中,使用 (17) 访问保存在变量中的数据。

(17)A.物理地址

B.逻辑地址

C.主存地址

D.辅存地址

试题36分析

本题考查存储系统知识。

在高级语言程序中,对存储数据的位置进行了抽象,采用的是虚拟地址。在程序运行时再进行地址变换,分为内部地址变换与外部地址变换。虚拟存储系统按照地址映像方式把虚拟地址转换为主存物理地址,称为内部地址变换。如果要访问的指令或数据已经在主存中,则命中,直接访问即可,否则就发生了页面失效,此时再进行外部地址变换,即将虚拟地址变换为辅存物理地址。

试题36答案

(17)B

试题37(2012年上半年试题18)

以下关于程序访问局部性原理的叙述,错误的是 (18)

(18)A.程序访问具有时间局部性,即最近将要用的信息很可能是正在使用的信息

B.程序访问具有空间局部性,即最近将要用的信息很可能与正在使用的信息在存储空间上是相邻的

C.程序访问局部性是构成层次结构的存储系统的主要依据

D.程序访问局部性是确定存储系统的性能指标(命中率、平均访问时间、访问效率等)的主要依据

试题37分析

本题考查存储系统知识。

程序访问的局部性原理包含两方面的含义:一是时间局部性,指程序在最近的未来要用到的信息很可能是现在正在使用的信息;二是空间局部性,指最近的未来要用到的信息与现在正在使用的信息很可能在空间上是相邻的或相近的,这是因为程序中大多数指令是顺序存放且顺序执行的,数据一般也是聚簇存储在一起的。

程序访问局部性原理是存储层次得以构成和管理的主要依据。根据该原理,可以把空间位置相临近的信息作为一“块”放到容量最小的第一级存储器M1中,在最近未来的一段时间内多次连续访存很可能都在M1的同一“块”中,从而使整个存储系统的访问速度接近于M1的速度。

试题37答案

(18)D

试题38(2013年上半年试题14~15)

某计算机系统采用4级流水线结构执行命令,设每条指令的执行由取指令(2Δ t )、分析指令(1Δ t )、取操作数(3Δ t )、运算并保存结果(2Δ t )组成(注:括号中是指令执行周期)。并分别用4个子部件完成,该流水线的最大吞吐率为 (14) ;若连续向流水线输入5条指令,则该流水线的加速比为 (15)

(14)A.1

B.

C.

D.

(15)A.1:1

B.2:1

C.8:3

D.3:8

试题38分析

本题考查流水线的相关计算。

流水线最大吞吐率计算公式为

其中 k 代表流水线级数, n 为指令数,Δ t 为流水线周期。所以本题流水线的最大吞吐率为

流水线加速比计算公式为

其中 T 0 是不采用流水线的执行时间, T k 是采用流水线的执行时间。

在本题中, T 0 =(2Δ t +1Δ t +3Δ t +2Δ t )× 5=40Δ t T k =(2Δ t +1Δ t +3Δ t +2Δ t )+ 3Δ t ×(5-1)= 20Δ t ,所以加速比为:40Δ t :20Δ t =2:1。

试题38答案

(14)C (15)B

试题39(2013年上半年试题16)

CPU访问存储器时,被访问数据倾向于聚集在一个较小的连续区域中,若一个存储单元已被访问,则其邻近的存储单元有可能还要被访问,该特性被称为 (16)

(16)A.指令局部性

B.数据局部性

C.时间局部性

D.空间局部性

试题39分析

请参考试题21的分析。

试题39答案

(16)D

试题40(2013年上半年试题17)

计算机系统中主机与外设间的输入/输出控制方式有多种,其中占用主机CPU时间最多的是 (17) 方式。

(17)A.通道

B.DMA

C.中断

D.程序查询

试题40分析

在计算机中,输入/输出控制方式主要有5种,分别是程序查询方式(程序控制方式)、程序中断方式、DMA工作方式、通道方式、I/O处理机。这5种方式占用主机CPU时间按由多到少排序为:程序查询方式(程序控制方式)、程序中断方式、DMA工作方式、通道方式、I/O处理机。

试题40答案

(17)D

试题41(2013年上半年试题19)

RISC(精简指令系统计算机)的技术思想是当代计算机设计的基础技术之一, (17) 不是RISC的特点。

(18)A.指令长度固定,指令种类尽量少

B.增加寄存器数目,以减少访存次数

C.寻址方式丰富,指令功能尽可能强

D.用硬布线电路实现指令解码,以尽快对指令译码

试题41分析

请参考试题28的分析。

试题41答案

(18)C u6PCQavQUw4LFvRAcuTVluH/hgrJziwP5aSKHPKPRX0aU+SpPwicdj0fPfTe8CPy

点击中间区域
呼出菜单
上一章
目录
下一章
×