第1章 计算机系统基础
电子计算机的发明是20世纪最重大的事件之一,它使得人类文明的进步达到了一个全新的高度,大大推动了科学技术的迅猛发展。随着微型计算机的出现以及计算机网络的发展,计算机的应用已渗透到社会的各个方面,对人类社会的生产和生活产生了极大影响。本章介绍计算机的发展及时代划分、计算机系统的组成、计算机中的数与信息编码、微型计算机等内容。
1.1 计算机的初期发展史和时代划分
计算机(Computer)是电子计算机的简称,它是一种按照事先储存的程序,自动、高速、精确地对数据进行输入、处理、输出和存储的电子设备。计算机在诞生初期主要被用于科学计算,因此被称之为计算机。现在电子计算机可以对数值、文字、声音以及图像等各种形式的数据进行处理。
1.1.1 电子计算机的初期发展史
下面简单介绍1936~1946年期间,电子计算机发展初期的历史。
1.图灵机
英国数学家艾兰·图灵(Alan Turing)在1937年发表著名的《论应用于解决问题的可计算数字》论文。图灵在论文中把证明数学题的推导过程转变为一台自动计算机的理论模型(被称作图灵机),从理论上证明了制造出通用计算机的可能性,为现代计算机硬件和软件做了理论上的准备。
1966年,为纪念图灵的论文发表30周年,美国计算机协会(ACM)设立“图灵奖”,以纪念这位计算机科学理论的奠基人,专门奖励在计算机科学研究中做出创造性贡献、推动了计算机技术发展的杰出科学家。
2.世界上第一台电子计算机——Atanasoff-Berry Computer,简称ABC
世界上第一台电子计算机是由美国爱荷华州立大学(Iowa State University)的约翰·文森特·阿塔纳索夫(John Vincent Atanasoff)教授和他的研究生克利福特·贝瑞(Clifford Berry)在1939年研制出来的,人们把这台样机称为Atanasoff-Berry Computer(简称ABC),即包含他们两人名字的计算机。阿塔纳索夫的设计目标是能够解含有29个未知数的线性方程组的一台机器。这台计算机的电路系统中装有300个电子真空管执行数值计算与逻辑运算。机器上装有两个记忆鼓,使用电容器来进行数值存储。以电量表示数值。数据输入采用打孔读卡,采用二进位制。ABC的基本体系结构与现代计算机一致,其外观如图1-1所示。
图1-1 Atanasoff-BerryComputer
“ABC”在时间上要早于其他任何我们现在所知道的有关电子计算机的设计方案。事实上,除ENIAC外,其他电子计算机应该说都是独立发明的。尽管ABC不是通用的,而仅仅是用于求解线性方程组,但目前仍公认它是世界上第一台电子计算机。
3.英国的Collossus计算机
Collossus(巨人)计算机是1943年3月开始研制的,当时研制它的主要目的是破译经德国“洛伦茨”加密机加密过的密码。1944年1月10日,巨人计算机开始运行。
巨人计算机呈长方体状,长4.9m,宽1.8m,高2.3m,重约4t。它的主体结构是两排机架,上面安装了2500个电子管。它利用打孔纸带输入信息,由自动打字机输出运算结果,每秒可处理5000个字符。它的耗电量为4500W。
巨人计算机知名度不高,其主要原因是它原先属于高级军事机密。在二战期间研制的10台同类计算机在战后均被秘密销毁,直到20世纪70年代有关材料才逐渐解密。
英国布莱切利园目前展有巨人计算机的重建机,如 图1-2所示。
图1-2 Collossus计算机
4.第一台通用电子计算机——ENIAC
第二次世界大战期间,当时为了给美国军方计算弹道轨迹,迫切需要一种高速的计算工具。因此在美国军方的支持下,ENIAC(Electronic Numerical Integrator And Computer,电子数字积分计算机)于1943年开始研制。参加研制工作的是以宾夕法尼亚大学约翰·莫奇利(John Mauchley)教授和他的研究生普雷斯波·艾克特(John Presper Eckert)为首的研制小组,历时两年多,建造完成的机器在1946年2月14日公布。ENIAC是世界上第一台通用电子计算机,它是比图灵完全的电子计算机,能够重新编程,解决各种计算问题。
ENIAC长30.48m,宽1m,安装在一排2.75m高的金属柜里,占地面积为170m2,重达30t,耗电量150kW。安装了17468只电子管,7200个二极管,70000多个电阻器,10000多只电容器,1500只继电器,6000多个开关,每秒执行5000次加法或400次乘法。ENIAC是按照十进制而不是按照二进制来计算。当年运行中的ENIAC如图1-3所示。
图1-3 当年运行中的ENIAC
5.第一台冯·诺依曼结构的计算机——EDVAC
EDVAC的建造者还是宾夕法尼亚大学的电气工程师约翰·莫奇利和普雷斯波·艾克特。1944年8月,EDVAC的建造计划就被提出,在ENIAC充分运行之前,其设计工作就已经开始。和ENIAC一样,EDVAC也是为美国陆军阿伯丁试验场的弹道研究实验室研制。
冯·诺依曼以技术顾问形式加入,总结和详细说明了EDVAC的逻辑设计,1945年6月发表了一份长达101页的报告,这就是著名的关于EDVAC的报告草案,报告提出的体系结构(即冯·诺依曼结构)一直延续至今。
图1-4 冯·诺依曼与EDVAC
与它的前任ENIAC不同,EDVAC采用二进制编码,而且是一台冯·诺依曼结构的计算机。EDVAC使用了大约6000个真空管和12000个二极管,占地45.5m2,重达7850kg,消耗电力56kW,如图1-4所示。EDVAC是二进制串行计算机,具有加减乘和软件除的功能。物理上包括:一个磁带记录仪;一个连接示波器的控制单元;一个分发单元,用于从控制器和内存接受指令,并分发到其他单元;一个运算单元;一个定时器;使用汞延迟线的存储器单元。
EDVAC于1949年8月交付给弹道研究实验室。在发现和解决许多问题之后,直到1951年EDVAC才开始运行,而且局限于基本功能。
6.冯·诺依曼体系结构
电子计算机的问世,最重要的奠基人是英国数学家艾兰·图灵(Alan Turing)和美籍匈牙利数学家冯·诺依曼(John Von Neumann)。图灵的贡献是建立了图灵机的理论模型,奠定了人工智能的基础。而冯·诺依曼则是首先提出了计算机体系结构的设想。
冯·诺伊曼结构(Von Neumann Architecture)是一种将程序指令存储器和数据存储器合并在一起的计算机设计概念结构。冯·诺伊曼结构这个词出自冯·诺伊曼的论文《First Draft of a Report on the EDVAC》,在EDVAC制造期间,于1945年6月30日发表。冯·诺依曼提出存储程序原理,把程序本身当作数据来对待,程序和该程序处理的数据用同样的方式存储。冯·诺伊曼理论的要点是:数字计算机的数制采用二进制;计算机应该按照顺序执行程序。如图1-5所示,冯·诺伊曼定义了计算机的三大组成部件。
I/O设备:负责数据和程序的输入、输出。
存储器:存储程序和数据。
处理器:分成运算器和控制器,运算器负责数据的加工处理,控制器控制程序的逻辑。
注意:传统的教科书上又把冯·诺伊曼体系结构分成五部分,即输入设备、输出设备、存储器、运算器和控制器。
从ENIAC到现在最先进的计算机,计算机制造技术发生了巨大变化,但都采用的是冯·诺依曼体系结构。
图1-5 冯·诺伊曼体系结构
计算机科学的历史就是一直围绕着这三大部件,从硬件革命到软件革命的发展史。从软件革命的历史来看,计算机科学一直围绕着数据、逻辑和界面三大部分演变,数据对应着存储器,逻辑对应着处理器,界面对应着I/O设备。
1.1.2 电子计算机的时代划分
现代电子计算机的发展,主要是根据其所采用的电子器件的发展而划分,在60多年的发展过程中,一般分成四个阶段,通常称为四代。每代之间不是截然分开的,在时间上有 重叠。
1.第一代——电子管计算机时代(1946~1957年)
第一代是电子管计算机,它的基本电子元件是电子管,内存储器采用水银延迟线,外存储器主要采用磁鼓、纸带、卡片、磁带等。由于当时电子技术的限制,运算速度是每秒几千次~几万次基本运算,内存容量仅几千个字。因此,第一代计算机体积大、耗电多、速度低、造价高、使用不便,主要局限于一些军事和科研部门。软件上采用机器语言,后期采用汇编语言。
代表机型为IBM公司自1952年起研制开发的IBM700系列计算机,从1953年起,美国IBM公司开始批量生产应用于科研的大型计算机系列,从此电子计算机走上了工业生产阶段。图1-6所示是IBM在1954年推出的产品IBM704型电子计算机。
图1-6 IBM704型电子计算机
2.第二代——晶体管计算机时代(1958~1970年)
1948年,美国贝尔实验室发明了晶体管,10年后,晶体管取代了计算机中的电子管,诞生了晶体管计算机。晶体管计算机的基本电子元件是晶体管,内存储器大量使用磁性材料制成的磁芯存储器。与第一代电子管计算机相比,晶体管计算机体积小、耗电少、成本低、逻辑功能强,使用方便、可靠性高。软件上广泛采用高级语言,并出现了早期的操作系统。
1959年,IBM公司生产出全部晶体管化的电子计算机IBM7090,如图1-7所示。IBM7000系列计算机是这一代计算机的主流产品。
图1-7 IBM7090型电子计算机
3.第三代——中、小规模集成电路计算机时代(1963~1970年)
随着半导体技术的发展,1958年夏,美国德克萨斯公司制成了第一个半导体集成电路。第三代计算机的基本电子元件是小规模集成电路和中规模集成电路,磁芯存储器进一步发展,并开始采用性能更好的半导体存储器,运算速度提高到每秒几十万次基本运算。由于采用了集成电路,第三代计算机各方面性能都有了极大提高,体积缩小,价格降低,功能增强,可靠性大大提高。软件上广泛使用操作系统,产生了分时、实时等操作系统和计算机网络。
1965年4月问世的IBM360系列是最早采用集成电路的通用计算机,也是影响最大的第三代计算机,是这一代的代表产品,如图1-8所示。
图1-8 IBM360型电子计算机
4.第四代——大规模和超大规模集成电路计算机时代(1971~现在)
在1967年和1977年,分别出现了大规模集成电路和超大规模集成电路,并立即在电子计算机上得到了应用。第四代计算机的基本元件是大规模集成电路或超大规模集成电路,集成度很高的半导体存储器替代了磁芯存储器。第四代计算机的跨度很大,随着计算机芯片集成度的迅速提高,高性能计算机层出不穷。运算速度飞速增加,达到每秒数千万次至数十万亿次基本运算。在软件方法上产生了结构化程序设计和面向对象程序设计的思想。另外,网络操作系统、数据库管理系统得到广泛应用。
1965年,Intel公司创始人摩尔发现了著名的“摩尔定律”——18个月至24个月内每单位面积芯片上的晶体管数量会翻番。在过去40多年里,摩尔定律一直代表的是信息技术进步的速度,也带来了一场个人计算机的革命。
随着集成电路集成度的提高,计算机一方面向巨型机化发展,另一方面向小型化、微型化发展。微处理器和微型计算机也在这一阶段诞生并获得飞速发展。20世纪70年代,微型计算机问世,电子计算机开始进入普通人的生活。微型计算机是第四代计算机的产物。
目前,尚无法确定第四代的结束和第五代的开始。人们期待着非冯·诺依曼结构计算机的问世和能够取代大规模集成电路的新材料出现。
1.1.3 计算机的分类
随着计算机技术的发展和应用范围的扩大,可以按照不同的方法对计算机分类。
1.计算机的分类方法
(1)按计算机处理数据的类型分类
按计算机处理数据的类型可以分为数字计算机、模拟计算机和数字模拟混合计算机。
(2)按计算机的用途分类
按计算机的用途可分为专用计算机和通用计算机。
专用计算机功能单一,配备有解决特定问题的硬件和软件,能够高速、可靠、经济地解决特定问题,如在导弹、汽车、工业控制等设备中使用的计算机大部分都是专用计算机。
通用计算机功能多样,适应性很强,应用面很广,但其运行效率、速度和经济性依据不同的应用对象会受到不同程度的影响。
2.通用数字计算机的分类
通用数字计算机如果不加特别说明,均称为计算机。按照计算机的性能、规模和处理能力,如运算速度、字长、存储容量、体积、外部设备和软件配置等多方面的综合性能指标,将计算机分为巨型机、大型机、微型机、工作站、服务器等几类。
(1)巨型机
巨型机也称超级计算机(Super Computer),是计算机家族中运行速度最快、存储容量最大、功能最强、体积最大的一类,主要应用于核武器、空间技术、大范围天气预报、石油勘探等领域。
2012年10月,隶属于美国能源部的橡树岭国家实验室的Titan(泰坦)成为世界上运算速度最快的超级计算机,这台超级计算机的浮点计算性能达到了每秒1.759 PFlops(千万亿次浮点运算/s)。Titan超级计算机拥有200个机柜,18688个节点。每一个节点由一个16核心AMD Opteron 6274 CPU和一个NVIDIA Tesla K20 GPU组成。每个节点CPU配有32GB DDR3内存,GPU配有6GB of GDDR5(ECC指出)显存,因此Titan的总内存710TB,它的硬盘则超过10PB——由1万个标准1TB 7200 RPM 2.5in硬盘组成。I/O子系统能传输240GB/s数据。Titan的操作系统是Cray Linux Environment。由于大部分工作都是远程执行的,Titan内部还有几十个10Gbit/s以太网链接,接入了能源部能源科学网络(ESNET)的100Gbit/s骨干网内。Titan超级计算机的外观,如图1-9所示。
2010年10月,中国国防科学技术大学研制的第一台千万亿次超级计算机“天河一号”在湖南长沙亮相,全系统峰值性能为1.206PFlops(千万亿次浮点运算/s),是当时世界上最快的超级计算机。“天河一号”的研制成功使中国成为继美国之后世界上第二个能够研制千万亿次超级计算机的国家。“天河一号”由140个机柜组成,由14336颗Intel六核至强X56702.93GHz CPU、7168颗NVIDIA Tesla M2050 GPU和2048颗自主研发的八核飞腾FT-1000 CPU。操作系统采用64位Linux,支持C、C++、Fortran77/90/95、Java语言。其外观如图1-10所示。
图1-9 Titan(泰坦)超级计算机
图1-10 “天河一号”超级计算机
2010年,“天河一号”曾在第三十六届超级计算机TOP500榜单上名列第一,2011年时排名第二,2012年排名下降至第五。
2013年6月,美国能源部下属橡树岭国家实验室的“泰坦”从上次第一名降至本次第二名,而“天河二号”的运行速度比它快近一倍。
目前,美国拥有全球500强超级计算机的一半以上。中国(不含港、澳、台)共有65个超级计算机进入500强榜单,位居第二。日本以30个位列第三。世界上运算速度最快的超级计算机宝座近年来一直被美国、中国、日本三国交替占据。英国、法国和德国分别以29个、23个和19个位列第四至第六位。
从上面超级计算的配置可以知道,它们所使用的处理器并不特殊,并不是为超级计算机定做的处理器芯片,实际上这些处理器、图形处理器与高端微型计算机中所使用的硬件是一样的。现在,处理器的运行速度并没有得到提高,只是增加了处理器的数量而已。
(2)大型主机(Mainframe)
包括过去所说的大型机和中型机,具有大型、通用、内外存储容量大、多类型I/O通道、支持批处理和分时处理等多种工作方式。近年来,新型机采用了多处理、并行处理等技术,具有很强的管理和处理数据的能力,如IBM AS/400、RS/6000等。广泛应用于金融业、天气预报、石油、地震勘探等领域。
(3)微型机(Microcomputer)
微型机在美国称为个人计算机(Personal Computer),简称PC机,主要指办公和家庭的台式微型计算机和笔记本计算机。
(4)工作站(Workstation)
工作站包括工程工作站、图形工作站等,是一种主要面向特殊专业领域的高档微型机。例如图像处理、计算机辅助设计(CAD)和网络服务器等方面的应用。
(5)服务器(Server)
服务器一词很恰当地描述了计算机在应用中的角色,而不是刻画计算机的档次。服务器作为网络的节点,存储、处理网络上的数据。服务器具有功能强大的处理能力,容量很大的存储器,以及快速的输入输出通道和联网能力。通常它的处理器采用高端微处理器芯片组成,例如用64位的Alpha芯片组成的UNIX服务器,用Intel、AMD公司的多个微处理器芯片组成的NT服务器。现在的云计算、云存储,其功能仍然是服务器。
1.1.4 计算机的特点和应用
1.计算机的特点
计算机是一种能迅速而高效地自动完成信息处理的电子设备,它能按照程序对信息进行加工、处理和存储。计算机具有以下一些特点。
(1)高速、精确的运算能力
现代计算机每秒钟可运行几百万条指令,数据处理的速度相当快,是其他任何工具无法比拟的。计算精度也非常高,是传统计算工具无法比的。
(2)准确的逻辑判断能力
具有可靠逻辑判断能力是计算机能实现信息处理自动化的重要原因。能进行逻辑判断,使计算机不仅能对数值数据进行计算,也能对非数值数据进行处理,使计算机能广泛应用于非数值数据处理领域,如信息检索、图形识别以及各种多媒体应用等。
(3)强大的存储能力
计算机能存储大量数字、文字、图像、视频、声音等各种信息,而且还可以长期保存。
(4)自动功能
利用计算机解决问题时,人们启动计算机输入编制好的程序以后,计算机可以自动执行,一般不需要人直接干预运算、处理和控制过程,而且可以反复运行。
(5)网络与通信功能
通过网络可以连接距离在校园内、企业内、城市内、国家内的用户。尤其是通过互联网(Internet)可以连接全世界的用户。计算机网络功能的重要意义是它改变了人类交流的方式和信息获取的途径。
2.计算机的应用
正是由于计算机具有卓越的计算及信息处理能力,从而在现代社会中得到越来越广泛的应用。根据目前使用情况,计算机的应用大致划分为以下几个方面。
(1)科学计算
在自然科学中,诸如数学、物理、化学、天文、地理等领域;在工程技术中,诸如航天、汽车、造船、建筑等领域,计算工作量非常大。传统的计算工具难以完成,现在无一不利用计算机进行复杂的计算,使很多幻想变成现实。
(2)数据和信息处理
数据和信息处理也称非数值计算。信息处理就是指对各种信息进行收集、存储、整理、统计、加工、利用、传播等一系列活动的统称,目的是获取有用的信息作为决策的依据。目前,计算机信息处理已广泛地应用于办公自动化、企事业计算机辅助管理与决策、情报检索、电影电视动画设计、会计电算化、图书管理、医疗诊断等等各行各业。
(3)过程控制
工业生产过程自动控制能有效地提高劳动生产率。过去工业控制主要采用模拟电路,响应速度慢、精度低,现在已逐渐被微型机控制所取代。微机控制系统,把工业现场的模拟量、开关量以及脉冲量经放大电路和模/数、数/模转换电路,送给微型机进行数据采集处理、显示以及控制现场。微机控制系统除了应用于工业生产外,还广泛应用于交通、邮电、卫星通信等。
(4)计算机辅助
利用计算机辅助人们完成某一个系统的任务,叫作“计算机辅助系统”。目前计算机辅助系统主要有以下三种:
1)计算机辅助设计(CAD)。利用计算机辅助人们进行设计工作,使设计过程实现半自动化或自动化。
2)计算机辅助制造(CAM)。利用计算机直接控制零件的加工,实现无图纸加工。
20世纪60年代开始,许多西方国家就开始了计算机辅助设计与制造的研究。应用计算机图形方法学,对建筑工程、机械结构和部件进行设计,如飞机、船舶、汽车、建筑、印制电路板等。通过CAD和CAM的结合,就可直接把CAD设计的产品加工出来。
3)计算机辅助教学(CAI)。利用计算机辅助进行教学,它把课程内容编成计算机软件,不同学生可以根据自己的需要选择不同的内容和进度,从而改变了传统的教学模式。
4)游戏。可以与计算机或者通过Internet与其他玩家比赛。
(5)网络通信
目前,计算机网络已经无处不在,越来越多的工作、生活已经依赖网络,例如,办公、购物、联系、娱乐等。
(6)人工智能
人工智能是计算机应用的一个崭新领域,利用计算机模拟人的智能,用于机器人、医疗诊断专家系统、推理证明等各方面。
(7)多媒体应用
多媒体是指包括文本、图形、图像、音频、视频、动画等多种信息类型的综合。多媒体技术是指人和计算机交互地进行上述多种媒介信息的捕捉、传输、转换、编辑、存储、管理,并由计算机综合处理为表格、文字、图形、动画、音频、视频等视听信息有机结合的表现形式。多媒体技术拓宽了计算机的应用领域,使计算机广泛应用于娱乐、教育、广告、设计等方面。
(8)嵌入式系统
在工业制造系统、电子产品中,把处理器芯片嵌入这些设备中,完成特定的功能,这些系统称为嵌入式系统。如工厂机器人、数码相机、自动洗衣机等,都使用了不同功能的处理器。
1.1.5 计算机的发展趋势
计算机发展的趋势是巨型化、微型化、多媒体化、网络化和智能化。
1.巨型化
巨型化是指发展高速、大储量和强功能的超大型计算机。这既是诸如天文、气象、原子、核反应等尖端科学以及进一步探索新兴科学,诸如宇宙工程、生物工程的需要,也是为了能让计算机具有人脑学习、推理的复杂功能。在目前知识信息急剧增加的情况下,存储和处理这些信息是必要的。现在巨型机的计算速度高达千万亿次浮点运算/s。
2.微型化
因大规模、超大规模集成电路的出现,计算机微型化迅速。因为微型机可渗透至诸如仪表、家用电器、导弹弹头等中、小型机无法进入的领域,所以20世纪80年代以来发展异常迅速,可以预见其性能指标将进一步提高,而价格则逐渐下降。
3.多媒体化
多媒体是“以数字技术为核心的图像、声音与计算机、通信等融为一体的信息环境”的总称。多媒体技术的目标是:无论在何时何地,只需要简单的设备就能自由地以交互和对话的方式交流信息。其实质是让人们利用计算机以更加自然、简单的方式进行交流。
4.网络化
计算机网络是计算机技术发展中崛起的又一重要分支,是现代通信技术与计算机技术结合的产物。从单机走向联网,是计算机应用发展的必然结果。目前的云计算就是网络化的新阶段。
5.智能化
智能化是让计算机模拟人的感觉、行为、思维过程的机理,从而使计算机具备和人一样的思维和行为能力,形成智能型和超智能型的计算机。智能化的研究包括模式识别、物形分析、自然语言的生成和理解、定理的自动证明、自动程序设计、专家系统、学习系统、智能机器人等。人工智能的研究使计算机远远突破了“计算”的最初含义,从本质上拓宽了计算机的能力,可以越来越多地、更好地代替或超越人的脑力劳动。
1.2 计算机系统的组成
一个计算机系统包括硬件和软件两大部分。硬件是由电子的、磁性的、机械的部件组成的实体,包括运算器、存储器、控制器、输入设备和输出设备5个基本组成部分;软件则是程序和相关文档的总称,包括系统软件和应用软件两类。系统软件是为了计算机的软硬件资源进行管理、提高计算机的使用效率和方便用户而编制的各种通用软件,一般由软件公司设计。常用的系统软件有操作系统、程序设计语言编译系统、诊断程序等。应用软件是专门为某一应用目的而编制的软件,常用的应用软件有字处理软件、表处理软件、统计处理软件、计算机辅助软件、过程控制与适时处理软件以及其他应用于社会各行各业的应用程序。
1.2.1 冯·诺伊曼型计算机的特点
1945年,数学家冯·诺伊曼等人在研究EDVAC时,提出了“存储程序”的概念,以此概念为基础的各类计算机通称为冯·诺伊曼型机。它的特点可归结为以下几个方面。
1)计算机由运算器、存储器、控制器和输入设备、输出设备五大部件组成。
2)各基本部件的功能是:在存储器中以同等地位存放指令和数据,并按地址访问,计算机能区分数据和指令;控制器能自动执行指令;运算器能进行加、减、乘、除等基本运算;操作人员能通过输入、输出设备与主机进行通信。
3)计算机内部采用二进制表示指令和数据。指令由操作码和地址码组成,操作码用来表示操作的性质,地址码用来表示操作数所在存储器中的位置。由一串指令组成程序。
4)把编好的程序和原始数据送入主存储器中,启动计算机工作,计算机应在不需操作人员干预的情况下,自动完成逐条取出指令和执行指令的任务。
到目前为止,大多数计算机基本上仍属于冯·诺伊曼型计算机。
1.2.2 计算机的硬件系统
计算机硬件(Computer Hardware)是指计算机系统中由电子、机械和光电元件等组成的各种物理装置的总称。这些物理装置按系统结构的要求构成一个有机整体为计算机软件运行提供物质基础。计算机的硬件系统一般由五大部分组成,即运算器、存储器、控制器、输入设备和输出设备。现代的计算机以存储器为中心,如图1-11所示(图中实线为控制线,虚线为反馈线,双线为数据线)。运算器和控制器常合在一起称为中央处理器,简称CPU(Central Processing Unit),而中央处理器和主存储器(内存)一起构成计算机主机,简称主机。
外部设备简称“外设”,它是计算机系统中输入、输出设备(包括外存储器)的统称,是除了CPU和内存以外的其他设备,对数据和信息起着传输、转送和存储的作用。外部设备能扩充计算机系统。
1.运算器(Arithmetic Logic Unit)
运算器又称为算术逻辑单元(简称ALU),是执行算术运算和逻辑运算的功能部件,包括加、减、乘、除算术运算及与、或、非逻辑运算等。运算器的组成包括两部分,一部分是算术逻辑部件,是运算器的核心,主要由加法器和有关数据通路组成;另一部分是寄存器部件,用来暂时存放指令、将被处理的数据以及处理后的结果。
图1-11 以存储器为中心的计算机结构框图
运算器的性能是影响整个计算机性能的重要因素。运算器并行处理的二进制代码的位数(字长)的多少决定了计算机精度的高低,同时运算器进行基本运算的速度也将直接影响系统的速度,因此,精度和速度就成了运算器的重要性能参数。
2.控制器(Control Unit)
控制器是计算机的指挥中心,它的主要功能是按照人们预先确定的操作步骤,控制整机各部件协调一致地自动工作。控制器要从内存中按顺序取出各条指令,每取出一条指令,就进行分析,基本功能是将指令翻译并转换成控制信号(电脉冲),并按时间顺序和节拍,发往其他各部件,指挥各部件有条不紊地协同工作。当一条指令执行完毕后,它会自动顺序地去取下一条要执行的指令,重复上述工作过程,直到整个程序执行完毕。
3.存储器(Memory)
存储器是计算机用来存储数据的重要功能部件,它不仅能保存大量二进制信息,而且能读出信息,交给处理器处理,或者把新的信息写入存储器。
一般来说,存储系统分为两级:一级为内存储器(主存储器),其存储速度较快,但容量相对较小,可由CPU直接访问;另一级为外存储器(辅助存储器),它的存储速度慢,但容量很大,不能被CPU直接访问,必须把其中的信息送到主存储器后才能被CPU处理。
内存储器由许多存储单元组成,每个存储单元可以存放若干个二进制代码,该代码可以是指令,也可以是数据。为区分不同的存储单元,通常把内存中全部存储单元统一编号,此号码称为存储单元的地址码,当计算机要把一个代码存入其存储单元中或者从其存储器取出时,首先要把该存储单元的地址码通知存储器,然后由存储器找到该地址对应的存储单元,并存取信息。
4.输入设备(Input Device)
输入设备用来接收用户输入的原始数据和程序,并将它们转变为计算机能识别的形式(二进制数)存放到内存中。常用的输入设备有键盘、鼠标、扫描仪等。
5.输出设备(Output Device)
输出设备用于将存放在内存中由计算机处理的结果转变为人们所能接受的形式。常用的输出设备有显示器、打印机、音箱、绘图仪等。
磁盘及磁盘驱动器是计算机中的常用设备,既能从中读取数据(输入),也能把数据保存到其中(输出)。因此,磁盘及驱动器既是输入设备,也是输出设备,同时又是存储设备。
输入设备与输出设备,统称为I/O设备。
6.总线(Bus)
将上述计算机硬件的五大功能部件,按某种方法用一组导线连接起来,构成一个完整的计算机硬件系统。这一组导线通常称为总线,它构成了各大部件之间信息传送的一组公共通路。采用总线结构后,计算机系统的连接就显得十分清晰,部件间联系比较规整,既减少了连线,同时使部件的增减变得容易,给计算机的生产、维修和应用带来很大的方便。
1.2.3 计算机的软件系统
软件是和硬件相对应的概念,计算机软件(Computer Software,也称软件、软体)是指计算机系统中的程序及其文档,程序是计算任务的处理对象和处理规则的描述;文档是为了便于了解程序所需的阐明性资料。程序必须装入机器内部才能工作,文档一般是给人看的,不一定装入机器。泛指能在计算机上运行的各种程序甚至包括各种有关的资料。计算机软件具有重复使用和多用户使用的特性。裸机是指没有配置操作系统和其他软件的计算机,在裸机上只能运行机器语言源程序。
计算机软件系统由系统软件、支撑软件和应用软件组成,包括操作系统、语言处理系统、数据库系统等。软件可以分为系统软件和应用软件两大类。
1.系统软件
系统软件是管理、监督和维护计算机资源的软件。系统软件的作用是缩短用户准备程序的时间,扩大计算机处理程序的能力,提高其使用效力,充分发挥计算机的各种设备的作用等。它包括操作系统、程序设计语言、语言处理程序、数据库管理系统、网络软件、系统服务程序等。
(1)操作系统
操作系统(Operating System,OS)用于管理计算机的硬件资源和软件资源,以及控制程序的运行。操作系统是配置在计算机硬件上的第一层软件,其他所有的软件都必须运行在操作系统之中。操作系统是所有计算机都必须配置的软件,是系统软件的核心,通常具有5大功能,即作业管理、文件管理、存储管理、设备管理、进程管理。操作系统的主要作用是资源管理、程序控制和人机交互等。
操作系统的类型分为批处理操作系统、分时操作系统、实时操作系统、嵌入式操作系统、个人计算机操作系统、网络操作系统、分布式操作系统。
著名的操作系统有UNIX、DOS、OS/2、Mac OS X、Windows、Linux、Chrome OS等,现在最有名的微机操作系统是Microsoft公司的Windows(2000/XP/VISTA/7/8/10)、Apple公司的Mac OS X、源代码完全开放的Linux和Google公司的Chrome OS。
(2)程序设计语言
语言处理程序是用于处理程序设计语言的软件,如编译程序等。程序设计语言从历史发展的角度来看,包括以下几种:
1)机器语言(Machine Language)。机器语言也称作二进制代码语言,是用直接与计算机打交道的二进制代码指令组成的计算机程序设计语言。一条指令就是机器语言中的一个语句,每一条指令都由操作码和操作数组成,无须编译和解释。这是第一代语言。
2)汇编语言(Assembler Language)。汇编语言是第二代语言,是一种符号化了的机器语言,也称符号语言,于20世纪50年代开始使用。它更接近于机器语言而不是人的自然语言,所以仍然是一种面向机器的语言。汇编语言执行速度快、占用内存小。它保留了机器语言中每一条指令都由操作码和操作数组成的形式。使用汇编语言不需要直接使用二进制“0”和“1”来编写,不必熟悉计算机的机器指令代码,但是还要一条指令一条指令地编写。
计算机必须将汇编语言程序翻译成由机器代码组成的目标程序才能执行。这个翻译过程称为汇编。自动完成汇编过程的软件叫汇编程序。
汇编工作由机器自动完成,最后得到以机器码表示的目标程序。将二进制机器语言程序翻译成汇编语言程序的过程称反汇编。
3)高级语言(High-level Programming Language)。高级语言是高度封装了的编程语言,与低级语言相对。它是以人类的日常语言为基础的一种编程语言,使用一般人易于接受的文字来表示,使程序编写员编写更容易,亦有较高的可读性。由于早期计算机业的发展主要在美国,因此一般的高级语言都是以英语为蓝本。高级语言是第三代语言,它是一种算法语言,可读性强,从根本上摆脱了语言对机器的依附,由面向机器转为面向过程,进而面向用户。现在微机的高级语言均运行在Windows下,例如C#、Java等。
目前,第四代非过程语言、第五代智能语言相继出现,可视化编程就像处理文档一样简单。发展的结果是使程序的设计更简捷,而功能更强大。
(3)语言处理程序
用汇编语言或各种高级语言编写的程序称为源程序。把计算机本身不能直接执行的源程序翻译成相应的机器语言程序,这种翻译后的程序称为目标程序。这个翻译过程有两种方式:解释方式和编译方式,如图1-12所示。
图1-12 高级语言使用过程
a)编译过程 b)解释过程
(4)数据库管理系统
数据库管理系统(DataBase Management System,DBMS)是专门用于管理数据库的计算机系统软件,介于应用程序与操作系统之间,是一层数据管理软件。数据库管理系统能够为数据库提供数据的定义、建立、维护、查询和统计等操作功能,并完成对数据完整性、安全性进行控制的功能。
现今广泛使用的数据库管理系统有微软公司的Microsoft SQL Server、Access,甲骨文公司的ORACLE、MySQL,IBM公司的DB2、Informix等。
(5)网络软件
主要指网络操作系统,如UNIX、Windows Server、Linux等。
(6)系统服务程序
又称为软件研制开发工具、支持软件、支撑软件、工具软件,常用的服务程序主要有编辑程序、调试程序、装配和连接程序、测试程序等。
2.应用软件
应用软件是用户为了解决某些特定具体问题而开发和研制或外购到的各种程序,它往往涉及应用领域的知识,并在系统软件的支持下运行。例如,字处理、电子表格、绘图、课件制作、网络通信(如WPS Office、Word、Excel、PowerPoint、AutoCAD、Protel DXP等),以及用户程序(如工资管理程序、财务管理程序等)。
1.2.4 程序的自动执行
程序是按照一定顺序执行的、能够完成某一任务的指令集合。人们把事先编好的程序调入内存,并通过输入设备将待处理的数据输入内存中;一旦程序运行,控制器便会自动地从内存逐条取出指令,对指令进行译码,按指令的要求来控制硬件各部分工作;运算器在控制器的指挥下从内存读出数据,对数据进行处理,然后把处理的结果数据再存入内存;输出设备在控制器的指挥下将结果数据从内存读出,以人们要求的形式输出信息,让人们看到或听到,这样就完成了人所规定的一项任务。
计算机就是这样周而复始地读取指令和执行指令,自动、连续地处理信息,或者暂时停下来向用户提出问题,待用户回答后再继续工作,直至完成全部任务。这种按程序自动工作的特点使计算机成为唯一能延伸人脑功能的工具,因此被人们称为“电脑”。
1.2.5 计算机的指标
计算机的技术指标影响着它的功能和性能,一般用计算机配置的高低来衡量计算机性能的优劣。与配置有关的技术指标有位数、速度、容量、带宽、版本、可靠性等。
1.位
计算机内部采用二进制来计数和运算,一个二进制数的最小存储单位被称为一个位(bit),它具有0和1两种状态,按“逢二进一”的规律计数。例如,十进制的2用二进制表示就是10,读作“壹零”而不是“十”。计算机里所有的指令都是用二进制表示。
位是指计算机处理器,特别是其中的寄存器,能够保存数据的位数。寄存器的位数越高,处理器一次能够处理的信息就越多。位数用英文“bit”来表示。计算机的位数有8位、16位、32位及64位之分。
计算机存储信息最小的单位是字节(Byte,1Byte=8bit)。早期的286计算机是16位,Intel Pentium系列都是32位,Intel Core系列都是64位。
2.速度
速度是指计算机处理速度的快慢,它可以用每秒钟处理指令的多少来表示,也可以用每秒钟处理事务的多少来表示。单位MIPS(Million Instructions Per Second),表示每秒执行一百万条指令。速度是用户最关心的一项技术指标。由于运算快慢与微处理器的时钟频率紧密相关,所以更常用主频来表示处理速度,主频的单位是Hz。例如,Intel Core i73770的主频是3.5GHz。
3.容量
容量通常指存储器容量。存储容量的大小不仅影响着存放程序和数据的多少,而且也影响着运行这些程序的速度。这是用户在购买机器时关心的又一个关键问题。存储容量的基本单位是字节(Byte,简称B),另外还用KB、MB、GB、TB作为存储容量的单位。
4.带宽
带宽是指计算机的数据传输率,主要针对网络通信,它反映了计算机的通信能力,与通信相关的设备、线路都有带宽指标。数据传输率的单位是bit/s,代表每秒传输的位数。除了bit/s以外还有kbit/s,表示每秒传输1000bit,Mbit/s表示每秒传输1Mbit,Gbit/s表示每秒传输1Gbit。例如,网络适配器(网卡)的速率为10Mbit/s或100Mbit/s(10/100Mbit/s),调制解调器速率为56kbit/s等。
5.版本
计算机的硬件、软件在不同时期有不同的版本,本来型号及版本带有更多商业色彩,不能算作技术指标,但是版本序号往往能简单地反映出性能的优劣。一般来说,版本越高其性能就越优越。例如,Windows 7操作系统比Windows VISTA/XP操作系统的性能更优越。
6.可靠性
可靠性通常用平均无故障时间(MTBF)来表示。这里的故障主要指硬件故障,不是指软件误操作引起的失败。
1.3 计算机中的数与信息编码
由于技术上的原因,计算机内部采用二进制形式的数字表示数据。计算机通过对二进制形式的数字进行运算加工,实现对各种信息的加工处理。
1.3.1 计算机中的数制
数制,也称计数制或计数法,是指用一组基本符号(即数码)和一定的使用规则表示数的方法,它以累计和进位的方式进行计数,实现了以很少的符号表示大范围数字的目的。在日常生活中经常用到数制,除了最常用的十进制计数外,还常用非十进制的计数法,例如,1年有12个月,是12进制计数法;1天有24个小时,是24进制计数法;1小时60分钟,是60进制计数法等。筷子、袜子、手套,两只是一双,是二进制计数法。
1.十进制数(Decimal)
十进制数用0,1,2,…,9十个数码表示,并按“逢十进一”、“借一当十”的规则计数。十进制的基数是10,不同位置具有不同的位权。对于任意一个十进制数,可用小数点把数分成整数和小数两部分。在数的表示中,每个数字都要乘以基数10的幂次。十进制数中小数点向右移一位,数就扩大10倍;反之,小数点向左移一位,数就缩小为原来的1/10。
【演练1-1】十进制数“12345.67”按位权展开式为:
(12345.67)10=1×104+2×103+3×102+4×101+5×100+6×10-1+7×10-2
十进制是人们最习惯使用的数制,在计算机中一般把十进制作为输入、输出的数据形式。为了把不同进制的数区分开,将十进制数表示为(N)10,有时也在数字后加上“D”或“d”来表示十进制数,如(123)10=123D=123d。
2.二进制数(Binary)
二进制数用0,1两个数码表示,二进制数的运算很简单,遵循“逢二进一”、“借一当二”的规则。二进制的基数是2,不同位置具有不同的位权。在二进制数的表示中,每个数字都要乘以基数2的幂次。
【演练1-2】二进制数“1010.101”按位权展开式为:
(1010.101)2=1×23+0×22+1×21+0×20+1×2-1+0×2-2+1×2-3
二进制数常用(N)2来表示,有时也在二进制数后加上“B”或“b”来表示二进制数,例如(11001)2=11001B=11001b。
3.八进制数(Octal)
八进制数用符号0,1,2,3,4,5,6,7表示。计数时“逢八进一”,基数为8。
【演练1-3】八进制数“543.21”按位权展开式为:
(543.21)8=5×82+4×81+3×80+2×8-1+1×8-2
八进制数常用(N)8来表示,也可以在数字后加上“O”或“o”来表示,例如(456)8=456O=456o。
4.十六进制数(Hexadecimal)
十六进制数用0,1,2,…,9,A,B,C,D,E,F十六个数码表示,A表示10,B表示11,……,F表示15。基数是16。十六进制数的运算,遵循“逢十六进一”、“借一当十六”的规则。不同位置具有不同的位权,各位上的权值是基数16的若干次幂。
【演练1-4】“1CB.D8”按位权展开式为:
(1 C B.D 8)16=1×162+12×161+11×160+13×16-1+8×16-2
十六进制数常用(N)16来表示,也可以在数字后加上“H”或“h”来表示,例如(4FD)16=4FDH=4FDh。
5.常用数制的基数对照表
常用的十进制、二进制、八进制、十六进制数的基数对照表,见表1-1。
表1-1 十进制、二进制、八进制、十六进制数的基数对照表
1.3.2 二进制数的算术运算和逻辑运算
1.二进制数的算术运算
二进制数的算术运算包括:加、减、乘、除运算,它们的运算规则如下:
【演练1-5】计算10101011+00100110的值。
2.二进制的逻辑运算
二进制的两个数码0和1,可以表示“真”与“假”、“是”与“否”、“成立”与“不成立”。计算机中的逻辑运算通常是二值运算。它包括三种基本的逻辑运算:与运算(又称逻辑乘法)、或运算(又称逻辑加法)、非运算(又称逻辑否定)。
(1)逻辑与
当两个条件同为真时,结果才为真。其中有一个条件不为真,结果必为假,这是“与”逻辑。通常使用符号∧、·、×、∩或AND来表示“与”,与运算的规则如下:
0∧0=0 0∧1=0 1∧0=0 1∧1=1
设两个逻辑变量X和Y进行逻辑与运算,结果为Z。记作Z=X·Y,由以上的运算法则可知:当且仅当X=1,Y=1时,Z=1,否则Z=0。
【演练1-6】设X=10101011,Y=00100110,求X∧Y的值。
(2)逻辑或
当两个条件中任意一个为真时,结果为真;两个条件同时为假时,结果为假,这是“或”逻辑。通常使用∨、+、∪、OR来表示“或”,或运算的法则如下:
0∨0=0 0∨1=1 1∨0=1 1∨1=1
设两个逻辑变量X和Y进行逻辑或运算,结果为Z。记作Z=X+Y,由以上的运算法则可知:当且仅当X=0,Y=0时,Z=0;否则Z=1。
【演练1-7】设X=10101011,Y=00100110,求X∨Y的值。
(3)逻辑非
逻辑非运算也就是“求反”运算,在逻辑变量上加上一条横线表示对该变量求反,例如 ,则是对A的非运算,也可用NOT来表示非运算。非运算的法则如下:
【演练1-8】设X=10101011,求X的值。
1.3.3 不同数制间的转换
数制间的转换就是将数从一种数制转换成另一种数制。由于计算机采用二进制,但用计算机解决实际问题时,对数值的输入输出通常使用十进制数,这就有一个十进制数向二进制数转换或由二进制数向十进制数转换的过程。
1.十进制数转换成二进制数
将十进制数转换成二进制数,要将十进制数的整数部分和小数部分分开进行。将十进制的整数转换成二进制整数,遵循“除2取余、逆序排列”的规则;将十进制小数转换成二进制小数,遵循“乘2取整、顺序排列”的规则;然后再将二进制整数和小数拼接起来,形成最终转换结果。
【演练1-9】将(69.6875)10转换成二进制数。
1)十进制数整数69转换成二进制数的过程。
转换结果:(69)10=(1000101)2
2)十进制小数0.6875转换成二进制小数的过程。
转换结果:(0.6875)10=(0.1011)2
必须指出,一个十进制小数不一定能完全准确地转换成二进制小数。可以根据精度要求转换到小数点后某一位为止。
最后结果:(69.6875)10=(1000101.1011)2
2.十进制数转换成十六进制数
将十进制数转换成十六进制数与转换成二进制数的方法相同,也要将十进制数的整数部分和小数部分分开进行。将十进制的整数转换成十六进制整数,遵循“除16取余、逆序排列”的规则;将十进制小数转换成十六进制小数,遵循“乘16取整、顺序排列”的规则;然后再将十六进制整数和小数拼接起来,形成最终转换结果。
【演练1-10】将十进制数58.75转换成十六进制数。
1)先转换整数部分58。
转换结果:(58)10=(3A)16。
2)再转换小数部分0.75。
转换结果:(0.75)10=(0.C)16。
最后结果:(58.75)10=(3A.C)16
需要指出的是,一个十进制小数也不一定能完全准确地转换成十六进制小数。
3.十进制数转换成八进制数
将十进制数转换成八进制数与转换成二进制数的方法相同,也要将十进制数的整数部分和小数部分分开进行。将十进制的整数转换成八进制整数,遵循“除8取余、逆序排列”的规则;将十进制小数转换成八进制小数,遵循“乘8取整、顺序排列”的规则;然后再将八进制整数和小数拼接起来,形成最终转换结果。
4.二进制数与十六进制数之间的相互转换
(1)十六进制数转换成二进制数
由于一位十六进制数正好对应四位二进制数,对应关系见表1-1,因此将十六进制数转换成二进制数,每一位十六进制数分别展开转换为二进制数即可。
【演练1-11】将十六进制数(1ABC.EF1)16转换为二进制数。
转换结果:(1ABC.EF1)16=(1101010111100.111011110001)2
(2)二进制数转换成十六进制数
将二进制数转换成十六进制数的方法,可以表述为:以二进制数小数点为中心,向两端每四位组成一组(若高位端和低位端不够四位一组,则用0补足),然后每一组对应一个十六进制数码,小数点位置对应不变。
【演练1-12】将二进制数(101111111010101.10111)2转换为十六进制数。
转换结果:(101111111010101.10111)2=(5FD5.B8)16
5.二进制数与八进制数之间的相互转换
(1)八进制数转换成二进制数
由于一位八进制数正好对应三位二进制数,对应关系见表1-1,因此将八进制数转换成二进制数,每一位八进制数分别展开转换为二进制数即可。
【演练1-13】将八进制数(7421.046)8转换成二进制数。
把八进制数转换为二进制数,用“一位拆三位”的办法,把每一位八进制数写成对应的三位二进制数,然后连接起来。
转换结果:(7421.046)8=(111100010001.000100110)2
(2)二进制数转换成八进制数
将二进制数转换成八进制数的方法,可以表述为:以二进制数小数点为中心,向两端每三位组成一组(若高位端和低位端不够三位一组,则用0补足),然后每一组对应一个八进制数码,小数点位置对应不变。
【演练1-14】将(1010111011.0010111)2转换为八进制数。
从小数点分别向左、右三位一组,写出对应的八进制数。
转换结果:(1010111011.0010111)2=(1273.134)8
6.二、八、十六进制数转换为十进制数
把二进制数、八进制数、十六进制数转换为十进制数,通常采用按权展开相加的方法,即把二进制数(或八进制数、十六进制数)写成2(或8、16)的各次幂之和的形式,然后按十进制计算结果。
【演练1-15】把二进制数(1011.101)2转换成十进制数。
(1011.101)2=1×23+0×22+1×21+1×20+1×2-1+0×2-2+1×2-3
=8+0+2+1+0.5+0+0.125
=(11.625)10
【演练1-16】把八进制数(123.45)8转换成十进制数。
(123.45)8=1×82+2×81+3×80+4×8-1+5×8-2
=(83.578125)10
【演练1-17】把十六进制数(3AF.4C)16转换成十进制数。
(3AF.4C)16=3×162+10×161+15×160+4×16-1+12×16-2
=(943.296875)10
1.3.4 计算机中数值型数据的表示
1.机器数与真值
在计算机中只能用数字化信息来表示数据,非二进制整数输入到计算机中都必须以二进制格式来存放,同时数值的正、负也必须用二进制数来表示。规定用二进制数“0”表示正数,用二进制数“1”表示负数,且用最高位作为数值的符号位,每个数据占用一个或多个字节。这种连同符号与数字组合在一起的二进制数称为机器数,机器数所表示的实际值称为真值。
【演练1-18】分别求十进制数“+38”和“-38”的真值和机器数。
由于(38)10=(100110)2,所以
(+38)10的真值为+100110,机器数为00100110。
(-38)10的真值为-100110,机器数为10100110。
【演练1-19】分别求十进制数“+158”和“-158”的机器数。
由于十进制数“158”的二进制数为“10011110”,二进制数本身已经占满8位,即真值占用了符号位,因此,要用两个字节表示该二进制数。
由于(158)10=(10011110)2,所以
(+158)10的机器数为0000000010011110。
(-158)10的机器数为1000000010011110。
2.原码、反码与补码
在机器数中,数值和符号全部数字化。计算机在进行数值运算时,采用把各种符号位和数值位一起编码,通常用原码、反码和补码三种方式表示。其主要目的是解决减法运算。任何正数的原码、反码和补码的形式完全相同,负数的表示形式则各不相同。
(1)原码
原码是机器数的一种简单的表示法。其符号位用0表示正号,用1表示各种负号,数值一般用二进制形式表示。设有一数为X,则原码可记作(X)原。
用原码表示数简单、直观,与真值之间的转换方便。但不能用它直接对两个同号数相减或两个异号数相加。
【演练1-20】求十进制数“+38”与“-38”的原码。
由于(38)10=(100110)2
所以,(+38)原=00100110
(-38)原=10100110
(2)反码
机器数的反码可由原码得到。如果机器数是正数,则该机器数的反码与原码一样;如果机器数是负数,则该机器数的反码是对它的原码(符号位除外)各位取反,即“0”变为“1”,“1”变为“0”。任何一个数的反码的反码就是原码本身。
设有一数X,则X的反码可记作(X)反。
【演练1-21】求十进制数“+38”与“-38”的反码。
由于正数的反码和原码相同,
所以,(+38)反=(+38)原=00100110
(-38)原=10100110
(-38)反=11011001
(3)补码
如果机器数是正数,则该机器数的补码与原码一样;如果机器数是负数,则该机器数的补码是其反码加1(即对该数的原码除符号位外各位取反,然后加1)。任何一个数的补码的补码就是原码本身。设有一数X,则X的补码可记作(X)补。
【演练1-22】求十进制数“+38”与“-38”的补码。
由于正数的补码和原码相同,
所以,(+38)补=(+38)原=00100110
(-38)原=10100110
(-38)反=11011001
(-38)补=11011010
运用补码,则加减法运算都可以用加法来实现,并且两数的补码之“和”等于两数“和”的补码。目前,在计算机中加减法基本上都是采用补码进行运算的。
补码表示数的范围与二进制位数有关。
1)当采用8位二进制表示时,小数补码的表示范围:
最大为0.1111111,其真值为(+0.99)10;最小为1.0000000,其真值为(-1)10。
2)当采用8位二进制表示时,整数补码的表示范围:
最大为01111111,其真值为(+127)10;最小为10000000,其真值为(-128)10。
在补码表示法中,0只有一种表示形式:
(+0)补=00000000
(-0)补=11111111+1=00000000(由于受设备字长的限制,最后的进位丢失)
所以有(+0)补=(-0)补=00000000。
3.整数的取值范围
机器数所表示的数的范围受设备限制。在计算机中,一般用若干个二进制位表示一个数或一条指令,把它们作为一个整体来处理、存储和传送。这种作为一个整体来处理的二进制位串,称为计算机字。
计算机是以字为单位进行处理、存储和传送的,所以运算器中的加法器、累加器以及其他一些寄存器都选择与字长相同的位数。字长一定,则计算机数据字所能表示的数的范围也就确定了。例如,一个数若不考虑它的符号,即无符号数,若用8位字长的计算机(简称8位机,即一个字节)表示无符号整数,可以表示的最大值为(255)10=(11111111)2,则数的范围是0~255。运算时,若数值超出机器数所能表示的范围,就会停止运算和处理,这种现象称为溢出。
正整数原码的符号位用0表示,负整数原码的符号位用1表示,对8位机来讲,当数用原码表示时,表示的范围为-127~+127。
正整数的反码是它本身,负整数的反码为符号位取1,数值部分取反,对8位机来讲,当数用反码表示时,表示的范围为-127~+127。
正整数的补码是它本身,负整数的补码等于反码加1,对8位机来讲,当数用补码表示时,表示的范围为-128~+127。
4.定点数和浮点数
计算机中运算的数,有整数,也有小数。通常有两种规定:一种是规定小数点的位置固定不变,这时的机器数称为定点数。另一种是小数点的位置可以浮动,这时的机器数称为浮点数。微型机多使用定点数。
(1)定点数
定点数是指机器数中的小数点的位置固定不变。
如果小数点隐含固定在整个数值的最右端,符号位右边所有的位数表示的是一个整数,即为定点整数。例如,对于16位机,如果符号位占1位,数值部分占15位,于是机器数为0111111111111111的等效十进制数为+32767,其符号位、数值部分、小数点的位置示意如图1-13所示。
如果小数点隐含固定在数值的某一个位置上,即为定点小数。
如果小数点固定在符号位之后,即为纯小数。假设机器字长为16位,符号位占1位,数值部分占15位,于是机器数1.000000000000001的等效的十进制数为-215。其符号位、数值部分、小数点的位置示意如图1-14所示。
图1-13 定点整数的符号位、数值部分和小数点位置示意图
图1-14 纯小数的符号位、数值部分和小数点的位置示意图
(2)浮点数
采用浮点数最大的特点是比定点数表示的数值范围大。
浮点数是指小数位置不固定的数,它既有整数部分又有小数部分。在计算机中通常把浮点数分成阶码和尾数两部分来表示,其中阶码一般用补码定点整数表示,尾数一般用补码或原码定点小数表示。为保证不损失有效数字,对尾数进行规格化处理,也就是平时所说的科学记数法,即保证尾数的最高位为1,实际数值通过阶码进行调整。
浮点数的格式多种多样,例如,某计算机用4个字节表示浮点数,阶码部分为8位补码定点整数,尾数部分为24位补码定点小数,如图1-15所示。
图1-15 浮点数的格式
其中,阶符表示指数的符号位;阶码表示幂次;数符表示尾数的符号位;尾数表示规格化后的小数值。
【演练1-23】描述用4个字符存放十进制浮点数“136.5”的浮点格式。
由于(136.5)10=(10001000.1)2
将二进制数“10001000.1”进行规格化,即
10001000.1=0.100010001×28
阶码28表示阶符为“+”,阶码“8”的二进制数为“0001000”;尾数中的数符为“+”,小数值为“100010001”。
十进制小数“136.5”在计算机中的表示,如图1-16所示。
图1-16 规格化后的浮点数
1.3.5 西文信息在计算机内的表示
计算机中,对非数值的文字和其他符号处理时,要对文字和符号进行数字化处理,即用二进制编码来表示文字和符号。字符编码就是规定用怎样的二进制编码来表示文字和符号。由于字符编码是一个涉及世界范围内有关信息的表示、交换、处理、存储的基本问题,因此,都是以国家标准或国际标准的形式颁布施行的,如位数不等的二进制码、BCD码、ASCII码、汉字编码等。
在输入过程中,系统自动将用户输入的各种数据按编码的类型转换成相应的二进制形式存入计算机存储单元中;在输出过程中,再由系统自动将二进制编码数据转换成用户可以识别的数据格式输出给用户。
1.BCD码(二—十进制编码)
通常人们习惯于使用十进制数,而计算机内部多采用二进制表示和处理数值数据,因此在计算机输入和输出数据时,就要进行由十进制到二进制和从二进制到十进制的转换处理,这是多数应用环境的实际情况。显然,如果这项事务性工作由人工完成,势必造成大量时间的浪费。因此,必须用一种编码的方法,由计算机自己来承担这种识别和转换。
采用把十进制数的每一位分别写成二进制数形式的编码,称为二进制编码的十进制数,即二—十进制编码或BCD(Binary Coded Decimal)编码。
BCD编码方法很多,通常采用8421编码。这种编码最自然简单。其方法是用四位二进制数表示一位十进制数,自左到右每一位对应的权分别是23、22、21、20,即8、4、2、1。值得注意的是,四位二进制数有0000~1111共16种状态,这里只取了0000~1001这10种状态,而1010~1111这6种状态在这里没有意义。
十进制数与8421码的对照表见表1-2。其中十进制的0~9对应于0000~1001;对于十进制的10,则要用2个8421码来表示。
BCD码与二进制之间的转换不是直接进行的。当需要将BCD码转换成二进制时,要先将BCD码转换成十进制,然后再转换成二进制;当需要将二进制转换成BCD码时,要先将二进制转换成十进制,然后再转换成BCD码。
表1-2 十进制数与8421码的对照表
【演练1-24】写出十进制数864的8421码。
先写出十进制数864每一位的二进制码。
十进制数864的各位:864
对应的二进制数:100001100100
然后拼接在一起,即十进制数864的8421码为100001100100。
2.西文字符的编码
20世纪60年代中期,计算机开始用于非数值处理。计算机中常用的基本字符包括十进制数字符号0~9,大小写英文字母A~Z,a~z,各种运算符号、标点符号以及一些控制符,总数不超过128个,只需要7位二进制就能组合出128(27)种不同的状态。在计算机中它们都被转换成能被计算机识别的二进制编码形式,这样计算机就可以用不同的二进制数来存储英文文字以及常用符号了,这个方案名称叫ASCII编码(American Standard Code for Information Interchange,美国信息互换标准代码),于1967年定案。它最初是美国国家标准,供不同计算机在相互通信时用作共同遵守的西文字符编码标准,它已被国际标准化组织(International Organization for Standardization,ISO)定为国际标准,称为ISO 646标准。
ASCII码用7位二进制数可以表示27=128种状态,所以7位ASCII码是用七位二进制数进行编码的,可以表示128个字符。7位ASCII码,也称为标准ASCII码,如图1-17所示。
图1-17 标准ASCII码表(字符代码0~127)
ASCII码表中的128个符号中,第0~32号及第127号(共34个)为控制字符,主要分配给了打印机等设备,作为控制符,如换行、回车等;第33~126号(共94个)为字符,其中第48~57号为0~9十个数字符号,第65~90号为26个英文大写字母,第97~122号为26个英文小写字母,其余为一些标点符号、运算符号等。
例如,大写字母A的ASCII码值为1000001,即十进制数65;小写字母a的ASCII码值为1100001,即十进制数97。
为了使用方便,在计算机的存储单元中,一个ASCII码值占一个字节(8个二进制位),其最高位(b7)用作奇偶校验位。所谓奇偶校验,是指在代码传送过程中用来检验是否出现错误的一种方法,一般分奇校验和偶校验。
奇校验:正确代码的一个字节中1的个数必须是奇数,若非奇数,则在最高位b7添1来满足。
偶校验:正确代码的一个字节中1的个数必须是偶数,若非偶数,则在最高位b7添1来满足。
【演练1-25】将“COPY”四个字符的ASCII码查出,存放在存储单元中,且最高位b7用作奇校验。
由于一个字节只能存放一个ASCII码,所以“COPY”要用四个字节表示。根据ASCII码规定和题目要求,将最高位b7用作奇校验,其余各位由ASCII码值得到。
C的ASCII码值=(67)10=(1000011)2,该字节存储为(01000011)2
O的ASCII码值=(79)10=(1001111)2,该字节存储为(01001111)2
P的ASCII码值=(80)10=(1010000)2,该字节存储为(11010000)2
Y的ASCII码值=(89)10=(1011001)2,该字节存储为(11011001)2
例如,当ASCII码值为“1001001”时,它是什么字符?当采用偶校验时,b7等于什么?
通过查ASCII码表得知,(1001001)2=(73)10代表大写字母“I”,若将b7作为奇偶校验位且采用偶校验,根据偶校验规则传送时必须保证一个字节中1的个数是偶数,所以b7应等于1,即b7=1。
当时,世界上所有的计算机都使用同样的ASCII编码方案来保存英文文字和各种常用符号,标志着计算机字符处理的开始。但从计算机实现和以后扩展考虑,则使用了8位(1个字节)来存储。
1.3.6 中文信息在计算机内的表示
中文的基本组成单位是汉字,汉字也是字符。汉字处理技术必须要解决的是汉字输入、输出及汉字存储等一系列问题,其关键问题是要解决汉字编码的问题。在汉字处理的各个环节中,由于要求不同,采用的编码也不同,如图1-18所示为汉字在不同阶段的编码。
图1-18 汉字在不同阶段的编码
1.汉字交换码
汉字交换码是指在汉字信息处理系统之间或者信息处理系统与通信系统之间进行汉字信息交换时所使用的编码。
为适应东方文字信息的处理,国际标准化组织制定了ISO2022《七位与八位编码字符集的扩充方法》。我国根据ISO2022制定了国家标准GB2311-1980《信息处理交换用七位编码字符集的扩充方法》,它以七位编码字符集为基础进行代码扩充,并根据该标准制定了国家标准GB2312-1980《信息交换用汉字编码字符集-基本集》,其他东方国家或地区也制定了各自的字符编码标准,如日本的JIS0208,韩国的KSC5601,我国台湾地区的CNS11643等。
为了提高计算机的信息处理和交换功能,使得世界各国的文字都能在计算机中处理,从1984年起,国际标准化组织就开始研究制定满足多文种信息处理要求的国际通用编码字符集(Universal Coded Character Set,UCS),该标准取名为ISO10646。标准中重要的一个部分是统一的中日韩汉字编码字符集。国际标准化组织通过了以“统一的中日韩汉字字汇与字序2.0版”(Unified Ideographic CJK Characters Repertoire and Ordering V2.0)为重要组成部分的ISO10646 UCS,其中共收集汉字20902个。我国根据ISO10646制定了相应的国家标准GB13000-1993,该标准与ISO10646完全兼容。
(1)国标码(GB2312-1980)
1980年我国颁布了第一个汉字编码字符集标准,即GB2312-1980《信息交换用汉字编码字符集——基本集》。该标准共收了6763个汉字及常用符号,奠定了中文信息处理的基础。它由三部分组成:第一部分是字母、数字和各种符号,包括英文、俄文、日文、罗马字母、汉语拼音等,共687个;第二部分是3755个二级常用汉字;第三部分是3008个次常用汉字。
(2)国际多文种编码ISO10646-1、ISO10646-2000和GB13000.1-1993
随着国际间的交流与合作的扩大,信息处理对字符集提出了多文种、大字量、多用途的要求。1993年国际标准化组织发布了ISO/IEC10646-1-2000《信息技术通用多八位编码字符集第一部分体系结构与基本多文种平面》。我国等同采用此标准制定了GB13000.1-1993《信息技术多八位编码字符(UCS)》。该标准采用了全新的多文种编码体系,收录了中、日、韩20902个汉字,是编码体系未来发展方向。但是,由于其新的编码体系与现有多数操作系统和外部设备不兼容,所以它的实现仍需要有一个过程,目前还不能完全解决我国当前应用的迫切需要。
国际标准化组织在ISO10646-2000中(Unicode 3.0)编入了基本汉字27484个,即GB18030-2000颁布时所建议支持的字汇。同时国际标准化组织还在ISO10646-2000提供了扩展汉字42711个。
(3)汉字扩充编码GB18030-2000
2000年3月17日,我国颁布了最新国家标准GB18030-2000《信息技术信息交换用汉字编码字符集基本集的扩充》,是我国计算机系统必须遵循的基础性标准之一。
考虑到GB13000-1993的完全实现有待时日,以及GB 2312-1980编码体系的延续性和现有资源和系统的有效利用与过渡,采用在GB2312(GB2311)-1980的基础上进行扩充,并且在字汇上与GB13000-1-1993兼容的方案,研制一个新的标准,进而完善GB2312-1980,以满足我国邮政、户政、金融、地理信息系统等应用的迫切需要。
GB18030-2000收录了27484个汉字,总编码空间超过150万个码位,为解决人名、地名用字问题提供了方案,为汉字研究、古籍整理等领域提供了统一的信息平台基础。
GB18030-2000与GB2312-1980标准兼容,在字汇上支持GB13000.1-1993的全部中日韩(CJK)统一汉字字符和全部CJK扩充的字符,并且确定了编码体系和27484个汉字,形成兼容性、扩展性、前瞻性兼备的方案。
Office XP/2003/2007/2010/2012及Windows XP/VISTA/7/8/10都已经支持ISO10646-2000和GB18030-2000,提供汉字超大字符集(64000汉字)。
2.汉字的机内码
汉字机内码或称汉字内码是汉字在信息处理系统内部最基本的表达形式,是在设备和信息处理系统内部存储、处理、传输汉字用的代码。汉字机内码与汉字交换码有一定的对应关系,它借助某种特定标识信息来表明它与单字节字符的区别。
正是由于机内码的存在,输入汉字时就允许用户根据自己的习惯使用不同的汉字输入码,例如拼音法、自然码、五笔字型、区位码等,进入系统后再统一转换成机内码存储。国标码也属于一种机器内部编码,其主要用途是将不同的系统使用的不同编码统一转换成国标码,使不同系统之间的汉字信息进行相互交换。
汉字内码扩展规范(GBK)是国家技术监督局1995年为中文Windows 95所制定的新的汉字内码规范(其中GB表示国标,K表示扩展)。该规范在字汇一级上支持ISO10646和GB13000中的全部中日韩(CJK)汉字,并与国家标准GB2312-1980信息处理交换码相兼容。
3.汉字的输入码(外码)
汉字的输入码是为用户能够利用英文键盘输入汉字而设计的编码。人们从不同的角度总结出了多种汉字的构字规律,设计出了多种的输入码方案。主要有以下四种。
1)数字编码,以国标GB2312-1980、GBK为基准的国标码,如区位码。
2)字音编码,以汉字拼音为基础的拼音类输入法,如各种全拼、双拼输入方案。
3)字形编码,以汉字拼形为基础的拼形类输入法,如五笔字型。
4)音形编码,以汉字拼音和拼形结合为基础的音形类输入法。
4.汉字的字形码(输出码)
字形码提供在显示器或打印机中输出汉字时所需要的汉字字形。字形码与机内码对应,字形码集合在一起,形成字库。字库分点阵字库和矢量字库两种。
由于汉字是由笔画组成的方字,所以对于汉字来讲,不论其笔画多少,都可以放在相同大小的方框里。如果我们用m行n列的小圆点组成这个方块(称为汉字的字模点阵),那么每个汉字都可以用点阵中的一些点组成。图1-19所示为汉字“中”的16×16像素字模点阵和编码表示。
如果将每一个点用一位二进制数表示,有笔形的位为1,否则为0,就可以得到该汉字的字形码。由此可见,汉字字形码是一种汉字字模点阵的二进制码,是汉字的输出码。
汉字的字形点阵有16×16点阵、24×24点阵、32×32点阵等。点阵分解越细,字形质量越好,但所需存储量也越大。
图1-19 16×16像素字符的点阵字形和编码表示
1.3.7 图形信息在计算机内的表示
图画在计算机中有两种表示方法:图像(Image)表示法和图形表示法(Graphics)。
1.图像表示法
图像表示法是把原始画面离散成m×n个像点(或称“像素”)所组成的一个矩阵,黑白画面的每个像素用1个二进制数表示该点的灰度,彩色画面的每个像素用3个二进制数来表示该点的3个分量(如R、G、B)的灰度。这种图常称为位图。汉字字形的点阵描述就是一种黑白图像的表示。
2.图形表示法
图形表示法是根据画面中所包含的内容,分别用几何要素(点、线、面、体)和物体表面的材料与性质以及环境的光照条件、观察位置等来描述,如工程图纸、地图等。这种图常称为矢量图。汉字字形的轮廓描述法就属于图形表示。其优点是易于加工处理,数据量少。
1.3.8 计算机中数据的存储单位
在计算机中,通常用B(字节)、KB(千字节)、MB(兆字节)或GB(吉字节)为单位来表示存储器(内存、硬盘、闪存盘等)的存储容量或文件的大小。所谓存储容量是指存储器中能够包含的字节数。
1.位(bit)
位是计算机中存储数据的最小单位,指二进制数中的一个位数,其值为“0”或“1”。位的单位为bit(简称b),称为“比特”。
2.字节(Byte)
字节是计算机中存储数据的基本单位,计算机存储容量的大小是以字节的多少来衡量的。字节的单位为Byte(简称B),一个字节等于8位,即1Byte=8bit。
为了便于衡量存储数据或存储器的大小,统一以字节为单位。换算关系如下:
1B(Byte,字节)=8b(bit,位)
1KB(Kilobyte,千字节)=1024 B=210 B
1MB(Megabyte,兆字节)=1024 KB=1024×1024 B=210 KB=220 B
1GB(Gigabyte,吉字节/千兆字节)=1024 MB=1024×1024 KB=210 MB=230 B
1TB(Terabyte,太字节/兆兆字节)=1024 GB=1024×1024 MB=210 GB=240 B
1PB(Petabyte,拍字节/千兆兆字节)=1024 TB=1024×1024 GB=210 TB=250 B
1EB(Exabyte,艾字节/百亿亿字节)=1024 PB=1024×1024 TB=210 PB=260 B
3.字长(Word)
字长(也称字)是指计算机一次能够并行存取、加工、运算和传送的数据长度。字长通常是字节的整数倍数,如8位、16位、32位、64位、128位。
字长是计算机的一个重要指标,直接反映一台计算机的计算精度和速度,计算机字长越长,则其精度和速度越高。
1.4 微型计算机概述
PC(Personal Computer,个人计算机)国内称微型计算机,简称微机,俗称电脑,是电子计算机技术发展到第四代的产物,是20世纪最伟大的发明之一。PC的出现,使计算机成为人们日常生活中的工具,现在微机已应用到生活和工作的诸多方面。
1.4.1 微型计算机的发展阶段
微型计算机是20世纪70年代初才发展起来的,是人类重要的创新之一,从微型机问世到现在不过40多年。微型计算机的发展主要表现在其核心部件——微处理器的发展上,每当一款新型的微处理器出现时,就会带动微机系统的其他部件的相应发展。根据微处理器的字长和功能,可将微型计算机划分为以下几个发展阶段。
1.第一阶段(1971~1973年)
通常称为第一代,是4位和8位低档微处理器阶段,是微机的问世阶段。这一代微型计算机的特点是采用PMOS工艺,集成度为每片2300个晶体管,字长分别为4位和8位,基本指令周期为20~50μs,指令系统简单,运算功能较差,采用机器语言或简单汇编语言,用于家电和简单的控制场合。其典型产品是1971年生产的Intel 4004和1972年生产的Intel8008微处理器,以及分别由它们组成的MCS-4和MCS-8微机。
2.第二阶段(1974~1977年)
通常称为第二代,是中档8位微处理器和微型计算机阶段。它们的特点是采用NMOS工艺,集成度提高约4倍,每片集成了8000个晶体管,字长为8位,运算速度提高约10~15倍(基本指令执行时间1~2μs),指令系统比较完善。软件方面除了汇编语言外,还有BASIC、FORTRAN等高级语言和相应的解释程序和编译程序,在后期还出现了操作系统,如CM/P就是当时流行的操作系统。典型的微处理器产品有1974年生产的Intel 8080/8085,Motorola 6502/6800,以及1976年Zilog公司的Z80。
1974年爱德华·罗伯茨独自决定生产一种手提成套的计算机,用Intel 8080微处理器装配了一种专供业余爱好者试验的计算机Altair(牛郎星),1975年1月问世。Altair既无可输入数据的键盘,也没有显示计算结果的显示器。插上电源后,使用者需要用手按下面板上的8个开关,把二进制数“0”或“1”输进机器。计算完成后,用面板上的几排小灯泡表示输出的结果。如图1-20所示是1975年生产的Altair的外观。后来,比尔·盖茨和保罗·艾伦为Altair设计了BASIC语言程序。
图1-20 Altair的外观
1976年,乔布斯和沃兹用Motorola的6502芯片设计成功了第一台真正的微型计算机,8KB存储器,能发声和显示高分辨率图形。并于同年成立了Apple(苹果)计算机公司,生产Apple牌微型计算机。1977年4月,沃兹完成了另一种新型微机,这种微机达到当时微型计算机技术的最高水准,乔布斯命名它为“Apple II”(如图1-21所示),并“追认”之前的那台机器为“Apple I”。1977年4月,Apple II型微型计算机第一次公开露面就造成了意想不到的轰动。从此,Apple II型微型计算机走向了学校、机关、企业、商店,走进了个人的办公室和家庭,它已不再是简单的计算工具,它为20世纪后期领导时代潮流的个人微机铺平了道路。1978年初Apple II又增加了磁盘驱动器。如图1-21所示是Apple II型微机的外观。Apple I和Apple II型计算机的技术设计理所当然地归功于沃兹,可是使Apple II型微机在商业上取得成功,主要是因为乔布斯的努力。
图1-21 Apple II型微型 计算机的外观
3.第三阶段(1978~1984年)
第三阶段是16位微处理器时代,通常称为第三代。1977年超大规模集成电路(VLSI)工艺的研制成功,使一个硅片上可以容纳十万个以上的晶体管,64KB及256KB的存储器已生产出来。这一代微型计算机采用HMOS工艺,集成度(20000~70000晶体管/片)和运算速度(基本指令执行时间是0.5μs)都比第二代提高了一个数量级。这类16位微处理器都具有丰富的指令系统,其典型产品是Intel公司的8086、80286,Motorola公司的M68000,Zilog公司的Z8000等微处理器。此外,在这一阶段,还有一种称为准16位的微处理器出现,典型产品有Intel 8088和Motorola 6809,它们的特点是能用8位数据线在内部完成16位数据操作,工作速度和处理能力均介于8位机和16位机之间。
1981年8月12日,IBM正式推出IBM 5150,它的CPU是Intel 8088,主频为4.77MHz,主机板上配置64KB存储器,另有5个插槽供增加内存或连接其他外部设备。它还装备着显示器、键盘和两个软磁盘驱动器,而操作系统是微软的DOS 1.0。苹果公司登报向IBM进军个人微机市场表示了欢迎。IBM将5150称为Personal Computer(个人计算机),IBM PC如图1-22所示。
由于IBM公司生产的PC机采用了“开放式体系结构”,并且公开了其技术资料,因此其他公司先后为IBM系列PC机推出了不同版本的系统软件和丰富多样的应用软件,以及种类繁多的硬件配套产品。有些公司又竞相推出与IBM系列PC机相兼容的各种兼容机,从而促使IBM系列的PC机迅速发展,并成为当今微型计算机中的主流产品。直到今天,PC系列微型计算机仍保持了最初IBM PC机的雏形。
图1-22 IBM公司的IBM PC机
4.第四阶段(1985~2003年)
第四阶段是32位微处理器时代,又称为第四代。其特点是采用HMOS或CMOS工艺,集成度高达100~4200万晶体管/片,具有32位地址线和32位数据总线。微机的功能已经达到甚至超过超级小型计算机,完全可以胜任多任务、多用户的作业。其典型产品是,1987年Intel的80386微处理器,1989年Intel的80486微处理器,1993年Intel的Pentium(中文名“奔腾”)微处理器,2000年Intel的Pentium III、Pentium 4微处理器,以及AMD的K6、Athlon微处理器,还有Motorola公司的M68030/68040等。
5.第五阶段(2004年~现在)
第五阶段是64位微处理器和微型计算机,发展年代为1994年至现在。2003年AMD公司发布了面向台式机的64位处理器Athlon 64,标志着64位微机的到来。2005年,Intel公司也发布了64位处理器。2005年Intel和AMD都发布双内核处理器,2007年,Intel和AMD都发布了四核处理器,2010年Intel和AMD都发布了六核处理器。目前微机上使用的64位微处理器有Intel Core i3/i5/i7、AMD FX/A8/A6等。
微机采用的微处理器的不同决定了它的档次,但它的综合性能在很大程度上还要取决于其他配置。总的说来,微型机技术发展得更加迅速,平均每两三个月就有新的产品出现,平均每两年芯片集成度提高一倍,性能提高一倍,性能价格比大幅度下降。将来,微型机将向着重量更轻、体积更小、运算速度更快、使用及携带更方便、价格更便宜的方向发展。
1.4.2 微型计算机的分类
在选购和使用微机时,有以下几种分类方法。
1.按微机的结构形式分类
微机主要有两种结构形式,即台式微机和便携式微机。
(1)台式微机
最初的微机都是台式的,至今仍是它的主要形式。台式机需要放置在桌面上,它的主机、键盘和显示器都是相互独立的,通过电缆和插头连接在一起。台式机的特点是体积较大,但价格比较便宜,部件标准化程度高,系统扩充、维护和维修比较方便。台式机是用户可以自己动手组装的机型。台式机是目前使用最多的结构形式,适合在相对固定的场所使用。
(2)笔记本电脑
笔记本电脑是把主机、硬盘、键盘和显示器等部件组装在一起,体积有手提包大小,并能用蓄电池供电。笔记本电脑目前只有原装机,用户无法自己组装。目前笔记本电脑的价格已经适宜,但是硬件的扩充和维修比较困难。
(3)平板电脑
平板电脑(Tablet Personal Computer,Tablet PC)是一种小型、方便携带的个人电脑,以触摸屏作为基本的输入设备,提供浏览互联网、收发电子邮件、观看电子书、播放音频或视频、游戏等功能。
2.按微机的流派分类
微机从诞生到现在有两大流派。
●PC系列:采用IBM公司开放技术,由众多公司一起组成的PC系列。
●苹果系列:由苹果公司独家设计的苹果系列。
苹果机与PC的最大区别是电脑的灵魂—操作系统不同,PC一般采用微软的Windows操作系统,苹果机采用苹果公司的Mac OS操作系统。Mac OS具有较优秀的用户界面,操作简单而人性,性能稳定,功能强大。苹果微机也分为台式机和笔记本电脑。现在新出的苹果台式机和笔记本电脑都采用Intel双核、四核处理器,苹果微机只有原装机,没有组装机。
1.4.3 微机的硬件结构
对于用户来说,最重要的是微机的实际物理结构,即组成微机的各个部件。微机的结构并不复杂,只要了解它是由哪些部件组成的,各部件的功能是什么,就能对板卡和部件进行组装、维护和升级,构成新的微机,这就是微机的组装。如图1-23所示是从外部看到的典型的微机系统,它由主机、显示器、键盘、鼠标等部分组成。
图1-23 从外部看到的典型的微机系统
PC系列微机是根据开放式体系结构设计的。系统的组成部件大都遵循一定的标准,可以根据需要自由选择、灵活配置。通常一个能实际使用的微机系统至少需要主机、键盘和显示器3个组成部分,因此这三者是微机系统的基本配置,而打印机和其他外部设备可根据需要选配。主机是安装在一个主机箱内所有部件的统一体,其中除了功能意义上的主机以外,还包括电源和若干构成系统所必不可少的外部设备和接口部件,其结构如图1-24所示。
目前微机配件基本上是标准产品,全部配件也只有10件左右,如机箱、电源、主板、CPU、内存条、显示卡、硬盘、显示器、键盘、鼠标等部件,使用者只需选配所需的部分,然后把它们组装起来即可。微机一般由下列部分组成。
(1)CPU
CPU是决定一台微机性能的核心部件,如图1-25所示,人们常以它来判定微机的档次。
图1-24 机箱和主机结构图
(2)内存
内存的性能与容量也是衡量微机整体性能的一个决定性因素。内存条如图1-26所示。
图1-25 CPU
图1-26 内存条
(3)主板
主板是一块多层印制电路板。主板上有CPU、内存条、扩展槽、键盘、鼠标接口以及一些外部设备的接口和控制开关等。不插CPU、内存条、显卡的主板称为裸板。主板是微机系统中最重要的部件之一,其外观如图1-27所示。
图1-27 主板
(4)硬盘驱动器(简称硬盘)
因为硬盘可以容纳大量信息,通常用作计算机上的主要存储器,保存几乎全部程序和文件。硬盘驱动器通常位于主机内,通过主板上的适配器与主板相连接。硬盘的外观如图1-28所示。
(5)光盘驱动器
有些微机装有CD或DVD光盘驱动器,通常安装在主机箱的前面。CD和DVD驱动器的外观如图1-29所示。随着大容量半导体存储器和网络的应用,光盘驱动器正在退出市场。
(6)各种接口适配器
各种接口适配器是主板与各种外部设备之间的联系渠道,目前可安装的适配器只有显示卡、声卡等。由于适配器都具有标准的电气接口和机械尺寸,因此用户可以根据需要进行选配和扩充。显示卡的外观如图1-30所示,声卡的外观如图1-31所示。
图1-28 硬盘
图1-29 光盘驱动器
图1-30 显示卡
图1-31 声卡
(7)机箱和电源
机箱由金属箱体和塑料面板组成,分立式和卧式两种,如图1-32所示。上述所有系统装置的部件均安装在机箱内部,面板上一般配有各种工作状态指示灯和控制开关,光驱总是安装在机箱前面,以便放置或取出光盘,机箱后面预留有电源插口、键盘、鼠标插口以及连接显示器、打印机、USB、IEEE 1394等通信设备的插口。
电源是安装在一个金属壳体内的独立部件,如图1-33所示,它的作用是为主机中的各种部件提供工作所需的电源。
图1-32 机箱
图1-33 电源
(8)显示器(也称监视器)
显示器中显示信息的部分称为“屏幕”,可以显示文本和图形,显示器是微机中最重要的输出设备。显示器产品主要有两类:CRT(阴极射线管)显示器和LCD(液晶显示器)。其外观如图1-34和图1-35所示。
图1-34 CRT显示器
图1-35 LCD
(9)键盘和鼠标
键盘主要用于向计算机键入文本。鼠标是一个指向并选择计算机屏幕上项目的小型设备。键盘和鼠标是微机中最主要的输入设备,其外观分别如图1-36和图1-37所示。
图1-36 键盘
图1-37 鼠标
(10)打印机
打印机是微机系统中常用的输出设备之一,打印机在微机系统中是可选件,利用打印机可以打印出各种资料、文书、图形及图像等。根据打印机的工作原理,可以将打印机分为三类:针式打印机、喷墨打印机和激光打印机,如图1-38所示。
图1-38 针式打印机、喷墨打印机和激光打印机
针式打印机是利用打印头内的点阵撞针,撞击打印色带,在打印纸上产生打印效果。
喷墨打印机的打印头由几百个细小的喷墨口组成,当打印头横向移动时,喷墨口可以按一定的方式喷射出墨水,打到打印纸上,形成字符、图形等。
激光打印机是一种高速度、高精度、低噪声的非击打式打印机,它是激光扫描技术与电子照相技术相结合的产物。激光打印机具有最高的打印质量和最快的打印速度,可以输出漂亮的文稿,也可以输出直接用于印刷制版的透明胶片。
打印机的使用很简单,在打印机上装上打印纸,从主机上执行打印命令,即可打印出来。
1.4.4 键盘的使用
键盘是向计算机中输入文字、数字的主要方式,通过键盘还可以输入键盘命令,控制计算机的执行,键盘是必备的标准输入设备。下面介绍键盘操作的基本常识和键盘命令入门。
1.键的组织方式
Windows普遍使用104键的通用扩展键盘,其形式如图1-39所示。
图1-39 标准104键键盘
键盘上键 的排列有一定的规律,键盘上的键可以根据功能划分为几个组。
●键入(字母数字)键。这些键包括与传统打字机上相同的字母、数字、标点符号和符号键。
●控制键。这些键可单独使用或者与其他键组合使用来执行某些操作。最常用的控制键是<Ctrl>、<Alt>、<Windows >和<Esc>,还有三个特殊键<PrtSc>、<Scroll Lock>和<Pause/Break>。
●功能键。功能键用于执行特定任务。功能键标记为<F1>~<F12>。这些键的功能因程序而有所不同。
●导航键。这些键用于在文档或网页中移动以及编辑文本。这些键包括箭头键<←>、<→>、<↑>、<↓>、<Home>、<End>、<Page Up>、<Page Down>、<Delete>和<Insert>。
●数字键盘。数字键盘便于快速输入数字。这些键位于一方块中,分组放置,有些像常规计算器或加法器。
如图1-39显示这些键在键盘上的排列方式,有些键盘布局可能会有所不同。
2.键入键
键入键也称字母、数字键,除了字母、数字、标点符号和符号以外,键入键还包括<Shift>、<Caps Lock>、<Tab>、<Enter>、空格键和<Backspace>。各种字母、数字、标点符号以及汉字等信息都是通过键入键的操作输入计算机的。
(1)<A>、<B>、<C>~<Z>键
默认状态下,按下<A>、<B>、<C>等字母键,将输入小写字母。按下<:;>、<?/>等标点符号键,将输入该键的下部分显示的符号。
(2)<Shift>(上档)键
<Shift>键主要用于输入上档字符。在输入上档字符时,需先按下<Shift>键不放,然后再单击字符键。同时按<Shift>与某个字母将键入该字母的大写字母。同时按<Shift>与其他键将键入在该键的上部分显示的符号。
(3)<Caps Lock>(大写字母锁定)键
按一次<Caps Lock>键(按后放开),键盘右上角的指示灯“Caps Lock”亮,表示目前是在大写状态,随后的字母输入均为大写。再按一次<Caps Lock>键将关闭此功能,右上角相应的指示灯灭,随后的输入又还原为小写字母。
(4)<Tab>(制表定位)键
按<Tab>键会使光标向右移动几个空格,还可以按<Tab>键移动到对话框中的下一个对象上。此键又分为上下两档。上档键为左移,下档键为右移(键面上已明确标出)。根据应用程序的不同,制表位的值可能不同。该键常用于需要按制表位置上下纵向对齐的输入。实际操作时,按一次<Tab>键,光标向右移到下一个制表位置;按一次<Shift+Tab>键,光标向左移到前一个制表位置。
(5)<Enter>键
在编辑文本时,按<Enter>键将光标移动到下一行开始的位置。在对话框中,按<Enter>键将选择突出显示的按钮。
(6)空格键
空格键位于键盘的最下方,是一个空白长条键。每按一下空格键,产生一个空白字符,光标向后移动一个空格。
(7)<Backspace>(退格)键
按<Backspace>键将删除光标前面的字符或选择的文本。单击该键一次,屏幕上的光标在现有位置退回一格(一格为一个字符位置),并抹去退回的那一格内容(一个字符)。该键常用于清除输入过程中刚输错的内容。
3.控制键
控制键主要用于键盘快捷方式,代替鼠标操作,加快工作速度。使用鼠标执行的几乎所有操作或命令都可以使用键盘上的一个或多个键更快地执行。在帮助中,两个或多个键之间的加号(+)表示应该一起按这些键。例如,<Ctrl+A>表示按下<Ctrl>键不松开,然后再按<A>键。<Ctrl+Shift+A>表示按下<Ctrl>和<Shift>,然后再按<A>键。
(1)<Windows >键
按<Windows >键将打开Windows的开始菜单,与用鼠标单击“开始”菜单按钮相同。组合键<Windows +F1>键可显示Windows“帮助和支持”。
(2)<Ctrl>(控制)键
单独使用没有任何意义,主要用于与其他键组合在一起操作,起到某种控制作用。这种组合键称为组合控制键。<Ctrl>键的操作方法与<Shift>键相同,必须按下不放再按其他键。操作中经常使用的组合键有很多,常用的组合控制键有:
<Ctrl+S>:保存当前文件或文档(在大多数程序中有效)。
<Ctrl+C>:将选定内容复制到剪贴板。
<Ctrl+V>:将剪贴板中的内容粘贴到当前位置。
<Ctrl+X>:将选定内容剪切到剪贴板。
<Ctrl+Z>:撤销上一次的操作。
<Ctrl+A>:选择文档或窗口中的所有项目。
(3)<Alt>(转换)键
<Alt>键主要用于组合转换键的定义与操作。该键的操作与<Shift>、<Ctrl>键类似,必须先按下不放,再单击其他键,单独使用没有意义。常用的组合控制键有:
<Alt+Tab>:在打开的程序或窗口之间切换。
<Alt+F4>:关闭活动项目或者退出活动程序。
(4)<Esc>键
<Esc>键单独使用,功能是取消当前任务。
(5)应用程序键
应用程序键相当于用鼠标右键单击对象,将依据当时光标所处对象的位置,打开不同的快捷菜单。
4.功能键
功能键有<F1>、<F2>、<F3>~<F12>。功能键中的每一个键具体表示什么功能都是由相应程序来定义的,不同的程序可以对它们有不同的操作功能定义。例如,<F1>键的功能通常为程序或Windows的帮助。
5.三个特殊的键<PrtSc>、<Scroll Lock>和<Pause/Break>
(1)<PrtSc>(Print Screen)键
以前在DOS操作系统下,该键用于将当前屏幕的文本发送到打印机。现在,按<PrtSc>键将捕获整个屏幕的图像(屏幕快照),并将其复制到内存中的剪贴板。可以从剪贴板将其粘贴<Ctrl+V>到画图或其他程序中。按<Alt+PrtSc>键将只捕获活动窗口的图像。
<SysRq>键在一些键盘上与<PrtSc>键共享一个键。以前,<SysRq>设计成一个系统请求,但在Windows中未启用该命令。
(2)<Scroll Lock>键
在大多数程序中按<Scroll Lock>键都不起作用。在少数程序中,按<Scroll Lock>键将更改箭头键、<Page Up>和<Page Down>键的行为;按这些键将滚动文档,而不会更改光标或选择的位置。键盘可能有一个指示<Caps Lock>是否处于打开状态的指示灯。
(3)<Pause/Break>
一般不使用该键。在一些旧程序中,按该键将暂停程序,或者同时按<Ctrl>键停止程序运行。
6.导航键
使用导航键可以移动光标、在文档和网页中移动以及编辑文本。光标移动键只有在运行具有全屏幕编辑功能的程序中才起作用。表1-3列出这些键的部分常用功能。
表1-3 导航键及其说明
7.数字键盘
数字键盘中的字符与其他键盘上的字符有重复,其设置目的是为了提高数字0~9、算术运算符“+”(加)、“-”(减)、“*”(乘)和“/”(除)以及小数点的输入速度。数字键盘排列能够使用一只手即可迅速输入数字或数学运算符。
数字键盘中的键多数有上、下档。若要使用数字键盘来输入数字,按<Num Lock>键,则键盘上的“Num Lock”指示灯亮。当“Num Lock”处于关闭状态时,数字键盘将作为第二组导航键运行(这些功能印在键上面的数字或符号旁边)。
8.其他键
一些现在新出的键盘上带有一些热键或按钮,可以迅速地一键式访问程序、文件或命令。有些键盘还带有音量控制、滚轮、缩放轮和其他小配件。要使用这些键的功能,需要安装该键盘附带的驱动程序。
9.正确的使用键盘
正确使用键盘可有助于避免手腕、双手和双臂的不适感与损伤,以及提高输入速度和质量。正确的指法操作还是实现键盘盲打的基础(键盘盲打是指不看键盘也能正确地输入各种字符。所谓键盘操作指法,就是将打字机键区所有用于输入的键位合理地分配给双手各手指,每个手指负责击打固定的几个键位,使之分工明确,有条有理。
(1)基准键与手指的对应关系
基准键位:位于键盘的第二行,共有8个键,分别是A、S、D、F、J、K、L、;。左右手的各手指必须按要求放在所规定的按键上。键盘的指法分区如图1-40所示,凡两斜线范围内的字键,都必须由规定的同一手指管理。按照这样的划分,整个键盘的手指分工就一清二楚了,单击任何键,只需把手指从基本键位移到相应的键上,正确输入后,再回到基本键位。
图1-40 手指键位分配图
(2)按键的击法
按键的击打方法为:
1)手腕要平直,手臂要保持静止,全部动作仅限于手指部分(上身其他部位不得接触工作台或键盘)。
2)手指要保持弯曲,稍微拱起,指尖后的第一关节微成弧形,分别轻轻放在字键的中央。
3)输入时,手抬起,只有要击键的手指才可伸出击键。击毕要立即缩回,不可用触摸手法,也不可停留在已击打的按键上(除8个基准键外)。
4)输入过程中,要用相同的节拍轻轻地击键,不可用力过猛。
(3)空格的击法
右手从基准键上迅速垂直上抬1~2cm,大拇指横着向下一击并立即收回,每单击一次输入一个空格。
(4)换行的击法
需要换行时,起右手伸小指单击一次<Enter>键。单击后,右手立即退回原基准键位,在手收回的过程中,小指提前弯曲,以免把<;>带入。
【演练1-26】使用英文打字软件,练习英文输入。
1.4.5 鼠标的使用
鼠标(Mouse)的主要用途是用来光标定位或用来完成某种特定的输入,可以使用鼠标与计算机屏幕上的对象进行交互。可以对对象进行移动、打开、更改及执行其他操作,这一切只需操作鼠标即可。
1.鼠标的组成
鼠标通常有两个按钮:主要按钮(通常为左键)和次要按钮(通常为右键),在两个按钮之间还有一个滚轮,使用滚轮可以滚动显示的内容,在有些鼠标上,按下滚轮可以用作第三个按钮。目前常见鼠标的外观如图1-41所示。高级鼠标可能有执行其他功能的附加按钮。
图1-41 常见鼠标的外观
2.使用鼠标
使用鼠标时,先使鼠标指针定位在某一对象上,然后再按鼠标上的按键,来完成功能。
(1)移动鼠标
●移动:将鼠标置于干净、光滑的表面上,如鼠标垫。轻轻握住鼠标,食指放在主按钮上,拇指放在侧面,中指放在次按钮上。若要移动鼠标,可在任意方向慢慢滑动它。在移动鼠标时,屏幕上的指针沿相同方向移动。如果移动鼠标时超出了书桌或鼠标垫的空间,则可以抬起鼠标并将其放回到更加靠近的位置,继续移动。
●指向:指向操作就是把鼠标指针移到操作对象上。在指向屏幕上的某个对象时,该对象会改变颜色,同时在鼠标指针右下方会出现一个描述该对象的小框,鼠标指针可根据所指对象而改变。例如,在指向Web浏览器中的链接时,指针由箭头 变为伸出一个手指的手形 。
(2)鼠标按钮的操作
大多数鼠标操作都将指向和按下一个鼠标按钮结合起来。使用鼠标按钮有4种基本方式:单击、双击、右键单击以及拖动。
●单击(一次单击):若要单击某个对象,先指向屏幕上的对象,然后按下并释放主要按钮(通常为左按钮)。大多数情况下使用单击来“选择”(标记)对象或打开菜单。有时称为“一次单击”或“左键单击”。
●双击:若要双击对象,先指向屏幕上的对象,然后快速地单击两次。如果两次单击间隔时间过长,它们就可能被认为是两次独立的单击,而不是一次双击。双击经常用于打开桌面上的对象。例如,通过双击桌面上的图标可以启动程序或打开文件夹。
●右键单击:若要右键单击某个对象,先指向屏幕上的对象,然后按下并释放次要按钮(通常为右按钮)。右键单击对象通常显示可对其进行的操作列表(“快捷菜单”),其中包含可用于该项的常规命令。如果要对某个对象进行操作,而又不能确定如何操作或找不到操作菜单在哪里时,则可以右键单击该对象。灵活使用右键单击,可使用户的操作快捷、简单。
●拖动:拖动操作就是用鼠标将对象从屏幕上的一个位置移动或复制到另一个位置。操作方法为,先将鼠标指针指向要移动的对象上,按下鼠标主要按钮(通常为左键)不放,将该对象移动到目标位置,最后再松开鼠标主要按钮。拖动(有时称为“拖放”)通常用于将文件和文件夹移动到其他位置,以及在屏幕上移动窗口和图标。
(3)滚轮的使用
如果鼠标有滚轮,则可以用它来滚动文档和网页。若要向下滚动,则向后(朝向自己)滚动滚轮。若要向上滚动,请向前(远离自己)滚动滚轮。也可以按下滚轮,自动滚动。
(4)自定义鼠标
可以更改鼠标设置以适应个人喜好。例如,可更改鼠标指针在屏幕上移动的速度,或更改指针的外观。如果习惯用左手,则可将主要按钮切换到右按钮。
1.4.6 微机的启动和关闭
1.微机的启动
微机的启动有冷启动、重新启动、复位启动3种方法,可以在不同情况下选择操作。
(1)冷启动
冷启动又称加电启动,是指微机在断电情况下加电开机启动。
微机在冷启动时,首先自动地对机器硬件进行全面检查,即检查主机和外设的状态,并将检查情况在显示器上显示出来,这个过程称为自检。在自检过程中,若发现某设备状态不正常,则通过显示器或机内喇叭给出提示。若有严重故障,必须排除后方可进行下一步启动操作。自检正常通过后,则自动引导操作系统,进入工作状态。
(2)重新启动
重新启动是指在微机已经开启的情况下,因死机、改动设置等,而重新引导操作系统的方法。由于重新启动是在开机状态下进行的,所以不再进行硬件自检。重新启动的方法是在Windows中选择“重新启动”,则微机会重新引导操作系统。
(3)复位启动
复位启动是指在微机已经开启的情况下,通过按下机箱面板上的复位按钮或长按机箱面板上的开关按钮,重新启动微机。一般是在微机的运行状态出现异常(如键盘控制错误),而重新启动无效时才使用。
2.微机的关闭
用完微机以后应将其正确关闭,这一点很重要,不仅是因为节能,这样做还有助于使计算机更安全,并确保数据得到保存。关闭计算机的方法有3种:使用“开始”菜单上的“关机”按钮,按计算机的电源按钮和强制关机。
(1)使用“开始”菜单上的“关机”按钮
若要使用“开始”菜单关闭计算机,单击“开始”按钮 ,然后单击“开始”菜单右下角的“关机”按钮。计算机关闭所有打开的程序以及Windows本身,然后关闭计算机电源。为了使微机彻底断开电源,还要关闭电源插座上的开关,或者把主机和显示器的电源插头从插座上拔出来。关机不会保存工作,因此必须首先保存文件。
(2)按计算机的电源按钮
如果要快速关闭微机,要先结束应用程序,回到桌面,然后按一下机箱面板上的开关按钮,Windows将自动关闭,并切断电源。其作用与通过Windows关机菜单相同。
(3)强制关机
如果通过Windows关机菜单和按一下机箱面板上的开关按钮,都无法关机,可按下机箱面板上的开关按钮不放,等待十几秒,将强制关机。其后果是在下次启动时,Windows将花费更长时间来自检。
1.5 练习题
1.单选题
1)计算机中所有信息的存储都采用( )。
A.十进制 B.十六进制 C.ASCII码 D.二进制
2)办公自动化(OA)是计算机的一项应用,按计算机应用的分类,它属于( )。
A.科学计算 B.辅助设计 C.实时控制 D.数据处理
3)计算机的最早应用领域是( )。
A.辅助工程 B.过程控制 C.数据处理 D.数值计算
4)用计算机进行资料检索工作是属于计算机应用中的( )。
A.科学计算 B.数据处理 C.实时控制 D.人工智能
5)将十进制数97转换成无符号二进制数等于( )。
A.1011111 B.1100001 C.1101111 D.1100011
6)与十六进制AB等值的十进制数等于( )。
A.171 B.173 C.175 D.177
7)下列各进制的整数中,值最大的是( )。
A.十进制数10 B.八进制数10 C.十六进制数10 D.二进制数10
8)与二进制数101101等值的十六进制数是( )。
A.1D B.2C C.2D D.2E
9)大写字母“B”的ASCII码值是( )。
A.65 B.66 C.41H D.97
10)国际通用的ASCII码的码长是( )。
A.7 B.8 C.10 D.16
11)汉字国标码(GB2312-80)规定,每个汉字用( )。
A.一个字节表示 B.二个字节表示
C.三个字节表示 D.四个字节表示
12)汉字在计算机内部的传输、处理和存储都使用汉字的( )。
A.字形码 B.输入码 D.机内码 D.国标码
13)十进制数0.6531转换为二进制数为( )。
A.0.100101 B.0.100001 C.0.101001 D.0.011001
14)与十进制数291等值的十六进制数为( )。
A.123 B.213 C.231 D.132
15)下列字符中,ASCII码值最小的是( )。
A.a B.A C.x D.Y
2.操作题
1)分别冷启动、重新启动、复位启动微型计算机,分别计算启动时间,观察显示器显示的提示。
2)用3种方式关机(使用“开始”菜单上的“关机”按钮,按计算机的电源按钮和强制关机)。