计算机应用基础(txt+pdf+epub+mobi电子书下载)


发布时间:2020-10-29 00:19:13

点击下载

作者:宋晏,刘勇,等

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

计算机应用基础

计算机应用基础试读:

前言

随着计算机技术的飞速发展,计算机的应用越来越广泛,越来越多的人需要掌握计算机的基本知识和使用方法。本书正是一本针对初学者的计算机应用基础教程。

本书是根据教育部全国高校网络教育考试委员会制定的“计算机应用基础”考试大纲编写的,主要内容包括计算机基础知识、中文Windows操作系统、Word字处理软件、Excel表格处理软件、PowerPoint演示文稿处理软件、计算机网络基础与Internet应用、多媒体技术与应用和计算机安全。

现代教育对人才的培养目标是“成为获得知识的最高主人,而不是消极的知识接受者”。为此,本书采取案例驱动、问题牵引的方法,以提高学生的主动性和突出学习的目的性。本书还坚持学以致用的原则,强调应用性,案例和实验内容丰富、实用。

本书语言简洁,充分利用图表展现更多的信息;在问题的叙述过程中,更加突出原理和操作目的,条理清晰,思路明确。

本书习题采用全国统一考试的单选题和操作题两种方式,并配有部分习题答案。

本书提供配套电子课件及部分实验涉及的素材和文档,可以登录华信教育资源网(http://www.huaxin.edu.cn)免费下载。

本书由宋晏主编,刘勇和杨国兴为副主编,参加编写的人员有宋晏、刘勇、杨国兴、台方、严婷。其中,严婷编写了第1章,台方编写了第2章,宋晏编写了第3、5、7、8章,杨国兴编写了第4章,刘勇编写了第6章,宋晏对全书进行了统稿整理。

由于作者水平有限,书中难免有不妥之处,欢迎同行和读者批评、指正。

编 者

第1章 计算机基础知识

1.1 计算机知识概述

计算机是20世纪人类最伟大的发明之一。世界上第一台电子计算机诞生于1946年,至今已有60余年的时间了。计算机及其应用早已深入到人们日常生活的各个领域之中,并有力地推动了整个社会的信息化发展。1.1.1 计算机的历史与发展

1.计算机的历史

现代电子计算机技术的飞速发展,伴随着人类科技知识的积累。回顾计算机发展的历史,广义的计算机历史通常可以分为计算工具和电子计算机两个大的时代。

1)计算工具时代

计算机的史前史应该从计算工具论起。这个阶段大致为1930年以前,这一时期还没有“计算机”的概念,人们发明了若干用来进行计算的工具。(1)机械式加法机

1642年,法国人帕斯卡制造出了机械式加法机,首次确立了计算机器的概念。(2)乘法机

1674年,德国著名的数学家和哲学家莱布尼兹设计出乘法机,能够实现连续、简单的乘除运算,并系统地提出了二进制数的运算规则。(3)差分机

1822年,英国人查尔斯·巴贝奇设计出第一台差分机。

这台差分机可以保存3个5位的十进制数,并进行加法运算,计算精度达到6位小数,能够打印结果。它是一种供制表人员使用的专用机。

差分机的最主要贡献在于,能按照设计者的控制自动完成一连串的运算,体现了计算机最早的程序设计。这种程序设计的思想为现代计算机的发展开辟了道路。(4)分析机

1834年,巴贝奇设想制造一台通用的分析机,它是现代通用数字计算机的前身。

巴贝奇的分析机由3部分构成,即“堆栈”(用于保存数据的齿轮式寄存器)、“运算器”(对数据进行各种运算的装置)和“控制器”(对操作顺序进行控制,并对所要处理的数据及输出结果加以选择的装置)。

巴贝奇设计了先进的进位机构以加快运算的速度。分析机的计算设备上采用穿孔卡,预先把程序在纸卡上穿孔记录下来,从而能对计算机下命令,让它按任何复杂的公式去进行计算。分析机预见了现代通用计算机的基本功能部分,在概念上是一个突破,为后来计算机的出现奠定了基础。

2)电子计算机时代

目前,公认的世界上第一台数字式电子计算机是1946年由美国宾夕法尼亚大学的物理学家约翰·莫克利(John Mauchly)和工程师普雷斯伯·埃克特(Presper Eckert)领导研制的ENIAC,如图1-1所示。图1-1 ENIAC

ENIAC有以下5种功能:

① 每秒5000次加法运算;

② 每秒50次乘法运算;

③ 平方、立方运算;

④ sin、cos函数计算;

⑤ 其他更复杂的运算。

相对于手工计算,ENIAC的运算速度非常快。但作为最早期的电子计算机,ENIAC存在明显的缺点:

① 体积庞大,机器中约有18 800只电子管,1500个继电器,70 000只电阻及其他各类电气元件,运行时耗电量很大;

② 存储容量很小,只能存20个字长为10位的十进位数;

③ 采用线路连接的方法来编排程序,因此每次解题都要靠人工改接连线,准备时间大大超过实际计算时间。

ENIAC标志着电子计算机的问世,人类社会从此步入了计算机时代。

3)电子计算机的发展历史

自世界上第一台计算机问世以来,计算机的发展从总体上来说体积不断变小,而性能、速度大幅提升,性价比不断提高。

从计算机采用的物理器件来看,电子计算机发展至今大致经历了4个阶段。(1)第一代电子计算机(1946—1957年)

第一代电子计算机的基本特征为采用电子管作为计算机的逻辑元件,只能处理定点数,用低级语言编写程序,运算速度为每秒几千次,内存容量为几千字节。其体积庞大、造价很高,专用于军事和科研工作。(2)第二代电子计算机(1958—1964年)

第二代电子计算机的基本特征为采用晶体管作为逻辑元件,运算速度达每秒几十万次,内存容量达几十千字节。出现了软件的概念,以及FORTRAN、COBOL等高级程序设计语言。相对于第一代计算机,晶体管计算机体积小、成本低、可靠性提高、功能强,除了应用于军事和科研工作之外,还可用于数据处理。(3)第三代电子计算机(1965—1970年)

第三代电子计算机是集成电路计算机。与晶体管计算机相比,集成电路计算机的体积更小,功耗更低,而可靠性更高,造价更低廉,因此得到迅速发展。第三代计算机的基本特征为运算速度可达每秒几十万次到上百万次,存储器进一步发展。由于集成电路技术的发展,使计算机的体积越来越小,价格越来越低,软件也越来越完善,出现了操作系统和会话式语言。计算机开始广泛应用于各个领域。

IBM 360系统是最早使用集成电路元件的通用计算机系列,它开创了民用计算机使用集成电路的先例,计算机从此进入了集成电路时代。(4)第四代电子计算机(1971年至今)

第四代电子计算机为大规模与超大规模集成电路计算机。其特征为速度高达每秒几十万亿次,能够进行浮点运算,操作系统不断完善,应用软件的开发已经广泛应用于各行各业。

未来计算机的研究方向将是试图打破计算机现有的体系结构,使计算机能够具有像人一样的思维、推理和判断能力。

思考问题

● 电子计算机的发展有什么样的规律?

● 从计算机发展的历史推测未来的发展方向。

1)巨型化

巨型化是指计算机的运算速度更高、存储容量更大、功能更强。目前正在研制的巨型计算机,其运算速度可达每秒百亿次。

天文、军事、仿真等领域需要进行大量的计算,要求计算机有更高的运算速度、更大的存储量,这就需要研制功能更强的巨型计算机。

2)微型化

微型计算机已嵌入仪器、仪表、家用电器等小型仪器设备中,同时也作为工业控制过程的心脏,使仪器设备实现“智能化”。随着微电子技术的进一步发展,笔记本型、掌上型等微型计算机必将以更优的性价比受到人们的欢迎。

当前开发和研究的热点是多媒体计算机。

3)智能化

计算机人工智能的研究是建立在现代科学基础之上的。智能化是计算机发展的一个重要方向,新一代计算机将可以模拟人的感觉行为和思维过程的机理,进行“看”、“听”、“说”、“想”、“做”,具有逻辑推理、学习与证明的能力。

4)网络化

随着计算机应用的深入,特别是家用计算机越来越普及,一方面希望众多用户能共享信息资源,另一方面也希望各计算机之间能互相传递信息,即进行通信。

计算机网络是现代通信技术与计算机技术相结合的产物。计算机网络已在现代企业(如银行、商业、交通运输等)的管理中发挥着越来越重要的作用。

5)非冯·诺依曼型计算机

非冯·诺依曼型体系结构的计算机是提高现代计算机性能的另一个研究焦点。

知识扩展——未来计算机

未来计算机的研究目标是试图打破计算机现有的体系结构,使计算机能够具有像人一样的思维、推理和判断能力。近年来,通过进一步的深入研究发现,由于电子电路的局限性,理论上电子计算机的发展也有一定的局限,因此,人们正在研制不使用集成电路的计算机。随着计算机技术的不断发展,科研人员不断设计研制出新型计算机。例如,超导计算机、生物计算机、量子计算机等。(1)超导计算机

超导计算机是使用超导体元件的高速计算机。所谓超导,是指有些物质在接近绝对零度(相当于-269℃)时,电流流动是无阻力的。

超导计算机的耗电仅为用半导体器件制造的计算机所耗电的几千分之一,它执行一个指令只需10亿分之一秒,比半导体元件快10倍。日本电气技术研究所研制成世界上第一台完善的超导计算机,它3采用了4个大规模集成电路芯片,每个集成电路芯片只有3~5mm大小,每个芯片上有上千个约瑟夫逊元件。(2)生物计算机

生物计算机主要是以生物电子元件构建的计算机。生物计算机的性能是由元件与元件之间电流启闭的开关速度决定的。科学家发现,蛋白质有开关特性,用蛋白质分子作为元件制成集成电路,称为生物芯片。使用生物芯片的计算机称为蛋白质计算机,或称为生物计算机。已经研制出利用蛋白质来制造的开关装置有:合成蛋白芯片、遗传生成芯片、红血素芯片等。2

用蛋白质制造的计算机芯片,在1mm的面积上可容纳数亿个电路,存储量可以达到普通计算机的10亿倍。由蛋白质构成的集成电路,其大小只相当于硅片集成电路的10万分之一,而且运转速度更快,大大超过人脑的思维速度。生物计算机元件的密度比大脑神经元的密度高100万倍,传递信息的速度也比人脑思维的速度快100万倍。

生物芯片传递信息时阻抗小,耗能低,且具有生物的特点,具有自我组织、自我修复的功能。美国的科技人员已研制出可以用于生物计算机的分子电路。它由有机物质的分子组成。由分子导线组成的显微电路,只有现代计算机电路的千分之一大小。(3)量子计算机

量子计算机是利用原子所具有的量子特性进行信息处理的一种全新概念的计算机。量子理论认为,在非相互作用下,原子在任一时刻都处于两种状态,称为量子超态。原子会旋转,即同时沿上、下两个方向自旋,这正好与电子计算机中的0与1完全吻合。量子计算机以处于量子状态的原子作为中央处理器和内存,其运算速度可能比目前的Pentium 4芯片快10亿倍。(4)光学计算机

光学计算机是利用光作为载体进行信息处理的计算机。

光学计算机又叫光脑。计算机(电脑)是靠电荷在线路中的流动来处理信息的,而光脑则是靠激光束进入由反射镜和透镜组成的阵列中来对信息进行处理的。与电脑相似之处是,光脑也靠产生一系列逻辑操作来处理和解决问题。

计算机的功率取决于其组成部件的运行速度和排列密度。光作为载体在这两方面都具有良好的特性。

① 光子的速度即光速,为每秒30万千米,是宇宙中最快的速度。

② 光子传播,即使在光线相交时,它们之间也不会相互影响。这种互不干扰的特性,使光脑能够在极小的空间内开辟很多平行的信息通道,密度大得惊人。

1990年,美国的贝尔实验室推出了一台由激光器、透镜、反射镜等组成的计算机。这就是光计算机的雏形,其运算速度为每秒10亿次,并且体积小、速度快,具有广阔的发展前景。

3.我国计算机行业的发展

华罗庚教授是我国计算技术的奠基人和最主要的开拓者之一。他于1950年回国后不久,就向中央提出开展电子计算机科学研究的建议。1953年,在中国科学院数学研究所组建了我国第一个计算机科研小组。

1958年和1959年,我国分别研制出103小型数字计算机和104大型通用数字计算机。这两台计算机标志着我国电子数字计算机的诞生。

1964年,我国第一台自行设计的大型通用数字电子计算机119研制成功,其平均浮点运算速度为每秒5万次。

1965年,研制成功第一台大型晶体管计算机109乙机。109乙机使用晶体管2万多只,二极管3万多只。改进后的109丙机为用户运行了15年,有效算题时间超过10万小时,在我国两弹试验中发挥了重要作用。

1973年,北京大学与北京有线电厂等单位合作研制成功大型通用计算机,运算速度达每秒100万次。

1983年,我国科学院计算所完成我国第一台大型向量机757机,运算速度达每秒1000万次。

1992年,国防科大研究成功银河-Ⅱ通用并行巨型机,峰值速度达每秒4亿次浮点运 算(相当于每秒10亿次基本运算操作),总体上达到20世纪80年代中后期国际先进水平。

1995年,国家智能机中心又推出了国内第一台具有大规模并行处理机(MPP)结构的并行机曙光1000(含36个处理机),峰值速度为每秒25亿次浮点运算,实际运算速度上了每秒10亿次浮点运算这一高性能台阶。

1997年,国防科大研制成功银河-Ⅲ百亿次并行巨型计算机系统,采用可扩展分布共享存储并行处理体系结构,由130多个处理结点组成,峰值性能为每秒130亿次浮点运算,系统综合技术达到20世纪90年代中期国际先进水平。

1997—1999年,国家智能机中心与曙光公司先后在市场上推出具有机群结构的曙光1000a、曙光2000-Ⅰ、曙光2000-Ⅱ超级服务器,峰值计算速度已突破每秒1000亿次浮点运算,机器规模已超过160个处理机。2000年,推出每秒3000亿次浮点运算的曙光3000超级服务器。2004年上半年,推出每秒1万亿次浮点运算的曙光4000超级服务器。

2002年8月,联想集团研制成功了中国第一台万亿次巨型计算机。浮点运算速度达到每秒1.027万亿次。在全世界按运算速度排序的前500台计算机中名列第24位,达到了当前国际同类产品的先进水平。1.1.2 计算机的特点

1.自动控制能力

计算机具有自动控制能力。计算机是由程序控制其操作过程的。针对不同的处理任务编写好程序,将程序输入计算机,计算机就能自动、连续地工作,完成预定的任务。

2.高速运算的能力

计算机的运算速度(也称处理速度)用MIPS来衡量。现代的计算机运算速度在几十MIPS以上,巨型计算机的速度可达到千万个MIPS。计算机如此高的运算速度是其他任何计算工具所无法比拟的,它使过去需要几年甚至几十年才能完成的复杂运算任务,现在只需几天、几小时,甚至更短的时间就可以完成。这正是计算机被广泛使用的主要原因之一。

IBM的“深蓝”计算机,在对手每走一步棋后,1秒内便会有2亿步棋的反应。所以,计算机可以做那些计算量大、运算复杂的工作。

3.很强的记忆能力

计算机的存储器类似于人的大脑,可以“记忆”(存储)大量的数据和计算机程序而不会丢失,在计算的同时,还可把中间结果存储起来,供以后使用。

计算机的记忆能力很强,能存储大量的数字、文字、图像、声音等各种信息。

4.很高的计算精度

一般来说,现在的计算机支持几十位有效数字,而且理论上还可更高。因为数字在计算机内部都是用二进制数编码的,数字的精度主要由这个数字的二进制码的位数决定,可以通过增加数字的二进制位数来提高精度,位数越多,精度就越高。可根据需要获得千分之一到几百万分之一的精度。

5.具有逻辑判断能力

计算机在程序的执行过程中,会根据上一步的执行结果,运用逻辑判断方法自动确定下一步的执行命令。正是因为计算机具有这种逻辑判断能力,使计算机不仅能解决数值计算问题,而且能解决非数值计算问题,如信息检索、图像识别等。

1993年9月,在英特尔国际象棋大奖赛中,世界第一高手被名为“天才一号”的计算机象棋系统淘汰出局。

6.可靠性高、通用性强

现代计算机采用大规模和超大规模集成电路,具有非常高的可靠性。由于采用“存储程序”工作原理,只要在计算机的存储器中存储了不同的程序,就可以完成不同的计算,使之具有不同的功能。现代计算机不仅可以用于数值计算,还可以用于数据处理、工业控制、辅助设计、辅助制造和办公自动化等,具有很强的通用性。1.1.3 计算机的分类

1.按计算机处理数据的方式分类

根据计算机工作原理和运算方式的不同,以及计算机中信息表示形式和处理方式的不同,计算机可分为数字式电子计算机(Digital Computer)、模拟式电子计算机(Analog Computer)和数字模拟混合计算机(Hybrid Computer)三类。

当今,广泛应用的是数字计算机,因此,常把数字式电子计算机(Electronic Digital Computer)简称为电子计算机或计算机。

2.按计算机的使用范围分类

根据使用范围不同,计算机可分为通用计算机(General Purpose Computer)和专用计算机(Special Purpose Computer)两大类。

通用计算机能解决多种类型问题,是具有较强通用性的计算机。一般的数字式电子计算机多属此类。

专用计算机是为解决某些特定问题而专门设计的计算机,如嵌入式系统。

3.按计算机的规模和处理能力分类

计算机的规模和处理能力主要是指其体积、字长、运算速度、存储容量、外部设备、输入/输出能力等技术指标,通常分为巨型机、大型机、小型机、微型机、服务器及工作站等。

1)巨型机

巨型机运算速度快、存储容量大、结构复杂、价格昂贵,主要用于尖端科学研究领域。

2)大型机

大型机规模仅次于巨型机,有比较完善的指令系统和丰富的外部设备,主要用于计算中心和计算机网络中。

3)小型机

小型机较之大型机成本较低,维护也较容易。小型机用途广泛,既可用于科学计算、数据处理,也可用于生产过程自动控制和数据采集及分析处理。

4)微型机

20世纪70年代后期,微型机的出现引发了计算机硬件领域的一场革命。如今,微型机家族中“人丁兴旺”。微型机采用微处理器、半导体存储器和输入/输出接口等芯片组装,使得它较之小型机体积更小、价格更低、灵活性更好、可靠性更高、使用更加方便。

5)服务器

随着计算机网络的日益推广和普及,一种可供网络用户共享的、高性能的计算机应运而生,这就是服务器。服务器一般具有大容量的存储设备和丰富的外部设备,其上运行的网络操作系统要求较高的运行速度,对此,很多服务器都配置了双CPU。服务器上的资源可供网络用户共享。

6)工作站

20世纪70年代后期出现了一种新型的计算机系统,称为工作站(WS)。工作站实际上是一台高档微机。但它有其独到之处,易于连网,配有大容量主存和大屏幕显示器,特别适合于CAD/CAM和办公自动化。典型产品有美国 SUN公司的SUN3、SUN4等。

随着大规模集成电路的发展,目前的微型机与工作站,乃至小型机之间的界限已不明显。现在的微处理器芯片速度已经达到甚至超过10年前的一般大型机CPU的速度。1.1.4 计算机的主要用途

1.计算机应用的传统领域

1)科学计算

科学计算指计算机应用于完成科学研究和工程技术中所提出的数学问题(数值计算)。一般要求计算机速度快,精度高,存储容量相对大。科学计算是计算机最早的应用方面。

2)信息处理

信息处理主要是指非数值形式的数据处理,包括对数据资料的收集、存储、加工、分类、排序、检索和发布等一系列工作。信息处理包括办公自动化(OA)、企业管理、情报检索、报刊编排处理等。其特点是要处理的原始数据量大,算术运算较简单,有大量的逻辑运算与判断,结果要求以表格或文件形式存储、输出,因此要求计算机的存储容量大。计算机在信息处理方面的应用十分广泛。

3)自动控制

自动控制是指在工业生产过程中,自动地对控制对象进行控制和调节的工作方式。利用计算机进行自动控制,可以提高劳动效率、提高产品质量、节约能源、降低成本、降低能耗,并且能完成仅靠人工无法完成的任务。自动控制广泛应用于科学技术、军事、工业、农业等各个领域。

4)计算机辅助系统

计算机辅助设计(Computer Aided Design,CAD)是指利用计算机来帮助设计人员进行工程设计,以提高设计工作的自动化程度,节省人力和物力。目前,此技术已经在飞机、船舶、机械、土木建筑、服装等设计中得到了广泛的应用。

计算机辅助教学(Computer Aided Instruction,CAI)指利用计算机辅助教师讲授知识,以及帮助学生学习的自动化系统,使学生能够轻松自如地从中学到所需要的知识。

计算机辅助制造(Computer Aided Manufacturing,CAM)是指利用计算机进行生产设备的管理、控制与操作,从而提高产品质量,降低生产成本,缩短生产周期,并且还可大大改善制造人员的工作条件。

此外,还有计算机辅助工程(Computer Aided Engineering,CAE)、计算机辅助测试(Computer Aided Test,CAT)、计算机集成制造(Computer Integrated Manufacturing,CIM)等计算机辅助系统。

2.计算机应用的新领域

1)计算机网络

随着计算机的增加,人们对在不同计算机之间共享各种信息资源的需求越来越强烈,要求把许多计算机常规性地连接到一起,能够方便地使用其他计算机所提供的各种信息资源,包括存储在计算机里的信息本身、计算机的信息存储能力和信息处理能力等。计算机网络发展的早期,人们建立起许多局部性的小型网络,也建立起一些行业部门专用的或跨部门的远距离网络。20世纪80年代以后得到迅猛发展的Internet使人们真正看到了计算机网络的巨大威力和无穷无尽的应用潜力。

几个网络计算机典型的应用领域简单介绍如下。(1)远程教学

现代远程教学是随着现代计算机技术的发展而产生的一种新型教育方式。它采用计算机多媒体技术,通过卫星网、互联网、视频会议系统等进行教学,体现出鲜明的时代特征。

远程教学具有很多优势:它可以通过网络视频实现实时教学交流,达到相应的教学效果;使教育不受地域限制,有效获得和积累大量的教学资源;利于培养学生的知识选择、获取能力,提高学习自主性。(2)电子阅览室

电子图书馆藏书量大,电子图书集中存储于大型中央服务器中,图书管理系统软件集中运行于服务器上;电子阅览室地理位置分散,阅读终端很多,而且阅读机必须在服务器控制下,只完成相关的图书阅读任务,不得用于其他用途。(3)电子征税

电子征税是典型的大型集中式应用。纳税人信息与历史数据集中存储在税务局的大型服务器上,国地税征缴管理系统软件集中运行在服务器上。征税终端只需对纳税人信息及征税数据进行简单的业务操作即可。考虑到税控防伪措施,以及纳税凭证的打印,无论采用NC还是PC作为征税终端,都需要进行特殊的支持防伪技术的扩展。(4)证券交易

证券交易也是典型的大型集中式应用。所有股民的基本信息及股票交易历史数据存储在证券公司的大型服务器上,证券交易委托系统软件集中运行在服务器上。在证券公司的网络上,柜台终端、大户室终端,甚至接入证券公司网络的远程终端,都只用于浏览股票信息,并通过向终端输入简单的信息操作股票交易。(5)营业网吧

营业网吧是需采取一定的强制手段,执行服务器对终端全面管理控制的集中式应用。所有在网吧上网的网民必须通过服务器接入互联网,浏览互联网上的信息。大部分终端都只需要支持简单的网页浏览功能。

2)多媒体技术

多媒体技术是一种发展迅速的综合性电子信息技术,它给传统的计算机系统、音频和视频设备带来了方向性的变革,将对大众传播媒介产生深远影响。

多媒体技术就是将文本、图形、图像、动画、音频和视频等多种媒体信息,通过计算机进行数字化采集、获取、压缩或解压缩、编辑、存储等加工处理,使多种媒体信息之间建立逻辑连接,集成为一个系统并具有交互性。简单来说,多媒体技术就是利用计算机综合处理图、文、声、像等信息的技术。多媒体技术的关键是数据压缩技术。

3)嵌入式系统

嵌入式系统是计算机的一种应用形式,在物理上,嵌入于宿主系统中作为整个系统的一部分,并不独立存在;在功能上,嵌入式计算机总是针对某种特定应用的,一经编程,用户一般不再修改。它是先进的计算机技术、半导体技术、电子技术和各行业的具体应用相结合后的产物,这一点就决定了它必然是一个技术密集、资金密集、高度分散、不断创新的知识集成系统。因此,嵌入式系统的概念可以归纳为:以应用为中心,以计算机技术为基础,软、硬件可裁剪,适应于应用系统及对功能、可靠性、成本、体积、功耗等有严格要求的专用计算机系统。

嵌入式系统在实际应用中非常广泛。例如,计算机的硬盘、Modem、打印机、扫描仪,网络设备中的路由器、交换机,家电中的数码相机、手机、掌上电脑等均是由嵌入式处理器控制的。此外,嵌入式系统还应用于智能仪表、工控设备、军事装备等重要领域。

嵌入式系统与人工智能、模式识别技术的结合,可以开发出各种更具人性化、智能化的嵌入式系统。这不但要求嵌入式系统有更快的运算速度和更大的存储空间,也需要发展一些新的软件技术,这些技术包括:行业性编程接口API规范、无线网络操作系统、IP(知识产权)构件库和嵌入式Java等。

4)人工智能

人工智能是研究、解释和模拟人类智能、智能行为及其规律的一门学科。其主要任务是建立智能信息处理理论,进而设计出可以展现某些近似于人类智能行为的计算系统。人工智能学科包括:知识工程、机器学习、模式识别、自然语言处理、智能机器人和神经计算等多方面的研究。

尽管人工智能的研究已经取得一些成果,但与其目标——建立真正的智能系统,还相差甚远,因而人工智能是计算机应用的一个新领域。

思考问题

● 以上各类应用领域中都使用了哪些不同类型的计算机?

● 计算机应用的新领域会对计算机的硬件系统和软件系统提出怎样的新要求?1.1.5 信息的基本概念

1.数据和信息

1)数据

数据是用于描述事实、概念的一种特殊的符号。如学生的考试成绩、职工年龄、产品数量等。其表现形式有数字、文字、图形、图像等多种。

任何事物的属性都是通过数据来表示的。数据经过加工处理之后,成为信息。

2)信息

信息是经过加工后的数据,会对人类社会实践和生产经营活动产生决策影响。例如,根据一个班级所有学生的考试成绩(数据),可以获得最高分、平均分、及格率、优秀率等相关信息。

数据是信息的表示,信息是对数据的解释。数据只是对事实的记录,没有特定的目的;而信息则是对数据进行处理,作为决策或参考的依据。

2.信息的特点

1)信息无处不在

信息同物质和能源一样,是人们赖以生存与发展的重要资源。人类通过信息认识各种事物,借助信息的交流沟通人与人之间的联系,互相协作,从而推动社会前进。

2)信息必须依附于某种载体进行传输

信息不能独立存在,必须借助于载体进行传输。信息在传输过程中可以转换载体而不改变信息的内容。例如,可以通过口述、在纸上记录、点头等方式来表示“对某事赞成”这一信息。

3)信息是可以处理的

信息可以通过一定的手段进行处理,如扩充、压缩、分解、综合、抽取、排序、决策、创造等。例如,对“学生登记表”中的姓名、学号、班级、家庭住址、学习经历、学科成绩等内容可以经过选择、重组、统计后分别供学籍、教务、学工办等部门使用。

4)信息可传递

信息在空间的传递称为通信。通常,将信息发布方(称为信源)的信息通过电话、书信、电子邮件等方式传递到信息接收方(称为信宿)的通路称为信道。

信息在时间上的传递称为信息存储。把信息用文字符号记录在本上,也可以用文字、声音或图像符号记录在磁带、磁盘或光盘上。存储的信息可以过一段时间,甚至很长时间以后再利用。

5)信息可共享

同一信源可以供给多个信宿,因此信息是可以共享的。

6)信息具有时效性

某些信息具有时效性。一条信息在某一时刻价值非常高,但过了这一时刻,可能一点价值也没有。信息如果不能及时反映事物的最新变化,其时效性就会降低。

3.信息社会

随着以计算机网络、多媒体和现代通信技术为核心的信息技术的迅速发展和广泛应用,信息资源得到进一步开发、利用和共享,大大推动了社会各个方面的发展。信息和信息技术已经对社会,对人们的工作、学习和生活都产生了深刻的影响。当今世界已进入信息化时代,迎来了一场信息革命。这场信息革命将以信息的利用为中心,通过改进信息的处理和传播方式,用计算机来辅助人的脑力劳动,促进工业社会向信息社会的演变。

信息社会是以信息作为重要的战略资源、以信息生产为中心、以信息网络作为社会基础设施,促进政治和经济迅速发展的社会。

1.2 计算机系统的组成

思考问题

● 计算机是如何自动进行信息处理的?

● 计算机的硬件组成有哪些?各组成部件的主要功能是什么?1.2.1 计算机的工作过程

要用计算机解决问题,首先需要针对不同的处理任务编写程序(它将告诉计算机需要做哪些事情,按什么步骤去做),并提供所需处理的原始数据。

计算机的工作过程如图1-2所示。

① 将编写好的程序(包括需要处理的数据)通过输入部件送入计算机中存储。而计算机处理所获得的中间数据与最终结果也作为数据在计算机中存储。

② 程序运行后,计算机将自动连续地取出并执行程序。计算机要能够正确地找到程序及相应的数据,并能够正确存储结果;在取出程序并进行分析之后,将按照程序要求发出相应的控制命令给相应的部件;在执行部件中,对数据进行处理。

③ 计算机执行完程序后,将获得的处理结果,通过输出部件输出。图1-2 计算机的工作过程

根据上述工作过程,可以得到以下两个结论。

结论1:要完成相应的执行任务,计算机需要有以下4个功能部件。

① 运算部件:用来完成相应的运算、处理工作,如加、乘、传送等。

② 记忆部件:计算机应该能够记忆输入计算机中的程序及数据,以及运行过程中的一些中间数据。

③ 自动控制部件:保证程序执行的正确性及各个部件之间的协调性。

④ 输入/输出部件:负责将计算机需要的原始数据及程序输入计算机中,并将结果输出。

结论2:计算机的硬件部件能够有条不紊地协调工作,完成相应处理任务,其依据的是事先编写好的程序,也就是说,硬件需要软件(程序)驱动。软件和硬件合称计算机系统。1.2.2 计算机系统的基本组成

从计算机的工作过程可以看出,其功能是由硬件和软件共同实现的。计算机是具有很强信息处理能力的电子设备,无论处理何种信息、完成何种处理工作,首先需要根据处理任务编写相应的程序,依靠硬件执行程序,从而能够自动、有条不紊地进行信息处理。

完整的计算机系统包括两大部分(图1-3),即硬件系统和软件系统。硬件系统是指用于构成计算机系统的各种物理设备,如CPU、存储器、输入/输出设备等。软件系统是指计算机系统中的程序及开发、使用和维护程序所需的所有文档的集合。

随着大规模集成电路技术的发展,计算机系统的软件和硬件功能没有一个明确的分界线。任何操作可以由软件实现,也可以由硬件来实现。现在,可以把许多复杂常用的程序固化在ROM芯片中,做成所谓的固件。固件就功能来说是软件,但从形态来说是硬件。同样,任何指令的执行可以由硬件完成,也可以由软件来完成。

在通常情况下,同一功能用硬件实现速度快,灵活性差且成本较高;而用软件实现可提高灵活性,降低成本,但速度相对较慢。对于采用硬件还是软件来完成相应的功能,这取决于系统的价格、速度、可靠性、存储容量等相关因素。1.2.3 硬件系统

计算机的工作过程就是执行程序的过程。现代计算机都基于冯·诺依曼机型。1946年,美籍匈牙利数学家冯·诺依曼提出了以“存储程序”控制为核心的通用电子数字计算机体系结构原理,奠定了当代电子数字计算机体系结构的基础。

1.存储程序原理

计算机是一种高速的自动处理装置,即不需要人的直接干预就能够对各种数字化信息进行快速的算术运算和逻辑运算。而计算机自动、高速的运行是通过计算机执行指令实现的。

存储程序原理的基本思想是:计算机要实现自动运行的任务,必须要将预先编写好的程序(程序,计算机指令序列,用以描述计算机解题步骤)存储起来,计算机运行时,将指令依次从存储器中取出,再按照指令控制计算机完成相应工作的过程。

2.冯·诺依曼计算机

冯·诺依曼理论奠定了现代计算机的基础,按照其理论设计的计算机称为冯·诺依曼计算机。

冯·诺依曼计算机的基本特点为:

① 二进制数,即计算机内部采用二进制数来表示信息(数据和指令);

② 存储程序,即将预先编好的程序存入存储器中,然后启动计算机工作,不需要操作人员的干预,由计算机顺序取出并执行一条条指令,实现计算机的自动、高速运行;

③ 五大组成部件,即计算机由运算器、控制器、存储器、输入设备和输出设备五大基本部件组成。

目前,计算机已发展到了第四代,但仍然基本遵循着冯·诺依曼原理和结构。

早期的冯·诺依曼结构计算机是以控制器为核心的,随着计算机技术的发展,逐渐转向以存储器为核心。

为了提高计算机的运行速度,实现高度并行化,当今的计算机系统已对冯·诺依曼结构进行了许多变革,例如采用指令流水线技术等。

3.计算机硬件组成

根据冯·诺依曼原理,计算机由五大部件组成,即运算器、控制器、存储器、输入设备和输出设备,如图1-4所示。图1-4 计算机硬件结构

在计算机各部件之间,流动着三类不同的信息:数据(包括指令)信息、控制信息、地址信息,各个部件之间靠总线(Bus)相连。相应地,可以把总线分为3类。数据总线(Data Bus,DB),用来在CPU与存储器、输入设备或输出设备之间传输数据信息,是双向传输的总线。地址总线(Address Bus,AB),用于传送CPU发出的地址信号,包括内存单元地址和I/O设备地址,是单向传输的总线。控制总线(Control Bus,CB),用来传送控制信号、时序信号和状态信息等,包括CPU向内存或I/O设备发出的控制信号,以及内存或I/O设备向CPU传递的状态信息。

1)运算器

运算器是计算机中的运算部件。计算机工作过程中的数据传送、乘法、加法等数据处理操作就在运算器中完成。

运算器由算术逻辑运算单元、寄存器、累加器等逻辑电路组成,用来完成二进制数码的算术运算(如两个数的求和运算)与逻辑运算(如比较大小等),是对数据进行加工处理的部件。

运算器的核心是算术逻辑运算单元(Arithmetic Logic Unit,ALU),用来完成算术运算与逻辑运算;寄存器用来暂时存放操作数据;累加器在连续运算中用于存放中间数据和最后结果。寄存器与累加器的数据来自存储器,累加器中的运算结果最终也存放到存储器中。

运算器中能够直接参与运算的数的位数称为字长。字长越大,计算精度越高。通常的计算机字长有8位、16位、32位、64位。

2)控制器

控制器是计算机中的自动控制部件,用来控制计算机各部件协调工作。如图1-2所示,用计算机解决任何问题需要首先编写程序。程序对应了对问题的求解步骤。对一个问题的求解往往要分步去做,每一步要求计算机执行的操作命令称为一条指令。求解一个问题的指令序列构成程序。程序及相应的数据存放在存储器中。

控制器的工作实质就是解释指令。控制器从存储器中取出指令,分析该指令要做什么操作、操作数存放在什么位置,并按照该指令的含义发出相应的操作命令,控制运算器进行指定的运算,并将运算结果存入指定位置。

控制器就像人的大脑,它依靠指令(程序)的含义决定在什么时候发出命令、做什么操作,从而控制着整个计算机的工作。

通常,将运算器和控制器合称为中央处理器,简称CPU(Central Processing Unit),其主要功能是控制计算机的操作并完成数据处理工作。

3)存储器

存储器是计算机中的“记忆”部件,功能类似于人的大脑的记忆功能。计算机在工作过程中运行的程序、运算数据及运算结果都需要存放在存储器中。

存储器通常分为内存储器和外存储器。(1)内存储器(简称内存,也称主存)

内存储器直接与CPU相连接,用来存放CPU当前运行的程序指令和数据。其存储容量较小,但速度快。

存储器是一片相对较大的存储区域。为了能正确存入及取出指令和数据,存储器被划分为许多小的存储空间,称为存储单元。每个存储单元可以存放的二进制信息的位数,称为存储单元长度。为了标识不同的存储单元,给每个存储单元一个编号,称为存储单元的地址,如图1-5所示。这好比仓库中物品存放在不同的货架上,每个货架都有一个编号,通过货架编号对出库/入库的物品进行查找。向存储器中存入信息或取出信息,都要首先给出所选的存储单元地址,通过单元地址访问该存储单元。图1-5 存储器示意图

存储器中包含的存储单元总数称为存储容量。通常,存储容量的单位为KB、MB,如64KB、256MB等。存储容量是评价计算机功能的重要指标之一。存储容量越大,能存储的信息就越多,从而可处理问题的复杂度就越高。

内存分为两类:随机存储器和只读存储器。

随机存储器(Random Access Memory,RAM):CPU可对它进行读/写操作。其特点是:可读/写,断电后信息将全部消失,即具有信息易失性。通常,RAM指计算机主存,主存容量即为RAM容量。

只读存储器(Read Only Memory,ROM):CPU对它只进行读操作。其特点是:只读,断电后信息仍保存,即具有信息非易失性。ROM通常用来存放计算机系统管理程序,以及不需要修改的信息,如基本输入/输出系统(Basic Input/Output System,BIOS)。(2)外存储器(简称外存,也称辅存)

外存储器又称辅助存储器,主要用于存放大量计算机暂时不用的程序和数据。通常,CPU不能直接访问外存,需要用到外存中的信息时,可成批地将外存中的信息调入内存中,以供CPU使用。常见的外存有磁盘、光盘、U盘等。

4)输入/输出设备

输入/输出设备就是计算机的输入/输出部件,负责将外部信息送入计算机内部(如输入原始数据和程序),或者将计算机内部信息向外部输出(如最终计算结果)。输入/输出设备的种类繁多,常见的输入/输出设备有打印机、显示器、键盘、鼠标器、扫描仪、触摸屏等。【实例1-1】 以计算sum(x(yz为例,说明如何使用计算机完成计算任务。

① 按照运算步骤编写程序,该程序的功能为“计算出sum的值”。

② 计算机执行该程序,对程序指令依次进行分析,根据指令要求对输入数据进行求和运算,并给出计算结果。

在计算机中,真正实现运算功能的部件称为运算器,即乘、加、赋值等操作在运算器中完成;存储器用来存放求和程序及运算数据和中间临时结果;控制器用来从存储器中依次取出指令,分析指令,将指令要求下达到运算器等部件中,即自动控制整个计算过程;将程序及用于求和的数据(x,y,z)输入计算机中或将计算结果(sum)显示出来的部件称为输入设备或输出设备。

注意:这里所说的程序是指计算机能够识别的二进制代码程序,和用高级程序设计语言(如C语言)所编写的程序是有区别的。通常的高级程序设计语言所编写的程序称为源程序,需要转换为二进制代码程序(称为目标程序)才能在计算机上运行(详见1.2.4节)。1.2.4 计算机软件系统

软件是计算机系统中必不可少的组成部分。软件系统分为系统软件和应用软件两大类。

1.系统软件

系统软件是指用于管理、监控和维护计算机系统正常工作的程序和相关资料。系统软件的功能主要是简化计算机操作,扩展计算机处理能力和提高计算机的工作效率。

系统软件主要包括以下4种。

① 操作系统。操作系统是重要的系统软件,是用户与计算机的接口,用来管理和控制硬件资源(包括硬盘空间、内存、CPU时间及外设等),同时为用户使用计算机提供使用界面。

每个用户程序都要在操作系统支持下编写和运行。

② 程序设计语言及其处理程序(如机器语言、汇编语言、高级语言等)。

③ 系统支持和服务程序(如故障检查与诊断程序)。

④ 数据库管理系统(如Oracle、SQL Server、DB2等,用来实现用户对数据库的建立、管理、维护、使用等功能)。

2.应用软件

应用软件是用户利用计算机软、硬件资源为解决各类实际应用问题而编写的软件。它分为用户程序和应用软件包。用户程序是用户为了解决特定的具体问题而开发的软件,在系统软件和应用软件包的支持下开发。应用软件包是为了实现某种特殊功能而经过精心设计、结构严密的独立系统,是一套满足同类应用的许多用户需要的软件,如用于实现办公自动化的Office应用软件包等。

3.程序和语言

无论系统软件还是应用软件,都是用程序设计语言编写的。

1)程序

程序是为完成某一任务而设计的有限多的操作命令序列,是软件最重要的成分。按照“存储程序”原理,计算机之所以能够自动完成工作,就是靠自动执行程序。

程序是用计算机语言编写的。设计和书写计算机程序的过程,称为程序设计。

2)计算机语言

计算机语言,也叫做程序设计语言,是一个能完整、准确和规则地表达人们的意图,并用于指挥或控制计算机工作的“符号系统”,是用来书写程序用的。

计算机语言通常分为三类:机器语言、汇编语言和高级语言。(1)机器语言

用二进制指令代码表示的计算机语言称为机器语言。前面介绍的指令就属于机器语言。

机器语言的特点是:计算机可以直接识别,不需要任何翻译,执行速度快。对于程序员来说,用机器语言编写程序很不方便,并且机器语言程序难以辨认、记忆、调试和修改。(2)汇编语言

机器语言采用0、1代码,难以书写、识别。为了便于书写和阅读程序,每条指令采用与代码指令实际含义相近的英文缩写字母来表示。例如,用ADD表示加法指令,SUB表示减法指令等。这种缩写码叫做助记符。

这种用助记符表示的计算机语言称为汇编语言。

因为对于不同类型的计算机,指令助记符的规定是不一样的,所以汇编语言仍是一种的面向机器的计算机语言。执行指令时,需由汇编程序将指令助记符转换成相对应的二进制操作码,机器硬件才能识别。(3)高级语言

机器语言和汇编语言都是面向机器的,执行效率高,但也存在相应的问题。例如,编写效率低,由于语言对机器的过分依赖,要求使用者必须对硬件结构及其工作原理都十分熟悉等。

为此,人们开始创造与人类自然语言相接近且能为计算机所接受的,语义确定、规则明确、自然直观且通用易学的计算机语言。这种与自然语言相近并为计算机所接受和执行的计算机语言称为高级语言,如BASIC、Pascal、C、COBOL、LISP和PROLOG等。高级语言是面向用户的语言。

高级语言的特点有:高级语言的使用独立于机器语言;高级语言记号系统接近于自然语言,便于理解、掌握;可移植性较好;可以在不同类型的机器上运行。

用高级语言编写的程序需要经过翻译才能被计算机所识别和执行。通常的“翻译”有两种方式,即编译方式和解释方式。

编译方式:将由高级语言编写的程序(称为源程序,如用Pascal或C语言编写的程序)翻译为等价的低级语言程序(称为目标程序,即汇编语言程序或机器语言程序)。完成这种翻译的程序称为编译程序。编译程序属于系统软件,存放在计算机内。

采用编译方式的语言系统中,程序的执行过程分为两个阶段,如图1-6所示。图1-6 编译方式

解释方式:对源程序的语句边翻译边执行,不产生目标程序,如图1-7所示。完成该过程的程序称为解释程序。解释程序支持交互式环境,属于系统软件。图1-7 解释方式

编译程序与解释程序之间最本质的区别在于翻译过程中是否生成目标程序。1.2.5 计算机中数据存储的概念

计算机中的所有数据都以二进制形式表示,存放在存储器中。常用的存储单位有位、字节和字。

1.位(bit)

计算机采用二进制数编码,二进制数“0”和“1”是构成信息的最小单位,称为位或比特(bit)。

2.字节(Byte)

8个二进制位构成1个字节(Byte)。通常,构成1个字节的8个位被看做一个整体。字节是计算机存储信息的基本单位。

字节常用来衡量计算机的存储容量。10

通常,要在字节前加上相应的数量级,如:1KB(2B,2030401MB(2B,1GB(2B,1TB(2B。

例如,一台计算机的内存容量为512MB(512MB=512×1024×1024B)。

3.字(Word)

由若干个字节组成一个字。字是CPU一次操作或总线上一次传输的数据单位,其长度与机器有关。

对计算机的运算器和内存储器来说,一个字或几个字是一个数据;对控制器来说,一个字或几个字是一条指令。

一个字所包含的二进制位数称字长。字长是CPU的重要标志之一。字长越长,说明计算机数值的有效位越多,精确度就越高。

注意:每一个字节包含8个二进制位,但一个字所包含的二进制位数并不固定,与具体机器相关。例如,内存容量为64KB,则64KB=64×1024×8bit=512Kbit。而容量为64KWord,其对应的二进制位数要视机器字长而定,若字长为16bit,则64KWord=64×1024×16bit=1Mbit;若字长为32bit,则64KWord=64×1024×32bit=2Mbit。

1.3 微型计算机

这里所讲的微型计算机是指日常使用的个人计算机(Personal Computer,PC)。随着计算机硬件技术的发展,PC的功能越来越强大,从初始的仅能进行简单运算发展成为现在的多媒体中心。技术的发展使得硬件的价格随之大幅下降,从而使个人组装一台高性能的PC成为可能。

思考问题

● 微型计算机与计算机有何区别?

● 微型计算机的性能是由什么决定的?

● 根据不同的使用目的,如何选择合适的配置?1.3.1 微型计算机系统

微型计算机是相对于大型、中型、小型计算机而言的,其中央处理器(CPU)采用大规模、超大规模集成电路技术。

1.微处理器

微处理器(Microprocessor),也称微处理机,是采用大规模或超大规模集成电路技术将ALU、控制单元、寄存器集成在一起构成的集成电路芯片。1971年,美国Intel公司发明了世界上第一片微处理器。

2.微型计算机

微型计算机是以微处理器为核心,再加上随机存储器(RAM)、只读存储器(ROM)、输入/输出电路、总线接口组成的计算机。

3.微型计算机系统

微型计算机系统是以微型计算机为核心,再加上相应的外围设备、辅助电路及控制微型机算计工作的相关软件组成的计算机系统。1.3.2 微型计算机的硬件组成

微型计算机基本上由显示器、键盘和主机构成。主机安装在主机箱内。在主机箱内有主板、硬盘驱动器、CD-ROM驱动器、软盘驱动器、电源、显示适配器(显卡)等。

1.主机系统

主板、CPU和内存构成了计算机的主机系统,可以说主机系统是微型计算机系统的核心。主机系统的性能决定了微型计算机的性能,主机系统部件的选择甚至能够影响整个微型计算机系统的稳定性。

1)CPU

微型计算机的中央处理器(CPU)叫微处理器,是整个计算机系统的核心。数据的处理和程序的执行都要通过CPU。CPU的性能在很大程度上决定了计算机系统的性能。(1)CPU的种类

用户在选择CPU时通常只有两个选择,Intel系列或AMD系列。当然市场中还有其他的CPU可供选择,但由于所占市场份额极小,通常没有必要考虑。

针对不同用户的不同需求、不同应用范围,CPU被设计成嵌入式、通用式、微控制式等类型。在微型计算机系统(PC)、服务器(工作站)和笔记本电脑中选用的通常是高性能的通用式CPU。例如,Intel的P4系列、P4 M系列、赛扬D系列、奔腾D系列和酷睿系列产品,AMD的AM2闪龙系列、Athlon 64和Sempron系列产品等都属于常用的通用式CPU。(2)CPU常见的性能指标

CPU的性能主要体现在其运算速度上,CPU运算的速度在一定程度上决定了整个PC的性能,通常只是简单地升级CPU,就会大幅度提升PC的性能。但影响CPU运算速度的因素很多,如CPU的主频、缓存、核心和制造工艺等。人们习惯于用CPU的主频来描述CPU的运算速度,并将CPU的频率作为PC的一个主要性能指标。这一点从早期CPU的命名当中可以得到充分的体现。例如,“PⅢ EB 1G”就代表了主频为1GHz的奔腾三代CPU。

由于主频并不直接代表运算速度,所以出现主频较高的CPU而实际运算速度较低的现象就不足为奇了。例如,AMD公司的Athlon XP系列CPU虽然主频较低,但可以达到Intel公司的P4系列较高主频CPU的性能。有鉴于此,Intel公司最近也改变了以往的“唯主频”论,接受了“低主频高性能”的观点,其最新推出的酷睿系列的主频并不高(如顶级的Core 2 Extreme X6800的主频只有2.93GHz),但性能却提高了近40%。

在486之前,CPU的主频一般都等于外频(外频是指CPU与主板同步运行的速度)。而在486以后,CPU的工作频率不断提高,但PC的外设受工艺限制不能承受更高的工作频率,因而限制了CPU频率的进一步提高。为了保证CPU高速运算的同时,其他外设也能够正常工作,便出现了倍频技术。采用倍频技术后,CPU的主频等于外部频率和倍频的乘积,因此在不改变外部频率的情况下,只要提升倍频就可以提升CPU主频,这样既可以保证CPU有较高的工作频率,而工作频率较低的外部设备也可以正常工作。

标准外部频率一般为100MHz或133MHz,目前CPU的外部频率已经达到200MHz。在正常情况下,外频和内存总线频率相同,所以当CPU外频提高后,与内存之间的交换速度也相应得到了提高,对提高计算机整体运行速度影响较大。

注意:主频仅仅是CPU性能表现的一个方面,而不代表CPU的整体性能。在相同外频的前提下,高倍频的CPU本身意义并不大,单纯地一味追求高倍频而得到的高主频的CPU会出现明显的“瓶颈”(CPU从系统中得到的数据的极限速度不能满足CPU运算的速度要

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载