大学计算机基础案例教程(txt+pdf+epub+mobi电子书下载)


发布时间:2020-07-14 06:38:03

点击下载

作者:王艳玲 杨石

出版社:中国铁道出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

大学计算机基础案例教程

大学计算机基础案例教程试读:

前言

随着全球数字化、信息化和网络化技术的全面发展,计算机已深入到人们的日常生活与工作之中,成为当代文化的一个重要组成部分。作为高等院校的学生,系统地了解计算机应用的相关知识、熟练掌握计算机的基本操作技能,已成为当代大学生必须具备的基本技能之一,对全面培养大学生的综合素质起着至关重要的作用。

本书是非计算机专业计算机基础教育入门课程的教材,内容包括:计算机概论、Windows 7操作系统、文字处理软件Word 2010的使用、电子表格制作软件Excel 2010的使用、演示文稿制作软件PowerPoint 2010的使用、计算机网络基础、无纸化考试系统的应用。

大学计算机基础课程是一门技能型课程,主要培养大学生的计算机操作能力。根据课程特点及教学目标,本书从实际工作中提取案例,通过案例组织教学。教材编写组的教师均在教学一线承担教学任务,依据多年的实际教学经验,并参考和借鉴了多本相关的同类教材,精心设计了29个教学案例,以案例统领全书,利用案例将各章的知识点与操作技能有机地串连起来,以使学生通过具体的案例制作过程掌握相关的知识,增强学习过程的趣味性,从而获得更好的效果。

本书由王艳玲、杨石主编并负审统稿。具体编写分工如下:第1章由王艳玲、杨石编写,第2章由杨波编写,第3章由于露、韩擎宇编写,第4章由初晓、杨石编写,第5章由杨石编写,第6章由何颖编写,第7章由吴海超编写。

由于编者水平有限,加之时间仓促,书中难免存在疏漏和不足之处,敬请各位专家、读者批评指正。

编者2016年6月第1章计算机概论

信息化时代的今天,不管是学习还是工作都离不开网络和计算机。大学计算机公共课程教学不仅是大学通识教育的一个重要组成部分,更是培养大学生用计算思维方式解决专业问题、成为复合型创新人才的基础性教育。计算机及互联网为我们提供了极其丰富的信息和知识资源,为终生学习提供了广阔的空间及良好的学习工具。善于使用互联网和办公软件是培养良好的交流表达能力和团队合作能力的重要基础。

本章从计算机发展历史,计算机的特点、分类与作用,以及对计算机系统的组成、数据在计算机中的表示与存储进行介绍,并对微型机的维护、计算机病毒与防治进行简要介绍。1.1计算机概述

本章知识点如下:

●计算机的发展以及发展趋势。

●计算机的特点。

●计算机的分类。

●计算机的应用领域。1.1.1 计算机的发明与发展

现在所说的计算机,准确地说应该称为数字电子计算机(以与模拟计算机相区别),它是以二进制运算为基础的数字运算装置。计算机的发明是人类对计算工具不断追求的结果。从远古人类的结绳记事,算筹、算盘的发明,到1822年英国人查理斯·贝巴奇完成第一台差分机,再到1946年人类第一台电子计算机ENIAC的问世,一直到今天的微型计算机的普及,计算机的发展经历了漫长的过程。

1.莱布尼茨与乘法机

德国数学家莱布尼茨认为,中国的八卦是最早的二进制计数法。在八卦图的启迪下,莱布尼茨系统地提出了二进制运算法则。这是现代电子计算机的基础。

1673年,莱布尼茨发明乘法机,这是第一台可以运行完整的四则运算的计算机。莱布尼兹同时还提出了“可以用机械代替人进行烦琐重复的计算工作”的伟大思想,这一思想至今鼓舞着人们探求新的计算机。图1-1所示是莱布尼茨与他发明的乘法机。

图1-1 莱布尼茨与乘法机

2.贝巴奇与差分机

查理斯·巴贝奇是英国著名的数学家,他的第一个贡献是制作了一台“差分机”。所谓“差分”,是把函数表的复杂算式转化为差分运算,用简单的加法代替平方运算。1812年,20岁的巴贝奇从法国人杰卡德发明的提花编织机上获得了灵感,差分机设计闪烁出了程序控制的灵光——它能够按照设计者的旨意,自动处理不同函数的计算过程。巴贝奇耗费了整整十年,于1822年完成了第一台差分机,它可以处理3个不同的5位数,计算精度达到6位小数,当时就能演算出好几种函数表。图1-2所示是巴贝奇与他发明的差分机。

图1-2 巴贝奇与差分机

3.图灵与图灵机

阿兰·麦席森·图灵(1912—1954)是计算机逻辑的奠基者,许多人工智能的重要方法也源自于这位伟大的科学家。他对计算机的重要贡献在于他提出的有限状态自动机,也就是图灵机的概念。对于人工智能,它提出了重要的衡量标准“图灵测试”,如果有机器能够通过图灵测试,那它就是一个完全意义上的智能机。图录杰出的贡献使他成为计算机界的第一人——“人工智能之父”。人们为了纪念这位伟大的科学家,1966年美国计算机协会将计算机界的最高奖定名为“图灵奖”。

图灵机被公认为现代计算机的原型,这台机器可以读入一系列的“0”和“1”,这些数字代表了解决某一问题所需要的步骤,按这个步骤走下去,就可以解决某一特定的问题。这种观念在当时是具有革命性意义的,因为即使在20世纪50年代,大部分的计算机还只能解决某一特定问题,不是通用的,而图灵机从理论上却是通用机。“图灵机”不是一种具体的机器,而是一种思想模型,可制造一种十分简单但运算能力极强的计算装置,用来计算所有能想象得到的可计算函数。图1-3所示是图灵与图灵机。

4.第一台电子计算机

在第二次世界大战中,敌对双方都使用了飞机和火炮,猛烈轰炸对方军事目标。要想打得准,必须精确计算并绘制出“射击图表”。经查图表确定炮口的角度,才能使射出去的炮弹正中飞行目标。但是,每一个数都要做几千次的四则运算才能得出来,十几个人用手摇机械计算机算几个月,才能完成一份图表。

针对这种情况,人们开始研究把电子管作为“电子开关”提高计算机的运算速度。20世纪40年代中期,美国宾夕法尼亚大学电工系由莫利奇和艾克特领导,为美国陆军军械部阿伯丁弹道研究实验室研制了一台用于炮弹弹道轨迹计算的“电子数值积分和计算机”(Electronic Numerical Integrator and Calculator,ENIAC)。这台称为“埃尼阿克”的计算机占地面积150m 2 ,总质量达30t,使用了18000只电子管,6000个开关,7000只电阻,10000只电容,50万条线,功率为140kW,每秒可进行5000次加法运算。这个庞然大物于1946年2月15日在美国举行了揭幕典礼。这台计算机的问世,标志着计算机时代的开始。图1-4所示是第一台电子计算机ENIAC的图片。

图1-3 图灵与图灵机

图1-4 第一台电子计算机ENIAC

5.冯·诺依曼与“冯·诺依曼机”

美籍匈牙利裔学者约翰·冯·诺依曼(John von.Neumann,1903—1957)被誉为“电子计算机之父”(见图1-5)。他在数学、物理学、经济学方面都有丰硕的成果,不过他对人类的最大贡献是对计算机科学、计算机技术和数值分析的开拓性工作。

图1-5 冯·诺依曼

1944年,冯·诺依曼由ENIAC机研制组的戈尔德斯廷中尉介绍参加了ENIAC机研制小组,成为莫尔学院电子计算机攻关小组的实际顾问。由于ENIAC存在致命的缺陷——程序与计算相分离,指挥近2万电子管“开关”工作的程序指令被存放在机器的外部电路中,需要计算某个题目前,埃克特必须派人把数百条线路用手接通,像电话接线员那样工作几小时甚至好几天,才能进行几分钟运算。在ENIAC尚未投入运行前,冯·诺依曼就已开始准备对这台电子计算机进行脱胎换骨的改造。在短短10个月里,冯·诺依曼迅速把概念变成了方案。新机器方案命名为“离散变量自动电子计算机”(EDVAC)。1945年6月,冯·诺依曼与戈尔德斯廷等人,联名发表了一篇长达101页纸的报告,即计算机史上著名的“101页报告”。这份报告奠定了现代计算机体系结构坚实的根基,直到今天,仍然被认为是现代计算机科学发展里程碑式的文献。

EDVAC方案明确了新机器由5个部分组成:运算器、控制器、存储器、输入和输出设备,并描述了这5部分的职能和相互关系。设计思想之一是二进制,他根据电子元件双稳工作的特点,建议在电子计算机中采用二进制。报告提到了二进制的优点,并预言,二进制的采用将大大简化机器的逻辑线路。EDVAC方案的革命意义在于“存储程序”,即指令和数据可一起放在存储器中,并做同样的处理。这简化了计算机的结构,大大提高了计算机的效率。1946年7~8月间,冯·诺依曼和戈尔德斯廷、勃克斯在EDVAC方案的基础上,为普林斯顿大学高级研究所研制IAS计算机时,又提出了一个更加完善的设计报告“电子计算机逻辑设计初探”。以上两份既有理论又有具体设计的文件,首次在全世界掀起了一股“计算机热”,他们的综合设计思想,便是著名的“冯·诺依曼机”,其中心就是存储程序原则——指令和数据一起存储。这个概念被誉为“计算机发展史上的一个里程碑”。它标志着电子计算机时代的真正开始,指导着以后的计算机设计。直至今日,冯·诺依曼的计算机原理与结构,仍然广泛用于各种类型的计算机中。随着科学技术的进步,今天人们又认识到“冯·诺依曼机”的不足,它阻碍了计算机速度的进一步提高,从而提出了“非冯·诺依曼机”的设想。

6.晶体管的发明与第二代电子计算机

1947年,美国AT&T公司贝尔实验室的两位科学家制成了世界上第一只晶体管,随后于1954年研制成功第一台使用晶体管的第二代计算机TRADIC。由于晶体管比电子管体积小得多,并且具有导通截止速度快、可靠性高、稳定性强等优点,所以第二代计算机立即替代了第一代计算机而迅速发展起来。相比采用定点运算的第一代计算机,第二代计算机普遍增加了浮点运算,计算能力实现了一次飞跃。第二代计算机除了大量用于科学计算,还逐渐被工商企业用来进行商务处理,高级语言FORTRAN和COBOL因此也得到了广泛应用。

7.集成电路(IC)的发明与第三代电子计算机

1952年,美国雷达研究所的科学家达默(G.W.A.Dummer)提出了“将电子设备制作在一个没有引线的固体半导体板块中”的集成技术设想,从而给微电子的发展带来了一次质的飞跃。1958年,美国物理学家基尔比和诺伊斯同时发明集成电路。同年,美国得州仪器(TI)公司制成了第一批集成电路,由于集成电路的使用,使电子计算机进入第三代。

第三代电子计算机的主要特点是逻辑元件采用集成电路,运算速度可以达到每秒几十万次到几百万次,体积更小、成本更低。同时,计算机开始向标准化、多样化、通用化和系列化发展。软件逐渐完善,操作系统开始使用。

8.超大规模集成电路与第四代电子计算机

1971年,美国Intel公司的马西安·霍夫(M.E.Hoff)大胆构想,将计算机的线路加以改进,把中央处理器的全部功能集成到一块芯片上,这就是世界上第一台微处理器,也是第四代——超大规模集成电路电子计算机的雏形。由于超大规模集成电路这一高度集成技术的出现,将计算机的核心部件可以集成在一块芯片上,这使计算机微型化成为可能。由于半导体技术的不断进步,使集成电路集成的晶体管的数量以及工作的时钟频率都在不断的刷新,使微型机的性能都超过了第三代大型机的性能,大型机以及巨型机的性能更是突飞猛进。同时,软件行业迅速发展,编译系统、操作系统、数据库管理系统以及应用软件的研究更加深入,软件业已成为一个重要产业。

9.计算机的发展趋势

现在的计算机功能已相当强大,为人类做出了巨大的贡献。随着计算机应用的普及,人们对计算机的依赖性也越来越大,对计算机的功能要求越来越高,因此研制功能更加强大的新型计算机已成为必然。计算机未来的发展趋势将主要概括为以下几个方面:(1)巨型化

巨型化是指发展高速、大存储容量和功能更强大的巨型机,以满足尖端科学研究的需要。并行处理技术是当今研制巨型计算机的基础。研制巨型机能体现出一个国家计算机科学水平的高低,也能反映出一个国家的经济实力和科学技术水平。(2)微型化

发展小、巧、轻、价格低、功能强的微型计算机,以满足更广泛的应用领域。近年来,微机技术发展十分迅速,新产品不断问世,IC芯片集成度和性能不断提高,价格也越来越低。各种掌上型电脑性能越来越高,价格也越来越低。(3)网络化

计算机网络是计算机技术和通信技术结合的产物,是计算机技术中最重要的一个分支,是信息系统的基础设施。信息网络,能使任何人在任何时间、任何地点,将文字、声音、图像和电视信息传递给在任何地点的任何人。它将学校、科研机构、企业、图书馆和实验室等部门的各种资源连接在一起,被全体公民所共享。(4)智能化

智能化是指用计算机来模拟人的感觉和思维过程,使计算机具备人的某些智能。例如听、说、识别文字、图形和物体,并具备一定的学习和推理能力等。智能化是建立在现代科学基础之上的、综合性很强的边缘科学。大量科学家为此正在进行艰难的探索。

一些发达国家正在开展对新型计算机的研究。第五代计算机(人工智能机)和第六代计算机(神经网络机)的研制工作继续深入,不断出现新成果。日本已研制出光学神经型计算机,这种计算机能够通过连续自动程序模拟人脑学习和存储视觉形象,具有人脑的视觉神经反应能力和记忆能力。(5)多媒体化

多媒体化是指计算机能更有效地处理文字、图形、动画、音频和视频等多种形式的信息,使人们更自然、有效地使用信息。

10.未来计算机

未来计算机的研究目标是打破计算机现有的体系结构,使得计算机能够具有像人那样的思维、推理和判断能力。尽管传统的、基于集成电路的计算机短时间内不会退出历史舞台,但旨在超越它的光子计算机、生物计算机、超导计算机、纳米计算机和量子计算机正在跃跃欲试。(1)光子计算机

光子(Photon)计算机利用光子取代电子进行数据运算、传输和存储。在光子计算机中,不同波长的光表示不同的数据,可快速完成复杂的计算工作。与电子计算机相比,光子计算机具有以下优点:超高速的运算速度、强大的并行处理能力、大存储量、非常强的抗干扰能力等。据推测,未来光子计算机的运算速度可能比今天的超级计算机快1000倍以上。(2)生物计算机

生物(DNA)计算机使用生物芯片。生物芯片是用生物工程技术产生的蛋白质分子制成,存储能力巨大,运算速度比当前的巨型计算机还要快10万倍,能量消耗则为其的十亿分之一。由于蛋白质分子具有自组织、自调节、自修复和再生能力,使得生物计算机具有生物体的一些特点,如自动修复芯片发生的故障,还能模仿人脑的思考机制。(3)超导计算机

超导(Superconductor)计算机是由特殊性能的超导开关器件、超导存储器等元器件和电路制成的计算机。1911年,荷兰物理学家昂内斯首先发现了超导现象——某些铝系、铌系、陶瓷合金等材料,当它们冷却到接近-273.15℃时,会失去电阻值而成为导体。目前制成的超导开关器件的开关速度比集成电路要快几百倍,电能消耗仅是大规模集成电路的千分之一。(4)纳米计算机

纳米(Nanometer)计算机指将纳米技术运用于计算机领域所研制出的一种新型计算机。纳米技术是从20世纪80年代初发展起来的新的科研领域,最终目标是人类按照自己的意志直接操纵单个原子,制造出具有特定功能的产品。“纳米”本是一个计量单位,1nm=10 -9 m,大约是氢原子直径的10倍。应用纳米技术研制的计算机内存芯片,其体积不过数百个原子大小,相当于人的头发丝直径的千分之一。纳米计算机几乎不需要耗费任何能源,而且其性能要比目前的计算机强大,运算速度将是使用硅芯片计算机的1.5万倍。(5)量子计算机

量子(Quantum)计算机以处于量子状态的原子作为中央处理器和内存,利用原子的量子特性进行信息处理。由于原子具有在同一时间处于两个不同位置的奇妙特性,即处于量子位的原子既可以代表0或1,也能同时代表0和1以及0和1之间的中间值,故无论从数据存储还是处理的角度,量子位的能力都是晶体管电子位的两倍。目前,量子计算机只能利用大约5个原子做最简单的计算。要想做任何有意义的工作都必须使用数百万个原子,但其高效的运算能力使量子计算机具有广阔的应用前景。

未来的计算机技术将向超高速、超小型、智能化的方向发展。超高速计算机将采用并行处理技术,使计算机系统同时执行多条指令或同时对多个数据进行处理,这是改进计算机结构、提高计算机运行速度的关键技术。同时计算机还将具备更多的智能成分,将具有多种感知能力、一定的思考与判断能力及一定的自然语言能力。除了提供自然的输入手段(如按键输入、手写输入、语音输入)外,让人能产生身临其境感觉的各种交互设备已经出现,虚拟现实技术就是这一领域发展的集中表现。1.1.2 计算机的特点

计算机作为一种通用的信息处理工具,具有极高的处理速度、很强的存储能力、精确的计算和逻辑判断能力,其主要特点如下:

1.运算速度快

当今计算机系统的运算速度已达到每秒千万亿次,微机也可达每秒亿次以上,使大量复杂的科学计算问题得以解决。例如:卫星轨道的计算、大型水坝的计算及天气预报的计算等,过去人工计算需要几年、几十年,而现在用计算机只需几天甚至几分钟即可完成。

2.计算精度高

科学技术的发展特别是尖端科学技术的发展,需要高度精确的计算。计算机控制的导弹之所以能准确地击中预定目标,是与计算机的精确计算分不开的。一般计算机可以有十几位甚至几十位有效数字,计算精度可到百万分之几,是任何计算工具所望尘莫及的。

3.存储容量大

计算机的存储器类似于人的大脑,可以“记忆”(存储)大量的数据和信息。随着微电子技术的发展,计算机内存储器的容量越来越大,目前一般的微机内存容量已达256MB到2GB甚至更高,加上大容量的磁盘、光盘等外部存储器,实际上存储容量已达到了海量。而且,计算机所存储的大量数据可迅速被查询,这种特性对信息处理是十分重要和有用的。

4.可靠性高

计算机硬件技术的迅速发展,使得计算机具有非常高的可靠性,其平均无故障时间可达到以“年”为单位。人们所说的“计算机错误”,通常是由于与计算机相连的设备或软件的错误造成的,而由计算机硬件引起的错误愈来愈少。

5.工作全自动

计算机内部操作是根据人们事先编好的程序自动控制进行的。用户根据解题需要,事先设计好运行步骤与程序,计算机严格按程序规定的步骤操作,整个过程不需要人工干预。

6.适用范围广,通用性强

计算机靠存储程序控制进行工作。一般来说,无论是数值的还是非数值的数据,都可以表示成二进制数的编码,无论是复杂的还是简单的问题,都可以分解成基本的算术运算和逻辑运算,并可用程序描述解决问题的步骤。所以,不同的应用领域中,只要编制和运行不同的应用软件,计算机就能在此领域中进行很好的服务,通用性极强。1.1.3 计算机的分类

计算机种类很多,可以从不同的角度对计算机进行分类。

1.按照计算机原理分类(1)数字式计算机

数字式计算机是用不连续的数字量即“0”和“1”来表示信息,其基本运算部件是数字逻辑电路。数字式电子计算机的精度高、存储量大、通用性强,能胜任科学计算、信息处理、实时控制和智能模拟等方面的工作。人们通常所说的计算机就是指数字式计算机。(2)模拟式电子计算机

模拟式计算机是用连续变化的模拟量即电压来表示信息,其基本运算部件是由运算放大器构成的微分器、积分器、通用函数运算器等运算电路组成。模拟式电子计算机解题速度极快,但精度不高、信息不易存储、通用性差,它一般用于解微分方程或自动控制系统设计中的参数模拟。(3)混合式计算机

混合式计算机是综合了上述两种计算机的长处设计出来的,它既能处理数字量,又能处理模拟量。但是这种计算机结构复杂,设计困难。

2.按照计算机用途分类(1)通用计算机

通用计算机是为能解决各种问题、具有较强的通用性而设计的计算机。它具有一定的运算速度,有一定的存储容量,带有通用的外围设备,配备各种系统软件、应用软件。一般的数字式电子计算机多属此类。(2)专用计算机

专用计算机是为解决一个或一类特定问题而设计的计算机。它的硬件和软件的配置依据解决特定问题的需要而定,并不求全。专用机功能单一,配有解决特定问题的固定程序,能高速、可靠地解决特定问题。一般在过程控制中使用此类计算机。

3.按照计算机性能分类

计算机的性能主要是指其字长、运算速度、存储容量、外部设备配置、软件配置等。1989年11月美国电气和电子工程师学会(IEEE)根据当时计算机的性能及发展趋势,将计算机分为巨型机、小巨型机、大型机、小型机、工作站和个人计算机六大类。(1)巨型机(Super Computer)

巨型机又称超级计算机,它是所有计算机类型中价格最贵、功能最强的一类计算机,其浮点运算速度己达每秒数十万亿次。目前多用在国家高科技领域和国防尖端技术中。(2)小巨型机(Minisuper Computer)

小巨型机是20世纪80年代出现的新机种,因巨型机价格十分昂贵,在力求保持或略微降低巨型机性能的条件下开发出小巨型机,使其价格大幅降低(约为巨型机价格的1/10)。为此在技术上采用高性能的微处理器组成并行多处理器系统,使巨型机小型化。(3)大型机(Mainframe)

国外习惯上将大型机称为主机,它相当于国内常说的大型机和中型机。近年来大型机采用了多处理、并行处理等技术。大型机具有很强的管理和处理数据的能力,一般在大企业、银行、高校和科研院所等单位使用。(4)小型机(Minicomputer)

小型机结构简单、价格较低、使用和维护方便,备受中小企业欢迎。20世纪70年代出现小型机热,到20世纪80年代其市场份额已超过了大型机。(5)工作站(Workstation)

工作站是一种高档微型机系统。它具有较高的运算速度,具有大型机或小型机的多任务、多用户能力,且兼有微型机的操作便利和良好的人机界面。其最突出的特点是具有很强的图形交互能力,因此在工程领域特别是计算机辅助设计领域得到迅速应用。(6)个人计算机(Personal Computer)

个人计算机是20世纪70年代出现的新机种,以其设计先进(总是率先采用高性能微处理器)、软件丰富、功能齐全和价格便宜等优势而拥有广大的用户,因而大大推动了计算机的普及应用。现在除了台式机外,还有笔记本、掌上型计算机等。

4.按照计算机使用范围分类

根据当前计算机的使用情况,可以把计算机将计算机分为服务器、工作站、台式机、台式机、便携机、一体机、手持机和平板电脑七大类。(1)服务器

服务器是指在网络环境中能为其他计算机提供服务的高性能计算机系统。服务器在稳定性、安全性等方面要求很高,因此对硬件系统的要求也很高。服务器的硬件构成与普通计算机相似,但这些硬件是针对具体的网络应用特别制定的。例如,服务器通常具有大容量的内、外存储器和快速的输入/输出通道,以及强大的信息处理能力和联网能力。从应用上来看服务器主要分为网络服务器、打印服务器、磁盘服务器和文件服务器等。一般服务器具有大容量的存储设备和丰富的外围设备,安装并运行网络操作系统、网络协议和各种服务软件。(2)工作站

工作站是一种高档的微型计算机,通常配有高分辨率和大屏幕显示器及大容量的内、外存储器,并且具有强大的信息处理功能。它以个人计算机和分布式网络计算机为基础,主要面向专业应用领域,具备强大的数据运算与图形、图像处理能力,是为满足工程设计、动画制作。科学研究、软件开发、金融管理、信息服务、模拟仿真等专业领域而设计开发的高性能计算机。(3)台式机

台式机由主机、显示器、键盘和鼠标等设备组成,是日常使用最多的计算机。根据配置和用途,台式机又分为商用机、家用机和多媒体机。(4)便携机

便携机也称笔记本电脑,它的功能与台式机不相上下,其特点是体积小、重量轻。它就像一个笔记本,打开后,一面是LCD(液晶显示器),另一面则是键盘以及当作鼠标使用的触摸板或轨迹球等。(5)一体机

随着计算机集成度的增强,计算机厂商开始把主机集成到显示器中,从而形成一体计算机。一体计算机较传统台式机的优势在于:连线少、体积小、集成度更高,价格却无明显变化,可塑性更强,厂商可设计出极具个性的产品。(6)手持机

手持机是指具有以下几种特性的便于携带的数据处理终端机器:

①具有数据存储及计算能力(一般指有操作系统)。

②能与其他设备进行数据通信(Wi-Fi/GPRS/Bluetooth等)。

③有人机界面,具体而言要有显示和输入功能。

④机器自身带有电池,可以使用电池工作。

手持机比笔记本电脑更小、更轻,是辅助个人工作的数码工具,主要提供记事、通讯录、名片交换及行程安排等功能。(7)平板电脑

平板电脑是一种小型、方便携带的个人计算机,以触摸屏作为基本的输入设备。平板电脑由比尔·盖茨提出,支持来自Intel、AMD等厂商的芯片架构,从微软提出的平板电脑概念产品来看,平板电脑就是一款无须翻盖、没有键盘、小到放入口袋,但却功能完整的计算机。1.1.4 计算机的应用

计算机的应用已经渗透到人类社会的各个领域,不仅可以实现各种复杂的运算,还可以对各种数据信息进行收集、存储、管理、加工,广泛应用于辅助设计、工业控制、网络通信和电子商务等领域。

按照计算机应用的领域,归纳起来有以下几大类:

①科学计算:实现大规模、复杂、精密的运算,如应用于人造卫星轨迹计算、三峡工程抗震强度和大气预报等科学领域。科学计算是计算机最早的应用领域。

②信息处理与管理:主要针对大量的原始数据进行收集、存储、整理、分类、加工和统计等,特点是运算不复杂、但数据量非常庞大。这样的系统在计算机领域中有个专门的名称一一数据库系统,应用于人事管理、生产管理、财务管理、项目管理、图书情报检索及办公自动化等,应用领域最广,把人们从烦琐的数据统计和管理事务中解放出来,大大提高了工作效率。

③过程控制:也称工业控制(自动控制或实时控制),对于工业生产、交通管理和国防科研等过程进行数据采集、即时分析并即时发出控制信号,实现生产、科研自动化。

④辅助技术:利用计算机协助人们完成各种工作,提高工作效率。

a.计算机辅助设计(Computer Aided Design,CAD):利用计算机帮助设计人员进行工程设计,如飞机设计、汽车设计、建筑设计、机械设计和服装设计等一些实际应用。

b.计算机辅助制造(Computer Aided Manufacturing,CAM):利用计算机协助人们进行产品的制造、控制和操作,提高生产工艺水平、加工质量,降低成本,提高效益。

c.计算机辅助测试(Computer Assisted Test,CAT):利用计算机协助或替代人完成大量复杂、枯燥或恶劣环境的检测工作。

d.计算机辅助教学(Computer Assisted Instruction,CAI):通过计算机自动学习系统的形式协助或替代教师引导学生学习,增加学生的学习兴趣。

⑤人工智能(Artificial Intelligence,AI):使计算机具有“模拟”人的思维和行为等能力。人工智能研究的领域有模式识别、自动定理证明、自动程序设计、专家系统、智能机器人、博弈、自然语言的生成与理解等,其中最具有代表性的两个领域是专家系统和智能机器人。

⑥网络通信:将分布在各地的计算机连成一个整体,实现资源共享、信息传送。

⑦电子商务:是指通过计算机网络以电子数据信息流通的方式在世界范围内进行并完成各种商务活动、交易活动、金融活动和相关的综合服务活动。

⑧模拟系统:用计算机系统进行复杂系统的仿真实验和研究,为复杂系统的研究、制造提供了低成本与高准确度的辅助手段,大大降低了成本,缩短了周期。此外,计算机系统能够与图形显示、动态模拟系统组成逼真的模拟训练系统,在飞行训练、军事演习、技能评估等方面得到很好的应用。

⑨云计算:是通过网络提供可伸缩的廉价的分布式计算能力。云计算是一种商业计算模式,它将计算任务分布在大量计算机构成的资源池上,使用户能够按需获取计算力、存储空间和信息服务。云计算甚至可以让用户体验每秒10万亿次的运算能力,拥有这么强大的计算能力可以模拟核爆炸、预测气候变化和市场发展趋势。1.2计算机系统组成和工作原理

本节知识点如下:

●计算机的硬件系统构成。

●计算机的软件系统构成。

●计算机的工作原理。1.2.1 计算机系统的组成

目前的计算机是在程序语言支持下工作的,所以一个计算机系统应包括计算机硬件系统和计算机软件系统两大部分,如图1-6所示。

图1-6 计算机系统的组成

计算机硬件系统是指构成计算机的各种物理装置,包括计算机系统中的一切电子、机械、光电等设备,是计算机工作的物质基础。计算机软件系统是指为运行、维护、管理、应用计算机所编制的所有程序和数据的集合。通常,把不装备任何软件的计算机称为“裸机”,只有安装了必要的软件后,用户才能方便地使用计算机。

1.计算机硬件系统

计算机硬件系统由运算器、控制器、存储器、输入设备和输出设备五大部分组成,如图1-7所示。图1-7中实线为数据流(各种原始数据、中间结果等),虚线为控制流(各种控制指令)。输入/输出设备用于输入原始数据和输出处理后的结果,存储器用于存储程序和数据,运算器用于执行指定的运算,控制器负责从存储器中取出指令,对指令进行分析、判断,确定指令的类型并对指令进行译码,然后向其他部件发出控制信号,指挥计算机各部件协同工作,控制整个计算机系统逐步完成各种操作。

图1-7 计算机硬件系统(1)运算器

运算器是对数据进行加工处理的部件,通常由算术逻辑部件(Arithmetic Logic Unit,ALU)和一系列寄存器组成。它的功能是在控制器的控制下对内存或内部寄存器中的数据进行算术运算(加、减、乘、除)和逻辑运算(与、或、非、比较、移位)。(2)控制器

控制器是计算机的神经中枢和指挥中心,在它的控制下整个计算机才能有条不紊地工作。控制器的功能是依次从存储器中取出指令、翻译指令、分析指令,并向其他部件发出控制信号,指挥计算机各部件协同工作。

运算器、控制器和寄存器通常被集成在一块集成电路芯片上,称为中央处理器(Central Processing Unit,CPU)。(3)存储器

存储器用来存储程序和数据,是计算机中各种信息的存储和交流中心。存储器通常分为内部存储器和外部存储器。

内部存储器简称内存,又称主存储器,主要用于存放计算机运行期间所需要的程序和数据。用户通过输入设备输入的程序和数据首先被送入内存,运算器处理的数据和控制器执行的指令来自内存,运算的中间结果和最终结果也保存在内存中,输出设备输出的信息来自内存。内存的存取速度较快,容量相对较小。因内存具有存储信息和与其他主要部件交流信息的功能,故内存的大小及其性能的优劣直接影响计算机的运行速度。

外部存储器又称辅助存储器,用于存储需要长期保存的信息,这些信息往往以文件的形式存在。外部存储器中的数据,CPU是不能直接访问的,必须要被送入内存后才能被使用,计算机通过内存、外存之间不断的信息交换来使用外存中的信息。与内存相比,外部存储器容量大,速度慢,价格低。外部存储器主要有磁带、硬盘、移动硬盘、光盘、闪存盘等。(4)输入设备和输出设备

输入/输出(I/O)设备是计算机系统与外界进行信息交流的工具。其作用分别是将信息输入计算机和从计算机输出。

输入设备将信息输入计算机,并将原始信息转化为计算机能识别的二进制代码存放在存储器中。常用的输入设备有键盘、鼠标、扫描仪、触摸屏、数字化仪、摄像头、扬声器、数码照相机、光笔、磁卡读入机、条形码阅读机等。

输出设备的功能是将计算机的处理结果转换为人们所能接受的形式并输出。常用的输出设备有显示器、打印机、绘图仪、影像输出系统和语音输出系统等。

2.计算机软件系统

计算机软件系统是指为运行、维护、管理、应用计算机所编制的所有程序和数据的集合,通常按功能分为系统软件和应用软件两大类。(1)系统软件

系统软件是为计算机提供管理、控制、维护和服务等的软件,如操作系统、数据库管理系统、工具软件等。

操作系统(Operating System,OS)是最基本、最核心的系统软件,计算机和其他软件都必须在操作系统的支持下才能运行。操作系统的作用是管理计算机系统中所有的硬件和软件资源,合理地组织计算机的工作流程;同时,操作系统又是用户和计算机之间的接口,为用户提供一个使用计算机的工作环境。目前,常见的操作系统有Windows、UNIX、Linux、Mac OS等。所有的操作系统具有并发性、共享性、虚拟性和不确定性4个基本特征。不同操作系统的结构和形式存在很大差别,但一般都有处理机管理(进程管理)、作业管理、文件管理、存储管理和设备管理5项功能。

随着手持设备的普遍使用,在手持设备上使用的操作系统得到了充分发展,其中有代表性的有Android,这是一种以Linux为基础的开放源代码操作系统。而iOS是由苹果公司开发的手持设备操作系统。

系统支持软件是介于系统软件和应用软件之间,用来支持软件开发、计算机维护和运行的软件,是为应用层的软件和最终用户处理程序和数据提供服务,如语言的编译程序、软件开发工具、数据库管理软件、网络支持程序等。(2)应用软件

应用软件是为解决某个应用领域中的具体任务而开发的软件,如各种科学计算程序、企业管理程序、生产过程自动控制程序、数据统计与处理程序、情报检索程序等。常用应用软件的形式有定制软件(针对具体应用而定制的软件,如民航售票系统);应用程序包(如通用财务管理软件包);通用软件(如文字处理软件、电子表格处理软件、演示文稿制作软件、绘图软件、网页制作软件、网络通信软件等)3种类型。1.2.2 计算机的工作原理

美籍匈牙利数学家冯·诺依曼(John von Neumann)于1946年提出了计算机设计的3个基本思想:

①计算机由运算器、控制器、存储器、输入设备和输出设备5个基本部分组成。

②采用二进制形式表示计算机的指令和数据。

③将程序(由一系列指令组成)和数据存放在存储器中,并让计算机自动地执行程序。

其工作原理是将需要执行的任务用程序设计语言写成程序,与需要处理的原始数据一起通过输入设备输入并存储在计算机的存储器中,即“程序存储”;在需要执行时,由控制器取出程序并按照程序规定的步骤或用户提出的要求,向计算机的有关部件发布命令并控制它们执行相应的操作,执行的过程不需要人工干预而自动连续地一条指令一条指令地运行,即“程序控制”。冯·诺依曼计算机工作原理的核心是“程序存储”和“程序控制”。按照这一原理设计的计算机称为冯·诺依曼计算机,其体系结构称为冯·诺依曼结构。目前,计算机虽然已发展到了第五代,但基本上仍然遵循冯·诺依曼原理和结构。为了提高计算机的运行程度,实现高度并行化,当今的计算机系统已对冯·诺依曼结构进行了许多变革,如指令流水线技术、多核处理技术、并行计算技术等。

1.计算机的指令系统

指令是能被计算机识别并执行的命令。每一条指令都规定了计算机要完成的一种基本操作,所有指令的集合称为计算机的指令系统。计算机的运行是识别并执行其指令系统中的每条指令。

图1-8 指令的组成

指令以二进制代码形式来表示,由操作码和操作数(或地址码)两部分组成,如图1-8所示。操作码指出应该进行什么样的操作,操作数表示指令所需要的数值本身或数值在内存中所存放的单元地址(地址码)。

2.计算机执行指令的过程

计算机的工作过程实际上就是快速地执行指令的过程,认识指令的执行过程就能了解计算机的工作原理。计算机在执行指令的过程中有两种信息在流动:数据流和控制流。数据流是指原始数据、中间结果、结果数据、源程序等。控制流是由控制器对指令进行分析、解释后向各部件发出的控制命令,指挥各部件协调地工作。

计算机执行指令一般分为以下4个步骤:

①取指令:控制器根据程序计数器的内容(存放指令的内存单元地址)从内存中取出指令送到CPU的指令寄存器。

②分析指令:控制器对指令寄存器中的指令进行分析和译码。

③执行指令:根据分析和译码的结果,判断该指令要完成的操作,然后按照一定的时间顺序向各部件发出完成操作的控制信号,完成该指令的功能。

④一条指令执行后,程序计数器加1或将转移地址码送入程序计数器,然后回到步骤①,进入下一条指令的取指令阶段。

3.计算机执行程序的过程

程序是为解决某一问题而编写的指令序列。计算机能直接执行的是机器指令,用高级语言或汇编语言编写的程序必须先翻译成机器语言,然后CPU从内存中取出一条指令到CPU中执行,指令执行完,再从内存取出下一条指令到CPU中执行,直到完成全部指令为止。CPU不断地取指令、分析指令、执行指令,这就是程序的执行过程。1.3数制和信息编码

本节知识点如下:

●二进制、八进制、十进制和十六进制。

●不同数制间的转换。

●信息的存储单位:位、字节、字和字长等的概念。

●常见的信息编码:ASCII码、汉字编码、Unicode码。1.3.1 数制的概念

数制(Number System)又称计数法,是人们用一组统一规定的符号和规则来表示数的方法。计数法通常使用的是进位计数制,即按进位的规则进行计数。在进位计数制中有“基数”和“位权”两个基本概念。

基数(Radix)是进位计数制中所用的数字符号的个数。例如,十进制的基数为10,逢十进一;二进制的基数为2,逢二进一。

在进位计数制中,把基数的若干次幂称为位权,幂的方次随该位数字所在的位置而变化,整数部分从最低位开始依次为0、1、2、3、4、⋯小数部分从最高位开始依次为-1、-2、-3、-4、⋯例如,十进制数1234.567可以写成:

1234.567=1×10 3 +2×10 2 +3×10 1 +4×10 0 +5×10 -1 +6×10 -2 +7×10 -3

在计算机内部,信息都是采用二进制的形式进行存储、运算、处理和传输的。编码二进制的运算法则非常简单,例如:

求和法则    求积法则

0+0=0   0×0=0

0+1=1   0×1=0

1+0=1   1×0=0

1+1=10  1×1=11.3.2 不同数制间的转换

1.几种常用的数制

日常生活中人们习惯使用十进制,有时也使用其他进制。例如,计算时间采用六十进制,1小时为60分,1分为60秒;在计算机科学中也经常涉及二进制、八进制、十进制和十六进制等;但在计算机内部,无论什么类型的数据都使用二进制编码的形式来表示。(1)常用数制的特点

表1-1列出了几种常用数制的特点。

表1-1 常用数制的特点(2)常用数制的对应关系

常用数制的对应关系如表1-2所示。

表1-2 常用数制的对应关系(3)常用数制的书写规则

为了区分不同数制的数,常采用以下两种方法进行标识:

①字母后缀。

二进制数用B(Binary)表示。

八进制数用O(Octonary)表示。为了避免与数字0混淆,字母O常用Q代替。

十进制数用D(Decimal)表示。十进制数的后缀D一般可以省略。

十六进制数用H(Hexadecimal)表示。

例如,10011B、237Q、8079和45ABFH分别表示二进制、八进制、十进制和十六进制。

②括号外面加下标。例如,(10011) 、(237) 、(8079) 2810和(45ABFH) 分别表示二进制、八进制、十进制和十六进制。16

2.常用数制间的转换(1)将r进制转换为十进制

将r进制(如二进制、八进制和十六进制等)按位权展开并求和,便可得到等值的十进制数。【例1-1】 将(10100.011) 转换为十进制数。2(10100.011) =1×2 4 +1×2 2 +1×2 -2 +1×2 -32

=(20.375) 10【例1-2】 将(22.3) 转换为十进制数。8(24.3) =2×8 1 +2×8 0 +3×8 -18

=(20.375) 10【例1-3】 将(32CF.4B) 转换为十进制数。16(32CF.4B) =3×16 3 +2×16 2 +C×16 1 +F×16 0 +4×16 -1 +B×1616 -2

=3×16 3 +2×16 2 +12×16 1 +15×16 0 +4×16 -1 +11×16 -2

=(13007.292969) 10(2)将十进制转换为r进制

将十进制转换为r进制(如二进制、八进制和十六进制等)的方法如下:

整数的转换采用“除以r取余”法,将待转换的十进制数连续除以r,直到商为0,每次得到的余数按相反的次序(即第一次除以r所得到的余数排在最低位,最后一次除以r所得到的余数排在最高位)排列起来就是相应的r进制数。

小数的转换采用“乘以r取整”法,将被转换的十进制纯小数反复乘以r,每次相乘乘积的整数部分若为1,则r进制数的相应位为1;若整数部分为0,则相应位为0,由高位向低位逐次进行,直到剩下的纯小数部分为0或达到所要求的精度为止。

对具有整数和小数两部分的十进制数,要用上述方法将其整数部分和小数部分分别进行转换,然后用小数点连接起来。【例1-4】 将(20.38) 转换为二进制数。10

先将整数部分“除以2取余”。

因此,(18) =(10100) 。102

再将小数部分“乘以2取整”。

因此,(0.38) =(0.01100) 。102

最后得出转换结果:(20.38) =(10010.01100) 。102(3)八进制、十六进制与二进制之间的转换

由于8=2 3 ,16=2 4 ,所以一位八进制数相当于三位二进制数,一位十六进制数相当于四位二进制数。

①二进制数转换为八进制数或十六进制数:以小数点为界向左和向右划分,小数点左边(整数部分)从右向左每三位(八进制)或每四位(十六进制)一组构成一位八进制或十六进制数,位数不足三位或四位时最左边补0;小数点右边(小数部分)从左向右每三位(八进制)或每四位(十六进制)一组构成一位八进制或十六进制数,位数不足三位或四位时最右边补0。【例1-5】 将(10100.0111) 转换为八进制数。2

因此,(10100.0111) =(24.34) 。28【例1-6】 将(10100.0111) 转换为十六进制数。2

因此,(10100.0111) =(14.7) 。216

②八进制数或十六进制数转换为二进制数:把一位八进制数用三位二进制数表示,把一位十六进制数用四位二进制数表示。【例1-7】 将(24.34) 转换为二进制数。8

因此,(24.34) =(10100.0111) 。82【例1-8】 将(14.7) 转换为二进制数。16

因此,(14.7) =(10100.0111) 。162

以上介绍了常用数制间的转换方法。其实,使用Windows操作系统提供的“计算器”可以很方便地解决整数的数制转换问题。方法如下:

①选择“开始”→“所有程序”→“附件”→“计算器”命令,启动计算器。

②选择计算器中的“查看”→“科学型”命令。

③单击原来的数制。

④输入要转换的数字。

⑤单击要转换成的某种数制,得到转换结果。1.3.3 信息存储单位

在计算机内部,信息都是采用二进制的形式进行存储、运算、处理和传输的。信息存储单位有位、字节和字等几种。

1.位

位(bit)是二进制数中的一个数位,可以是0或者1,是计算机中数据的最小单位。

2.字节

字节(byte,B)是计算机中数据的基本单位。例如,1个ASCII码用1个字节表示,1个汉字用2个字节表示。

1个字节由8个二进制位组成,即1B=8bit。比字节更大的数据单位有KB(kilobyte,千字节)、MB(megabyte,兆字节)、GB(gigabyte,吉字节)和TB(terabyte,太字节)。

它们的换算关系如下:

1KB=1024B=2 10 B

1MB=1024KB=2 10 KB=2 20 B=1024×1024B

1GB=1024MB=2 10 MB=2 30 B=1024×1024×1024B

1TB=1024GB=2 10 GB=2 40 B=1024×1024×1024×1024B

3.字

字(word)是计算机一次存取、运算、加工和传送的数据长度,是计算机处理信息的基本单位,一个字由若干个字节组成,通常将组成一个字的位数称为字长。例如,1个字由4个字节组成,则字长为32位。

字长是计算机性能的一个重要指标,是CPU一次能直接传输、处理的二进制数据位数,字长越长,计算机运算速度越快、精度越高,性能也就越好。通常,人们所说的多少位的计算机,就是指其字长是多少位的。常用的字长有8位、16位、32位、64位等,目前在个人计算机中,主流的CPU都是64位的,128位的CPU也在研究之中。1.3.4 常见的信息编码

前面讨论了把十进制数转换成其他进制的方法,这样就可以在计算机中表示数据。对于数值数据在计算机中的表示还有两个需要解决的问题,即数的正负符号和小数点位置的表示。计算机中通常以“0”表示正号,“1”表示负号,由此引入原码、反码和补码等编码方法。为了表示小数点位置,计算机中又引入了定点数和浮点数表示法。这些内容超出本书范围,有兴趣的读者可查阅相关资料,下面重点讲述字符和汉字的编码。

1.西文字符编码

如前所述,计算机中的信息都是用二进制编码表示的,用以表示字符的二进制编码称为字符编码。对字符的二进制编码有多种。在计算机系统中,有两种重要的字符编码方式:ASCII码和EBCDIC码。EBCDIC码主要用于IBM的大型主机,ASCII码主要用于微型机和小型机。下面重点介绍ASCII码。

目前使用最普遍的是美国信息交换标准码(American Standard Code for Information Interchange),简称ASCII码。它被国际标准化组织确认为国际标准交换码。编码标准化是为了方便在不同的计算机之间进行通信。ASCII码共有128个字符的编码:有大、小写字母的编码52个,数字的编码10个,各种标点符号和运算符号的编码32个以及专用控制符号的编码34个。128个不同的编码(27=128)用7位二进制数就可以描述,而计算机中一个存储单元能存储8个二进制信息位。因此,一个ASCII码占用一个存储单元的低7位,最高位作为奇偶校验位(一般用“0”填充)。表1-3所示为7位标准ASCII码编码表。

在键盘键入字母“A”,计算机接收“A”的ASCII码(十六进制“41”、二进制“01000001”、八进制“101”)后,很容易找到“A”的字形码,在显示器显示“A”的字形码,而存储的是“A”的ASCII码。

在英文输入方式下,输入的字符存储占用1个字节,显示和打印占1个字符的位置,即半个汉字位置,称半角字符。

表1-37 位ASCII码编码表

在汉字输入方式中,输入的字符分半角字符和全角字符,默认输入的字符为半角字符(即ASCII字符)。全角字符存储占用2个字节,显示占1个汉字的位置,每一种汉字系统都为使用者提供了输入半角字符和全角字符的功能。

扩展的ASCII码使用8位二进制位表示一个字符的编码,可表示2 8 =256个不同字符的编码。

2.汉字编码

汉字的编码一般有4种,即输入码、国标码、内码和输出码。(1)输入码

为将汉字输入计算机而编制的代码称为汉字输入码,也称外码。目前汉字主要是用标准键盘输入计算机的,所以汉字输入码都是由键盘上的字符或数字组合而成的。汉字输入码是按照某种规则把汉字的音、形、义有关的要素变成数字、字母或键位名称。如常用的微软拼音输入法输入“人”,就要先输入代码“ren”,它是以音为主,以《汉语拼音方案》为基本编码元素,对同音字要增加定字编码,或用计算机把同音字全部显示出来后再选择字的方法。目前流行的汉字输入码的编码方案有几十种方法。如以形为主的五笔字型码、以数字为主的电报码和区位码,以音为主的微软拼音输入法、智能ABC输入法、搜狗拼音输入法等。(2)国标码(国家标准汉字交换码)

国标码是我国标准信息交换汉字编码。标准号为“GB 2312—

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载