计算机导论——以计算思维为导向(第2版)(txt+pdf+epub+mobi电子书下载)


发布时间:2020-08-09 01:37:18

点击下载

作者:董卫军

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

计算机导论——以计算思维为导向(第2版)

计算机导论——以计算思维为导向(第2版)试读:

·知识结构框图·

教材结合重点大学一线教师多年的教学经验与心得,以培养计算思维、强化计算思想、提升信息素质为主线,以认识问题、分析问题、存储问题、解决问题为思路,通过“理论+实践”的组织模式构建计算思维思想培养的基石,使学习者充分了解计算思维的基本过程,并能最终将这一科学过程融入自己的日常思维活动之中,适应现代社会对人才的信息素质要求。

·第2版前言·

实证思维、逻辑思维和计算思维是人类认识世界和改造世界的三大思维。计算机的出现为人类认识世界和改造世界提供了一种更有效的手段,以计算机技术和计算机科学为基础的计算思维已成为人们必须具备的基础性思维。如何以计算机思维为切入点,通过重构大学计算机的课程体系和知识结构,促进计算思维能力培养,提升大学生综合素质和创新能力是大学计算机课程改革面临的重要课题。这些不断变化的情况要求对目前的课程体系进行改革,本书正是在这样的背景下编写的。

本书是国家精品课程“计算机基础”的主教材,也是教育部大学计算机课程改革项目成果之一。全书以教育部高等学校大学计算机课程教学指导委员会发布的高等学校计算机基础教育基本要求和计算思维教学改革白皮书为指导,在总结多年教学实践和教学改革经验的基础上,从培养计算思维能力入手来组织内容。教材采用“理论+提升+实践”的模式,以理解计算机理论为基础,以知识扩展为提升,以常用软件为实践,做到既促进计算思维能力培养,又避免流于形式,既适应总体知识需求,又满足个体深层要求。

全书共7章,从基础理论、实践应用两个层面展开。每章由基本模块和扩展模块组成,基本模块强调对基础知识的理解和掌握,扩展模块通过内容的深化进一步加深学生对内容的理解。

基础理论篇以培养计算思维能力为目的,从认识问题、存储问题、解决问题的角度组织内容,认识和理解计算思维本质以及通过计算机实现计算思维的基本过程,避免理论体系的大跨度跳跃,包括认识计算机、简单数据在计算机中的表示、复杂问题的存储与处理、规模数据的有效管理。

实践应用篇以理解计算思维为目的,从计算机的常用软件入手,强化实践,培养学生利用计算机解决实际问题的能力,包括数据的共享与利用、Windows 7操作系统、日常信息处理。“大学计算机”课程在内容设计时,不仅要传授、训练和拓展大学生在计算机方面的基础知识和应用能力,更要展现计算思维方式。所以,如何明确、恰当地将计算思维融入知识体系,培养当代大学生用计算机解决和处理问题的思维和能力,从而提升大学生的综合素质,强化创新实践能力是当前的迫切要求。本书是整个教学团队在这方面所做的努力和尝试的一个体现,可作为高等学校“大学计算机”及相关课程的教材,也可作为全国计算机应用技术证书考试的培训教材或计算机爱好者的自学教材。

为方便教学,本书提供相关教学资料,读者可登录华信教育资源网(http://www.hxedu.com.cn)下载。

本书由多年从事计算机教学的一线教师编写,董卫军编写第1~2章和第4章,索琦编写第3章和第5章,邢为民编写第6~7章。本书由董卫军统稿,由国家级教学名师耿国华教授主审。在成书之际,感谢教学团队成员的帮助,由于水平有限,书中难免有不妥之处,恳请指正。

编者

于西安·西北大学

第1章 认识计算机

实证思维、逻辑思维和计算思维是人类认识世界和改造世界的三大思维。计算机,这种能够按照事先存储的程序进行大量数值计算和信息处理的现代电子设备的出现为人类认识世界和改造世界提供了一种更有效的手段,而以计算机技术和计算机科学为基础的计算思维必将深刻影响人类的思维方式。

1.1 计算思维概述

1.1.1 人类认识改造世界的基本思维

认识世界和改造世界是人类创造历史的两种基本活动。认识世界是为了改造世界,要有效地改造世界,就必须正确地认识世界。而在认识世界和改造世界过程中,思维和思维过程占有重要位置。

1.思维与思维过程

思维是通过一系列比较复杂的操作来实现的。人们在头脑中,运用存储在长时记忆中的知识经验,对外界输入的信息进行分析、综合、比较、抽象和概括的过程就是思维过程(或称为思维操作)。思维过程主要包括以下几个环节。(1)分析与综合

分析是指在头脑中把事物的整体分解为各个部分或各个属性,事物分析往往是从分析事物的特征和属性开始的。综合是指在头脑中把事物的各个部分、各个特征、各种属性通过它们之间的联系结合起来,形成一个整体。综合是思维的重要特征,通过综合能够把握事物及其联系,抓住事物的本质。(2)比较

比较是在头脑中把事物或现象的个别部分、个别方面或个别特征加以对比,确定它们之间的异同和关系。比较可以在同类事物和现象之间进行,也可以在类型不同但具有某种联系的事物和现象之间进行。当事物或现象之间存在着性质上的异同、数量上的多少、形式上的美丑、质量上的好坏时,常运用比较的方法来认识这些事物和现象。

比较是在分析与综合的基础上进行的。为了比较某些事物,首先,要对这些事物进行分析,分解出它们的各个部分、个别属性和各个方面。其次,再把它们相应的部分、相应的属性和相应的方面联系起来加以比较(实际上就是综合)。最后,找出并确定事物的相同点和差异点。所以说,比较离不开分析综合,分析综合又是比较的组成部分。(3)抽象与概括

抽象是在头脑中抽取同类事物或现象的共同的、本质的属性或特征,并舍弃其个别的、非本质特征的思维过程。概括是在头脑中把抽象出来的事物或现象的共同的、本质属性或特征综合起来并推广到同类事物或现象中去的思维过程。通过这种概括,人们可以认识同类事物的本质特征。

2.三种基本思维

实证思维、逻辑思维、计算思维是人类认识世界和改造世界的三种基本思维。

实证思维是指以观察和总结自然规律为特征,以具体的实际证据支持自己的论点。实证思维以物理学科为代表,是认识世界的基础。实证思维结论要符合三点:可以解释以往的实验现象;逻辑上自洽;能够预见新的现象。

逻辑思维是指人们在认识过程中借助于概念、判断、推理等思维形式能动地反映客观现实的理性认识过程,又称为理论思维。只有经过逻辑思维,人们才能达到对具体对象本质规定的把握,进而认识客观世界。逻辑思维以数学学科为代表,是认识的高级阶段。逻辑思维结论要符合以下原则:有作为推理基础的公理集合;有一个可靠和协调的推演系统(推演规则);结论只能从公理集合出发,经过推演系统的合法推理,达到结论。

计算思维就是运用计算机科学的基础概念,通过约简、嵌入、转化和仿真的方法,把一个看来困难的问题重新阐述成一个知道怎样解的问题。计算思维以计算机学科为代表,是改造世界的有力支撑。计算思维结论要符合以下原则:运用计算机科学的基础概念进行问题求解和系统设计;涵盖了计算机科学一系列思维活动。1.1.2 理解计算思维

计算思维代表着一种普遍认识和基本技能,涉及运用计算机科学的基础概念去求解问题、设计系统和理解人类的行为,涵盖了反映计算机科学之广泛性的一系列思维活动。计算思维将如计算机一样,渗入到每个人的生活之中,诸如“算法”和“前提条件”等计算机专业名词也将成为日常词汇的一部分。所以,计算思维不仅属于计算机专业人员,更是每个人应掌握的基本技能。

计算思维具有以下基本特点。(1)概念化

计算机科学不是计算机编程,计算机编程仅是实现环节的一个基本组成部分。像计算机科学家那样去思维远非计算机编程,要求人们能够在多个层次上抽象思维。(2)基础技能

基础技能是每个人为了在现代社会中发挥职能所必须掌握的技能。构建于计算机技术基础上的现代社会要求人们必须具备计算思维。而生搬硬套的机械技能意味着机械地重复,不能为创新性需求提供支持。(3)人的思维

计算思维是建立在计算过程的能力和限制之上的人类求解复杂问题基本途径,但决非试图使人类像计算机那样思考。计算方法和模型的使用使得处理那些原本无法由个人独立完成的问题求解和系统设计成为可能,人类就能解决那些计算时代之前不敢尝试的规模问题和复杂问题,就能建造那些其功能仅受制于自身想象力的系统。(4)本质是抽象和自动化

计算思维吸取了问题解决所采用的一般数学思维方法,复杂系统设计与评估的一般工程思维方法,以及复杂性、智能、心理、人类行为的理解等的一般科学思维方法。与数学和物理科学相比,计算思维中的抽象显得更为丰富,也更为复杂。数学抽象的最大特点是抛开现实事物的物理、化学和生物学等特性,而仅保留其量的关系和空间的形式。计算思维中的抽象却不仅仅如此,计算思维中的抽象完全超越物理的时空观,并完全用符号来表示,其中,数字抽象只是一类特例。

计算机科学在本质上源自数学思维和工程思维,计算设备的空间限制(计算机的存储空间有限)和时间限制(计算机的运算速度有限)使得计算机科学家必须计算性地思考,不能只是数学性地思考。

1.2 计算机的产生与发展

1.2.1 计算工具的发展

在人类发展的历史长河中,人们一直在研究高效的计算工具来满足实际的计算需求,因此,计算和计算工具是息息相关的,两者相互促进。

1.古代计算工具

中国古代的数学是一种计算数学,远在商代,中国人就创造了十进制计数方法。公元前5世纪,中国人已开始用算筹作为计算工具,并在公元前3世纪得到普遍的采用。后来,在算筹基础上发明了算盘。算盘通过算法口诀化,加快了计算速度,在15世纪得到普遍采用,并流传到海外成为一种国际性计算工具。

除中国外,其他中古国家也有各式各样的计算工具发明,如罗马人的“算盘”,古希腊人的“算板”,印度人的“沙盘”,英国人的“刻齿本片”等。这些计算工具的原理基本相同,都是通过某种具体物体来代表数值,并利用对物件的机械操作来进行运算。

2.近代计算工具

近代科学发展促进了计算工具的进一步发展,出现了以下几种常见的计算工具。(1)比例规

伽利略发明的“比例规”利用比例原理进行乘除比例等计算,其外形像圆规,两脚上各有刻度,可任意开合。(2)纳皮尔筹

纳皮尔筹的计算原理来源于15世纪后流行于中亚细亚及欧洲的“格子算法”,不同之处在于,皮尔筹把格子和数字刻在“筹上”(长条竹片或木片),可根据需要拼凑起来计算。(3)计算尺

1614年,对数被发明以后,乘除运算可以转化为加减运算,对数计算尺便是依据这一特点来设计。1632年,奥特雷德发明了有滑尺的计算尺,并制成了圆形计算尺。(4)机械式计算机

机械式计算机是与计算尺几乎同时出现,是计算工具的一大发明。席卡德最早构思出机械式计算机,但并没有成功制成。B·帕斯卡在1642年成功创制第一部能计算加减法的计算机。自此以后,经过多年研究,出现了多种多样的手摇计算机。

3.现代计算机的产生与发展

20世纪以来,电子技术与数学的充分发展,为现代计算机提供了物质基础,数学的发展又为设计及研制新型计算机提供了理论依据。人们对计算工具的研究进入了一个新的阶段。(1)阿塔纳索夫-贝利计算机

1847年,计算机先驱、英国数学家Charles Babbages开始设计机械式差分机,总体设计耗时2年,这台机器可以完成31位精度的运算并将结果打印到纸上,因此被普遍认为是世界上第一台机械式计算机。

20个世纪30年代,保加利亚裔的阿塔纳索夫在美国爱荷华州立大学物理系任副教授,面对求解线性偏微分方程组的繁杂计算,从1935年开始探索运用数字电子技术进行计算工作。经过反复研究试验,他和他的研究生助手克利福德·贝利终于在1939年造出一台完整的样机,证明了他们的概念正确并且可以实现。人们把这台样机称为阿塔纳索夫-贝利计算机(Atanasoff-Berry Computer,ABC)。

阿塔纳索夫-贝利计算机是电子与电器的结合,电路系统装有300个电子真空管,用于执行数字计算与逻辑运算,机器采用二进制计数方法,使用电容器进行数值存储,数据输入采用打孔读卡方法。可以看出,阿塔纳索夫-贝利计算机已经包含了现代计算机中4个最重要的基本概念,从这个角度来说,它具备了现代电子计算机的基本特征。客观地说,阿塔纳索夫-贝利计算机正好处于模拟计算向数字计算的过渡阶段。

阿塔纳索夫-贝利计算机的产生具有划时代的意义,与以前的计算机相比,阿塔纳索夫-贝利计算机具有以下特点:

① 采用电能与电子元件,当时为电子真空管。

② 采用二进制计数,而非通常的十进制计数。

③ 采用电容器作为存储器,可再生而且避免错误。

④ 进行直接的逻辑运算,而非通过算术运算模拟。(2)埃尼阿克计算机

1946年,美国宾夕法尼亚大学研制成功了专门用于火炮弹道计算的大型电子数字积分计算机“埃尼阿克”(ENIAC)。埃尼阿克完全采用电子线路执行算术运算、逻辑运算和信息存储,运算速度比继电器计算机快1000倍。通常,说到世界公认的第一台电子数字计算机时,大多数人都认为是“埃尼阿克”。事实上,根据1973年美国法院的裁定,最早的电子数字计算机是阿塔纳索夫于1939年制造的阿塔纳索夫-贝利计算机。之所以会有这样的误会,是因为“埃尼阿克”研究小组中的一个叫莫克利的人于1941年剽窃了阿塔纳索夫的研究成果,并在1946年申请了专利,美国法院于1973年裁定该专利无效。

虽然“埃尼阿克”的产生具有划时代的意义,但其不能存储程序,需要用线路连接的方法来编排程序,每次解题时的准备时间大大超过实际计算时间。(3)现代计算机的发展

英国剑桥大学数学实验室在1949年研制成功基于存储程序式通用电子计算机方案(该方案由冯·诺依曼领导的设计小组在1945年制定)的现代计算机——电子离散时序自动计算机(EDSAC)。至此,电子计算机开始进入现代计算机的发展时期。计算机器件从电子管到晶体管,再从分立元件到集成电路乃至微处理器,促使计算机的发展出现了三次飞跃。

① 电子管计算机。在电子管计算机时期(1946—1959年),计算机主要用于科学计算,主存储器是决定计算机技术面貌的主要因素。当时,主存储器有汞延迟线存储器、阴极射线管静电存储器,通常按此对计算机进行分类。

② 晶体管计算机。在晶体管计算机时期(1959—1964年),主存储器均采用磁芯存储器,磁鼓和磁盘开始作为主要的辅助存储器。不仅科学计算用计算机继续发展,而且中、小型计算机,特别是廉价的小型数据处理用计算机开始大量生产。

③ 集成电路计算机。1964年以后,在集成电路计算机发展的同时,计算机也进入了产品系列化的发展时期。半导体存储器逐步取代了磁芯存储器的主存储器地位,磁盘成了不可缺少的辅助存储器,并且开始普遍采用虚拟存储技术。随着各种半导体只读存储器和可改写只读存储器的迅速发展,以及微程序技术的发展和应用,计算机系统中开始出现固件子系统。

④ 大规模集成电路计算机。20世纪70年代以后,计算机用集成电路的集成度迅速从中小规模发展到大规模、超大规模的水平,微处理器和微型计算机应运而生,各类计算机的性能迅速提高。进入集成电路计算机发展时期以后,在计算机中形成了相当规模的软件子系统,高级语言的种类进一步增加,操作系统日趋完善,具备批量处理、分时处理、实时处理等多种功能。数据库管理系统、通信处理程序、网络软件等也不断增添到软件子系统中。(4)现代计算机的特点

现代计算机具有以下主要特点。

① 自动执行。计算机在程序控制下能够自动、连续地高速运算。一旦输入编制好的程序,启动计算机后,就能自动地执行下去,直至完成任务,整个过程无须人工干预。

② 运算速度快。计算机能以极快的速度进行计算。现在的微型计算机每秒可执行几百亿条指令,巨型机则达到每秒几亿亿次。随着计算机技术的发展,计算机的运算速度还在提高。

③ 运算精度高。电子计算机具有以往计算机无法比拟的计算精度,目前已达到小数点后上亿位的精度。

④ 具有记忆和逻辑判断能力。计算机借助逻辑运算,可以进行逻辑判断,并根据判断结果自动确定下一步该做什么。计算机的存储系统由内存和外存组成,具有存储大量信息的能力,现代计算机的内存容量已达几万兆字节,而外存容量也很惊人。

⑤ 可靠性高。随着微电子技术和计算机技术的发展,现代电子计算机连续无故障运行时间可达到几十万小时以上,具有极高的可靠性。

另外,只要执行不同的程序,计算机就可以解决不同的问题,应用于不同的领域,因而具有很强的稳定性和通用性。1.2.2 现代计算机的分类

20世纪中期以来,计算机一直处于高速发展时期,计算机种类也不断分化,计算机的分类有多种方法。按其内部逻辑结构进行分类,计算机可分为单处理机与多处理机(并行机),16位机、32位机和64位计算机等。根据计算机的演变过程来分,计算机通常分为5大类:超级计算机、大型机、中小型机、工作站、微型机。

1.超级计算机(1)超级计算机的概念

超级计算机又称为巨型机,通常是指由成百上千甚至更多的处理器(机)组成的、能计算求解大型复杂问题的计算机。它采用大规模并行处理的体系结构,运算速度快、存储容量大、处理能力强,是价格最高、功能最强、速度最快的一类计算机,其浮点运算速度已达每秒千万亿次。目前,超级计算机主要用于战略武器设计、空间技术、石油勘探、航空航天、长期天气预报及社会模拟等领域。世界上只有少数国家能生产超级计算机,它是一个国家科技发展水平和综合国力的重要标志。(2)超级计算机的特点

新一代的超级计算机采用涡轮式设计,每个刀片就是一个服务器,能实现协同工作,并可根据应用需要随时增减。通过先进的架构和设计实现了存储和运算的分离,确保用户数据、资料在软件系统更新或CPU升级时不受任何影响,保障了存储信息的安全,真正实现了保持长时、高效、可靠的运算并易于升级和维护的优势。中国国防科技大学研制的天河二号超级计算机成为全球运算速度最快的计算机(截至2013年10月)。天河二号的峰值速度和持续速度分别为每秒5.49亿亿次和每秒3.39亿亿次。这意味着天河二号运算1小时相当于13亿人同时用计算器计算1000年。来自美国的“泰坦”和“红杉”分别排在第二和第三。位居第四的日本“京”系统也是全球4台亿亿次级超级计算机中的一员。

2.大型机(1)大型机的概念

大型机一般用在尖端科研领域,主机非常庞大,许多中央处理器协同工作,有超大的内存和海量存储器,并且使用专用操作系统和应用软件。目前,大型主机在MIPS(每秒百万指令数)已经不及高性能微型计算机,但是它的I/O能力、非数值计算能力、稳定性、安全性是微型计算机所不可比拟的。(2)大型计算机和超级计算机的区别

大型计算机和超级计算机的区别主要如下。

① 大型计算机使用专用指令系统和操作系统;超级计算机使用通用处理器及UNIX或类UNIX操作系统(如Linux)。

② 大型计算机主要用于非数值计算(数据处理)领域;超级计算机长于数值计算(科学计算)。

③ 大型计算机主要用于商业领域,如银行和电信;超级计算机主要用于尖端科学领域,特别是国防领域。

④ 大型计算机大量使用冗余等技术,以确保其安全性及稳定性,所以内部结构通常有两套;超级计算机使用大量处理器,通常由多个机柜组成。

⑤ 为了确保兼容性,大型计算机的部分技术较为保守。

3.中小型机(1)中小型机的概念

中小型机是指采用8~32个处理器,性能和价格介于PC服务器和大型计算机之间的一种高性能64位计算机。(2)中小型机的特点

中小型机具有区别于PC及其服务器的特有体系结构,并且具有各制造厂商自己的专利技术,有的还采用小型机专用处理器,中小型机使用的操作系统一般是基于UNIX的。从某种意义上讲,中小型机就是低价格、小规模的大型计算机,它们比大型机价格低,却几乎有同样的处理能力。

4.工作站

工作站是一种以个人计算机和分布式网络计算为基础,主要面向专业应用领域,具备强大数据运算与图形、图像处理能力,为满足工程设计、动画制作、科学研究、软件开发、金融管理、信息服务、模拟仿真等专业领域而设计开发的高性能计算机。(1)基本配置

工作站具备强大的数据处理能力,具有便于人机交换信息的用户接口。工作站在编程、计算、文件书写、存档、通信等方面给专业工作者以综合的帮助。常见的工作站有计算机辅助设计(CAD)工作站、办公自动化(OA)工作站、图像处理工作站等。不同任务的工作站有不同的硬件和软件配置。

一个小型CAD工作站的典型硬件配置为:高档微型计算机、带有功能键的 CRT终端、光笔、平面绘图仪、数字化仪、打印机等。软件配置为:操作系统、编译程序、相应的数据库和数据库管理系统、二维和三维的绘图软件,以及成套的计算、分析软件包。

OA工作站的主要硬件配置为:微型计算机、办公用终端设备(如电传打字机、交互式终端、传真机、激光打印机、智能复印机等)、通信设施(如局部网、程控交换机、公用数据网、综合业务数字网等)。软件配置为:操作系统、编译程序、各种服务程序、通信软件、数据库管理系统、电子邮件、文字处理软件、表格处理软件、各种编辑软件及专门业务活动的软件包,并配备相应的数据库。

图像处理工作站的主要硬件配置为:计算机、图像数字化设备(包括电子的、光学的或机电的扫描设备及数字化仪)、图像输出设备、交互式图像终端。软件配置除了一般的系统软件外,还要有成套的图像处理软件包。(2)常见分类

工作站根据软件、硬件平台的不同,一般分为基于RISC(精简指令系统)架构的UNIX系统工作站和基于Windows、Intel的PC工作站。

UNIX工作站是一种高性能的专业工作站,具有强大的处理器(以前多采用RISC芯片)和优化的内存、I/O、图形子系统。其使用专有处理器(Alpha、MIPS、Power等)、内存及图形等硬件系统,专有UNIX操作系统及针对特定硬件平台的应用软件。

PC工作站基于高性能的x86处理器之上,使用稳定的Linux、Mac OS、Windows操作系统,采用符合专业图形标准(OpenGL)的图形系统,再加上高性能的存储、I/O、网络等子系统,来满足专业软件运行的要求。

5.微型机

微型计算机简称微型机、PC,是由大规模集成电路组成的、体积较小的电子计算机。它以微处理器为基础,配以内存储器及输入/输出接口电路和相应的辅助电路。如果把微型计算机集成在一个芯片上,即构成单片微型计算机(简称单片机)。(1)PC的产生

1981年,IBM公司正式推出了全球第一台个人计算机——IBM PC,该机采用主频4.77MHz的Intel 8088微处理器,运行微软公司开发的MS-DOS操作系统。IBM PC的产生具有划时代的意义,它首创了个人计算机的概念,为PC制定了全球通用的工业标准。而且,IBM对所有厂商开放PC工业标准,从而使得这一产业迅速发展成为20世纪 80年代的主导性产业,并造就了一大批IBM PC兼容机制造厂商。(2)PC的发展

从第一台PC产生到现在,PC得到了长足的发展,其使用范围已经渗透到了人们生活的各个领域。

① 第一代PC。20世纪80年代初推出IBM PC,使用Intel 8088 CPU,时钟频率4.77 MHz,内部总线16位,外部总线8位,地址总线20位,寻址空间1MB。

② 第二代PC。1984年,PC/AT被推出,使用80286 CPU,时钟频率6~12MHz,数据总线16位,采用工业标准体系结构总线,地址总线24位,寻址空间16 MB。

③ 第三代PC。1986年,386机被推出,使用80386 CPU,采用扩展工业标准体系结构EISA总线。1987年,IBM推出PS/2微机,采用微通道体系结构MCA总线,时钟频率16~25 MHz,数据总线和地址总线均为32位,寻址空间4GB。

④ 第四代PC。1989年,80486机被推出,使用80486 CPU。其CPU内部包含8~16 KB高速缓存,时钟频率33~120 MHz,采用视频电子标准协会VESA总线和外围组件互连PCI总线,数据总线和地址总线均为32位,寻址空间4GB。

⑤ 第五代PC。1993年以来,奔腾(Pentium)系列微机陆续被推出,内部总线32位,外部总线64位。早期Pentium、Pentium Pro地址总线为32位,寻址空间4GB。从Pentium2开始,地址总线36位,寻址能力64 GB。CPU工作频率最低75MHz、最高3.8 GHz。2004年6月,英特尔发布了P4 3.4 GHz处理器,该处理器支持超线程(HT)技术,采用0.13微米制程,具备512 KB二级高速缓存、2MB三级高速缓存和800 MHz系统前端总线速度。

⑥ 第六代PC。2005年4月,英特尔的第一款双核处理器平台酷睿双核处理器问世,酷睿双核处理器的问世标志着多核CPU时代来临。双核和多核处理器是在一枚处理器中集成两个或多个完整执行内核,以支持同时管理多项活动。英特尔超线程技术能够使一个执行内核发挥两枚逻辑处理器的作用,与双核技术结合使用时,可同时处理四个软件线程。目前,适用于PC的主要是酷睿4核CPU。1.2.3 冯·诺依曼体系结构

20世纪30年代中期,美籍匈牙利裔科学家冯·诺依曼提出,采用二进制作为数字计算机的数制基础。同时,他提出应预先编制计算程序,然后由计算机按照程序进行数值计算。1945年,他又提出在数字计算机的存储器中存放程序的概念,这些所有现代电子计算机共同遵守的基本规则,被称为“冯·诺依曼体系结构”,按照这一规则建造的计算机就是存储程序计算机,又称为通用计算机。

1.程序与指令(1)程序

计算机的产生为人们解决复杂问题提供了可能,但从本质上讲,不管计算机功能多强大,构成多复杂,它也是一台机器而已。它的整个执行过程必须被严格和精确地控制,完成该功能的便是程序。

简单地讲,程序就是完成特定功能的指令序列。当希望计算机解决某个问题时,人们必须将问题的详细求解步骤以计算机可识别的方式组织起来,这就是程序。而计算机可识别的最小求解步骤就是指令。(2)指令

程序由指令组成,指令能被计算机硬件理解并执行。一条指令就是程序设计的最小语言单位。一条计算机指令用一串二进制代码表示,由操作码和操作数两个字段组成。操作码用来表征该指令的操作特性和功能,即指出进行什么操作;操作数部分经常以地址码的形式出现,指出参与操作的数据在存储器中的地址。一般情况下,参与操作的源数据或操作后的结果数据都在存储器中,通过地址可访问其内容,即得到操作数。

一台计算机能执行的全部指令的集合,称为这台计算机的指令系统。指令系统根据计算机使用要求设计,准确地定义了计算机对数据进行处理的能力。不同种类的计算机,其指令系统的指令数目与格式也不同。指令系统越丰富完备,编制程序就越方便灵活。

2.基本原理

冯·诺依曼提出的计算机的基本原理如下。(1)五大功能部件

计算机由运算器、存储器、控制器和输入设备、输出设备五大部件组成。早期的冯·诺依曼体系结构以运算器为核心,输入/输出设备与存储器的数据传送要通过运算器。而现在以存储器为中心。(2)采用二进制

指令和数据都用二进制代码表示,以同等地位存放于存储器内,并可按地址寻访。(3)存储程序原理

存储程序原理是将程序像数据一样存储到计算机内部存储器中的一种设计原理。程序存入存储器后,计算机便可自动地从一条指令转到执行另一条指令。

首先,把程序和数据送入内存。

内存划分为很多存储单元,每个存储单元都有地址编号,而且把内存分为若干个区域,如有专门存放程序的程序区和专门存放数据的数据区。

其次,从第一条指令开始执行程序。一般情况下,指令按存放地址号的顺序,由小到大依次执行,遇到条件转移指令时改变执行的顺序。每条指令执行都要经过3个步骤:

① 取指:把指令从内存送往译码器。

② 分析:译码器将指令分解成操作码和操作数,产生相应控制信号送往各电器部件。

③ 执行:控制信号控制电器部件,完成相应的操作。

从早期的EDSAC到当前最先进的通用计算机,采用的都是冯·诺依曼体系结构。

3.基本组成

典型的冯·诺依曼计算机是以运算器为中心,如图1.1所示。图1.1 典型的冯·诺依曼计算机组成

现代的计算机组成已转化为以存储器为中心,如图1.2所示。图1.2 现代计算机组成

图1.2中各部件的功能如下。

① 运算器:用来完成算术运算和逻辑运算,并将中间运算结果暂存在运算器内。

② 存储器:用来存放数据和程序。

③ 控制器:用来控制、指挥程序和数据的输入、运行及处理运算结果。

④ 输入设备:将人们熟悉的信息形式转换为机器能识别的信息形式。

⑤ 输出设备:将机器运算结果转换为人们熟悉的信息形式。

计算机的五大部件在控制器的统一指挥下,有条不紊地自动工作。由于运算器和控制器在逻辑关系和电路结构上联系紧密,尤其是在大规模集成电路出现后,这两大部件往往制作在同一芯片上,因此通常将它们合起来,统称为中央处理器(Central Processing Unit,CPU)。存储器分为主存储器和辅助存储器。主存又称内部存储器,简称为内存,可直接与CPU交换信息,CPU与内存合起来称为主机。辅助存储器又称外部存储器,简称为外存。把输入设备与输出设备统称为I/O设备,I/O设备和外存统称为外部设备,简称为外设。因此,现代计算机可认为由两大部分组成:主机和外设。1.2.4 计算机的科学应用

1.计算机的基本应用领域

计算机应用已深入到科学、技术、社会的各个领域,按其应用问题信息处理的形态不同,大体上可以分为科学计算领域和非科学计算领域两个层面。(1)科学计算领域

科学计算是计算机应用的一个重要领域,如高能物理、工程设计、地震预测、气象预报、航天技术等。同时,由于计算机具有很高的运算速度和精度及逻辑判断能力,因此又出现了计算力学、计算物理、计算化学、生物控制论等新学科。

① 生物学领域。计算生物学主要用于海量生物数据的处理、存储、检索,其中最富挑战性和影响力的任务就是从其中的各类数据中发现复杂的生物规律并建立有效的计算模型。利用这样的模型,人们可以快速模拟和预测生物活动过程,指导生物学实验、辅助药物设计、改良物种等。数据挖掘与聚类分析技术广泛应用于蛋白质的结构预测,有助于从分子层次认识生命的本质和进化规律。生物计算机是以生物芯片取代在半导体硅片上集成数以万计的晶体管制成的计算机,是计算机学科中最年轻的一个分支。

② 化学领域。计算化学作为理论化学的一个分支,主要目标是利用有效的数学近似以及电脑程序计算分子的性质(如总能量、偶极矩、四极矩、振动频率、反应活性等)并用以解释一些具体的化学问题。

③ 物理学领域。现代的计算机实验在理论和实验之间建立了很好的桥梁。一个理论是否正确可以通过计算机模拟并与实验结果进行定量比较加以验证,而实验中的物理过程也可通过模拟加以理解。实验物理学、理论物理学和计算物理学以不同的研究方式来逼近自然规律。纯理论不能完全描述自然界可能产生的复杂现象,很多现象不是那么容易地通过理论方程加以预见的。计算物理学在借助各种数值计算方法的基础上,结合实验物理和理论物理学的成果,可以很好地解决这个问题。例如,粒子穿过固体时的通道效应就是通过计算机模拟而偶然发现的。

④ 经济学领域。博弈论(也称为“对策论”、“赛局理论”)目前已经成为经济学的标准分析工具之一,其在揭示经济行为相互制约的性质方面得到广泛运用。如针对经济问题的种类、结构,构建出相应的博弈模型,用于描述、反映经济问题参与人的策略选择动机,以便寻找到己方的问题最优解。

⑤ 艺术领域。由于计算机数字处理技术的发展和应用空间的不断扩大,很多新型的艺术样式也随之涌现,数字媒体艺术成为文化传播的重要方式之一,如“电子书籍”、“电子杂志”、“电子报纸”等。在数字媒体艺术设计领域最活跃的是计算机美术,既可利用计算机进行纯艺术类绘画创作,如利用计算机绘制传统国画、模拟油画、版画,利用计算机控制的活动雕塑等,还可利用计算机进行应用类美术设计,如辅助平面设计、广告创意、服装设计等。(2)非科学计算领域

非科学计算领域一般包括过程控制、数据处理、计算机辅助系统、人工智能、网络应用等方面。

① 过程控制。过程控制广泛地应用于工业生产领域,利用计算机对工业生产过程中的某些信号自动进行检测,并把检测到的数据存入计算机,再根据需要对这些数据进行处理。特别是引进计算机技术后所构成的智能化仪器仪表,将工业自动化推向了一个更高的水平。

② 数据处理。数据处理是计算机应用最广泛的一个领域。通过利用计算机加工、管理和操作各种数据资料,提高了管理效率。近年来,国内许多机构纷纷建设自己的管理信息系统(MIS),生产企业也开始采用制造资源规划软件(MRP),商业流通领域则逐步使用电子商务系统(EC)。

③ 计算机辅助系统。计算机辅助技术包括CAD、CAM和CAI等。

● 计算机辅助设计

计算机辅助设计(Computer Aided Design,CAD)是利用计算机及其图形设备辅助设计人员进行工程或产品设计,以实现最佳设计效果的一种技术。它已广泛应用于飞机、汽车、机械、电子、建筑和轻工等领域。例如,利用CAD技术进行体系结构模拟、逻辑模拟、插件划分、自动布线等,从而大大提高设计工作的自动化程度。

● 计算机辅助制造

计算机辅助制造(Computer Aided Manufacturing,CAM)是利用计算机系统进行生产设备的管理、控制和操作的过程。例如,在产品的制造过程中,用计算机控制机器的运行,处理生产过程中所需的数据,控制和处理材料的流动及对产品进行检测等。CAM技术可以提高产品质量,降低成本,缩短生产周期,提高生产率和改善劳动条件。如果将CAD和CAM技术集成,则可实现设计生产自动化,这种技术被称为计算机集成制造系统(CIMS),它是无人化工厂的基础。

● 计算机辅助教学

计算机辅助教学(Computer Aided Instruction,CAI)是在计算机辅助下进行的各种教学活动,能引导学生循序渐进地学习,使学生轻松自如地从课件中学到所需要的知识。

④ 人工智能。人工智能(Artificial Intelligence,AI)就是用计算机模拟人类的智能活动,如感知、判断、理解、学习、问题求解和图像识别等。人工智能的研究成果有些已开始走向实用阶段。例如,能模拟高水平医学专家进行疾病诊疗的专家系统、具有一定思维能力的智能机器人等。

⑤ 网络应用。计算机网络是计算机技术与现代通信技术相结合的产物。计算机网络不仅解决了一个单位、一个地区、一个国家中计算机与计算机之间的数据通信、资源共享,也大大促进了国家间的文字、图像、视频和声音等各类数据的传输与共享。网络信息资源的深层次利用和网络应用的日趋大众化正在改变着我们的工作方式和生活方式。

2.计算思维的计算机实现

计算思维是可实现的,计算机的引入使得计算思维的深度和广度均发生重大变化,不但极大地提高了计算思维实现的效率,而且将计算机思维扩展到前所未有的领域。也就是说,计算思维的对象已不再仅仅局限于现存的客观事物,可以是人们想象或者臆造的任何对象,虚拟现实就是其中的一种典型的形式。下面介绍常见问题的计算思维计算机实现。(1)简单数据和问题的处理

简单数据和问题与人们的日常工作、生活息息相关。在计算机没有产生之前,人们一直寻求好的解决方法,但未曾有质的变化。计算机的产生给人们解决问题提供了一种新型手段,人们发现从计算思维角度通过计算机解决问题变得简单而高效。图1.3描述了简单数据和问题的计算机处理过程。图1.3 简单数据和问题的处理(2)复杂问题的处理

对于复杂问题而言,问题的规模和复杂程度明显增加。这时,不仅要考虑问题的解决,而且必须是在当前计算机软件、硬件技术限制下能够高效解决。这就需要使用更复杂的数据结构、算法以及先进的程序设计思想来实现,图1.4描述了复杂问题的计算机处理过程。(3)规模数据的高效管理

除了复杂问题之外,在实际中还有一类和日常工作、生活密切相关的问题,那就是大量数据的管理与利用,数据唯有被利用才会产生价值。而以传统的复杂问题处理方式无法满足规模数据的高效管理,对于规模数据管理需要新的技术予以解决,图1.5描述了规模问题的计算机处理过程。图1.4 复杂问题的处理图1.5 规模问题的处理

1.3 微型计算机硬件组成

一个完整的计算机系统由硬件系统及软件系统两大部分构成。其中,计算机硬件是计算机系统中由电子、机械和光电元件组成的各种计算机部件和设备的总称,是计算机完成各项工作的物质基础。而计算机软件是指计算机所需的各种程序及有关资料,它是计算机的灵魂。计算机系统基本组成如图1.6所示。图1.6 计算机系统基本组成1.3.1 硬件概述

硬件是计算机硬件的简称,硬件具有原子特性,是计算机存在的物质基础。

1.物理部件

在逻辑上,一个完整的计算机硬件系统由5部分组成。5大部件在物理上则包含主机箱、电源、主板、CPU、内存、硬盘、光驱、显卡、声卡、网卡、风扇,显示器、鼠标、键盘、打印机、扫描仪、音箱、摄像头、麦克风等配件。

2.总线

在PC中,CPU、存储器和I/O设备之间是采用总线连接,总线是PC中数据传输或交换的通道,目前的总线宽度正从32位向64位过渡。通常用频率来衡量总线传输的速度,单位为Hz。根据连接的部件不同,总线可分为:内部总线、系统总线和外部总线。内部总线是同一部件内部连接的总线;系统总线是计算机内部不同部件之间连接的总线;有时也会把主机和外部设备之间连接的总线称为外部总线。根据功能的不同,系统总线又可以分为三种:数据总线(Data Bus,DB)、地址总线(Address Bus,AB)和控制总线(Control Bus,CB),如图1.7所示。图1.7 微型计算机总线结构图

数据总线负责传送数据信息,它既允许数据读入CPU又支持从CPU读出数据;而地址总线则用来识别内存位置或I/O设备的端口,是将CPU连接到内存及I/O设备的线路组,通过它来传输数据地址;控制总线传递控制信号,实现对数据线和地址线的访问控制。1.3.2 主机箱与主板

1.主机箱

主机箱为PC的各种部件提供安装支架(前面板上提供了硬盘、光驱的安装支架,后面板主要提供电源的安装支架)。主机箱内部构造如图1.8所示。图1.8 主机箱内部构造

2.主板

主板又叫主机板、系统板或母板。它安装在主机箱内,是微机最基本的也是最重要的部件之一。主板一般为矩形电路板,上面安装了组成计算机的主要电路系统,一般有BIOS芯片、I/O控制芯片、键盘和面板控制开关接口、指示灯插接件、扩充插槽、主板及插卡的直流电源供电接插件等元件,如图1.9所示。图1.9 华硕P5Q主板

当微机工作时由输入设备输入数据,由CPU来完成大量的数据运算,再由主板负责组织输送到各个设备,最后经输出设备输出。

3.选购主板的原则

主板对计算机的性能影响很重大,所以,选择主板应从以下几个方面考虑:

① 工作稳定,兼容性好;

② 功能完善,扩充力强;

③ 使用方便,可以在BIOS中对尽量多的参数进行调整;

④ 厂商有更新及时、内容丰富的网站,维修方便快捷;

⑤ 价格相对便宜,即性价比高。1.3.3 中央处理器

CPU(Central Processing Unit)中文名称为中央处理器或中央处理单元,它是计算机系统的核心部件。CPU性能的高低直接影响着微机的性能,它负责微机系统中数值运算、逻辑判断、控制分析等核心工作。INTEL公司生产的酷睿I7 CPU的外观如图1.10所示。

1.基本结构

CPU的内部结构可以分为运算部件、控制部件和寄存器部件三大部分,三个部分相互协调。8086 CPU的内部结构示意图如图1.11所示。图1.10 INTEL公司生产的酷睿I7 CPU图1.11 8086 CPU的内部结构示意图(1)运算部件

运算部件可以执行定点或浮点的算术运算操作、移位操作及逻辑操作,也可执行地址的运算和转换。(2)控制部件

控制部件主要负责对指令译码,并且发出为完成每条指令所要执行的各个操作的控制信号。其结构有两种:一种是以微存储为核心的微程序控制方式;另一种是以逻辑硬布线结构为主的控制方式。(3)寄存器部件

寄存器部件包括通用寄存器、专用寄存器和控制寄存器。有时,中央处理器中还有一些缓存,用来暂时存放一些数据指令。目前市场上的中高端中央处理器都有2 MB左右的高速缓存。

2.工作过程

CPU在工作时遵守存储程序原理,可分为取指令、分析指令、执行指令3个阶段。CPU通过周而复始地完成取指令、分析指令、执行指令这一过程,实现了自动控制过程。为了使三个阶段按时发生,还需要一个时钟发生器来调节CPU的每一个动作,它发出调整CPU步伐的脉冲,时钟发生器每秒钟发出的脉冲越多,CPU的运行速度就越快。

3.CPU的主要技术

为了提高运算速度,CPU中采用了很多新技术。(1)超流水技术

流水线技术是指在程序执行时,多条指令重叠进行操作的一种准并行处理实现技术。Intel首次在80486芯片中开始使用。在CPU中,由5~6个不同功能的电路单元组成一条指令处理流水线,然后将一条x86指令分成5~6步后再由这些电路单元分别执行,这样就能在一个CPU时钟周期完成一条指令,提高了CPU的运算速度。

假定一条指令的执行分三个阶段:取指、分析、执行,每个阶段所耗费的时间T相同,则顺序执行N条指令时,所耗费时间为3NT,如图1.12所示。图1.12 N条指令顺序执行

若采用流水线技术,则可以提高效率,总的时间为(N+2)T,如图1.13所示。图1.13 N条指令流水执行

超级流水线又叫深度流水线,它是提高CPU速度通常采取的一种技术。超级流水线就是将CPU处理指令的操作进一步细化,增加流水线级数,同时提高系统主频,加快每一级的处理速度。例如Pentium4,流水线达到20级,频率已经超过3 GHz。(2)超标量技术

超标量技术是指CPU内有多条流水线,这些流水线能够并行处理。在单流水线结构中,指令虽然能够重叠执行,但仍然是顺序的。超标量结构的CPU支持指令级并行,从而提高CPU的处理速度。超标量技术主要借助硬件资源重复(如有两套译码器和ALU等)来实现空间的并行操作。超标量处理器是通用微处理器的主流体系结构,几乎所有商用通用微处理器都采用超标量体系结构。Pentium处理器是英特尔第一款桌面超标量处理器,其具有三条流水线,两条整数指令流水线(U流水和V流水)和一条浮点指令流水线。(3)多核技术

多核是指在一枚处理器中集成两个或多个完整的计算内核。多核技术源于仅靠提高单核芯片的速度会产生过多热量,且无法带来明显的性能改善。单芯片多处理器通过在一个芯片上集成多个微处理器核心来提高程序的并行性。每个微处理器核心实质上都是一个相对简单的单线程微处理器或比较简单的多线程微处理器,这样多个微处理器核心就可以并行地执行程序代码,因而具有较高的线程级并行性。例如,酷睿i7为3.5GHz主频,4核8线程。AMD FX-8150为3.6GHz主频,8核8线程。

由于CMP(单芯片多处理器)采用了相对简单的微处理器作为处理器核心,使得CMP具有高主频、设计和验证周期短、控制逻辑简单、扩展性好、易于实现、功耗低、通信延迟低等优点。目前,单芯片多处理器已经成为处理器体系结构发展的一个重要趋势。图1.14所示为Intel公司的双核Core Duo T2000系列架构图。图1.14 双核Core Duo T2000系列架构(4)多CPU技术

多核处理器就是在一块CPU基板上集成多个处理器核心,并通过并行总线将各处理器核心连接起来共享诸如高速缓冲存储器(Cache)等其他硬件。而对于多CPU而言,则是真正意义上多核心,不光是处理器核心是多个,其他诸如高速缓冲存储器等硬件配置也都是多个的。1.3.4 存储器

计算机存储器的体系结构如图1.15所示。图1.15 存储器的体系结构

内存、外存和CPU之间的信息传递关系如图1.16所示。只要计算机在运行,CPU就会把需要运算的数据调到内存中,然后进行运算,当运算完成后,CPU再将结果传送出来。

图1.16 存储器和CPU之间的信息传递关系

1.内存

内存是CPU信息的直接来源,其作用是暂时存放CPU中的运算数据,以及与硬盘等外部存储器交换的数据。传统意义上的内存主要包括只读存储器(ROM)和随机存储器(RAM)两部分。(1)只读存储器(ROM)

在制造只读存储器(Read Only Memory,ROM)的时候,信息(数据或程序)被存入并永久保存。这些信息只能读出,一般不能写入。即使机器停电,这些数据也不会丢失。ROM一般用于存放计算机的基本程序和数据,如存放BIOS的就是最基本的ROM。(2)随机存储器(RAM)

随机存储器(Random Access Memory,RAM)既可以从中读取数据,又可以写入数据。当机器电源关闭时,存于其中的数据就会丢失。内存条就是将RAM集成块集中在一起的一小块电路板,它插在计算机中的内存插槽上。目前市场上常见的内存条有1 GB、2 GB、4 GB等容量。内存条如图1.17所示,一般由内存芯片、电路板、金手指等部分组成。

随着CPU性能的不断提高,JEDEC组织很早就开始酝酿DDR2标准,DDR2能够在100MHz频率的基础上提供每个插脚最少400 MBps的带宽,而且其接口将运行于1.8 V电压上,进一步降低发热量,以便提高频率。DDR3比DDR2有更低的工作电压,从DDR2的1.8 V降到1.5 V,性能更好,更为省电,DDR3目前能够达到最高2000 MHz的速度。图1.17 金士顿DDR3 1333 2 GB内存条

衡量内存性能时,主要有以下几个指标。(1)存取速度

内存的存取速度用存取一次数据的时间来表示,单位为ns(纳9s秒),1ns=10-。值越小表明存取时间越短,速度就越快。目前,DDR内存的存取时间一般为6ns,而更快的存储器多用在显卡的显存上,存取时间有5ns、4ns、3.6ns、3.3ns、2.8 ns等。(2)存储容量

存储容量是指存储器可以容纳的二进制信息量。目前常见的为1GB、2GB、4GB等。衡量存储器容量时,经常会用到以下单位。

① 位(bit):一位就代表一个二进制数0或1。用符号b来表示。

② 字节(Byte):每8位(bit)为1字节(Byte)。用符号B来表示。

③ 千字节(KB):1 KB=1024 B。

④ 兆字节(MB):1 MB=1024 KB=1024×1024 B=1048576 B。

⑤ 吉字节(GB):1 GB=1024 MB。

随着存储信息量的增大,需要有更大的单位表示存储容量,比吉字节(GB)更高的还有:太字节(TB,Terabyte)、PB(Petabyte)、EB(Exabyte)、ZB(Zettabyte)和YB(Yottabyte)等,其中,1PB=1024TB,1EB=1024PB,1ZB=1024 EB,1 YB=1024 ZB。

需要注意的是,存储产品生产商会直接以1GB=1000MB、1MB=1000KB、1KB=1000 B的计算方式统计产品的容量,这就是为何所购买的存储设备容量达不到标称容量的主要原因(如标注为320 GB的硬盘其实际容量只有300GB左右)。

2.高速缓冲存储器

高速缓冲存储器(Cache)的引入是为了解决CPU和内存之间的速度不匹配问题。Cache位于CPU与内存之间,是一个读/写速度比内存更快的存储器,其容量一般只有主存储器的几百分之一,但它的存取速度能与中央处理器相匹配。当CPU向内存中写入或读出数据时,这个数据也被存储进高速缓冲存储器中。当CPU再次需要这些数据时,CPU就可以直接从高速缓冲存储器读取数据。在整个处理过程中,如果中央处理器绝大多数存取主存储器的操作能为存取高速缓冲存储器所代替,计算机系统处理速度就能显著提高。当然,如果需要的数据在Cache中没有,CPU会再去内存中读取数据。

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载