大学计算机基础与计算思维(txt+pdf+epub+mobi电子书下载)


发布时间:2020-09-25 21:02:11

点击下载

作者:史巧硕 柴欣

出版社:中国铁道出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

大学计算机基础与计算思维

大学计算机基础与计算思维试读:

前言

Preface

实证思维、逻辑思维和计算思维是人类认识世界和改造世界的三大思维。随着计算机技术和网络技术的飞速发展,计算机已深入到社会的各个领域,并深刻地改变了人们工作、学习和生活的方式,以计算机技术和计算机科学为基础的计算思维已成为人们必须具备的基础性思维。因此,作为大学面向非计算机专业学生的公共必修课程,不仅要传授、训练和拓展大学生在计算机方面的基础知识和应用能力,更要展现计算思维方式,促进学生计算思维能力的培养,激发学生的创新意识,提升大学生的综合素质和能力,并为后续的计算机课程打下比较扎实的基础。

本书在总结多年教学实践和教学改革经验的基础上,针对学生的特点,从培养计算机应用能力与计算思维能力入手,对教学内容进行了精选。在加强计算机基础知识与应用能力培养的同时,重视学生计算思维能力的培养,重点讲解了计算机解决问题的思想和方法,增加了算法设计和程序实现方面的内容。

本书分上下两篇。上篇共5章,重点介绍计算机与网络基础知识,其中第1章讲述计算机的基础知识,包括信息与信息化、计算机的发展、计算机中的数制与编码;第2章介绍计算机硬件、软件和操作系统的基本知识及Windows操作系统的使用;第3章介绍办公自动化软件,包括Word、Excel和PowerPoint的使用;第4章介绍计算机网络的基础知识、因特网的基本技术与应用,以及计算机与网络安全方面的知识;第5章介绍多媒体技术与应用。下篇有4章,讲解计算思维基础的内容,其中第6章介绍计算机文化与计算思维;第7章介绍问题求解与计算机程序;第8章介绍算法设计;第9章介绍程序设计。为了与后续课程进行更好的对接,本书在对算法设计进行程序实现时,均提供了C++和Visual Basic两种程序,教师可以根据后续程序设计课程语言平台的需求,选择不同语言的程序,以方便教学。

为了实现理论联系实际,配合本教程我们还编写了《大学计算机基础实验教程(第六版)》。实验教程与本书计算机基础知识部分相呼应,安排了相应的上机实验内容,以方便师生有计划有目的地进行上机实验练习,从而达到事半功倍的教学效果。此外,为了帮助学生更好地进行上机练习,我们还配合实验教程开发了计算机上机练习系统软件,学生上机时可以选择操作模块进行操作练习,操作结束后可以由系统给出分数评判。这样,可以使学生在学习、练习、自测及综合测试等各个环节都可以进行有目的的自主学习,进而达到课程的要求。教师也可以利用测试系统对教学的各个单元进行方便的检查,随时了解教学的情况,进行针对性的教学。

本书由史巧硕、柴欣任主编,刘洪普、李娟任副主编。各章编写分工如下:第1、2章由柴欣编写,第3、8、9章由史巧硕编写,第4章由李娟编写,第5章由刘洪普编写,第6章由毕晓博编写,第7章由李建晶编写。宋洁、王建勋参与了本书大纲的讨论及部分程序的编写工作。史巧硕、柴欣负责全书的总体策划与统稿、定稿工作。

本书在编写过程中,参考了大量文献资料,在此向这些文献资料的作者深表感谢。

由于时间仓促,编者水平有限,书中难免有疏漏和欠妥之处,敬请各位专家、读者不吝批评指正。

编者2015年6月上篇计算机与网络基础知识

第1章 计算机的诞生与发展

第2章 计算机系统

第3章 办公软件Office

第4章 计算机网络

第5章 多媒体技术与应用第1章计算机的诞生与发展

诞生于20世纪40年代的电子计算机是人类最伟大的发明之一,并且一直以飞快的速度发展。进入21世纪的现代社会,计算机已经走入各行各业,并成为各行业必不可少的工具。掌握计算机的基本知识和应用,已成为人们学习和工作所必需的基本技能之一。

本章首先介绍有关信息与信息化社会的基本知识,然后介绍计算机的发展历程,讲解计算机的特点、应用及分类,最后介绍计算机中的数制与编码,使读者对计算机有初步的认识。

学习目标

● 了解信息、信息技术及信息化社会的概念,学习信息化社会中应该具备的信息素养。

● 了解计算机的诞生及计算机的发展历程。

● 了解计算机应用技术的新发展。

● 理解计算机中的数制与编码知识,掌握各类数制间的转换。1.1信息与信息化

在当今社会中,能源、材料和信息是社会发展的三大支柱,人类社会的生存和发展,时刻都离不开信息。了解信息的概念、特征及分类,对于在信息社会中更好地使用信息是十分重要的。1.1.1 信息的概念和特征

1.信息

信息一词来源于拉丁文Information,其含义是情报、资料、消息、报导、知识的意思。所以,长期以来人们就把信息看作是消息的同义语,简单地把信息定义为能够带来新内容、新知识的消息。但是后来发现,信息的含义要比消息、情报的含义广泛得多,不仅消息、情报是信息,指令、代码、符号语言、文字等一切含有内容的信号都是信息。作为日常用语,“信息”经常指音讯、消息;作为科学技术用语,“信息”被理解为对预先不知道的事件或事物的报道或者指在观察中得到的数据、新闻和知识。

在信息时代,人们越来越多地在接触和使用信息,但是究竟什么是信息,迄今说法不一。一般来说,信息可以界定为由信息源(如自然界、人类社会等)发出的被使用者接受和理解的各种信号。作为一个社会概念,信息可以理解为人类共享的一切知识或社会发展趋势,以及从客观现象中提炼出来的各种消息之和。信息并非事物本身,而是表征事物之间联系的消息、情报、指令、数据或信号。一切事物,包括自然界和人类社会,都在发出信息。我们每个人每时每刻在接收信息。在人类社会中,信息往往以文字、图像、图形、语言、声音等形式出现。随着科学的发展,时代的进步,如今“信息”的概念已经与微电子技术、计算机技术、网络通信技术、多媒体技术、信息产业、信息管理等含义紧密地联系在一起。

根据信息来源的不同,可以把信息分为4种类型:

①源于书本上的信息。这种信息随着时间的推移变化不大,比较稳定。

②源于广播、电视、报刊、杂志等的信息。这类信息具有很强的实效性,经过一段时间后,这类信息的实用价值会大大降低。

③人与人之间各种交流活动产生的信息。这些信息只在很小的范围内流传。

④源于具体事物,即具体事物的信息。这类信息是最重要的,也是最难获得的信息,这类信息能增加整个社会的信息量,能给人类带来更多的财富。

信息具有如下的基本特征:

①可度量性:信息可采用某种度量单位进行度量,并进行信息编码。

②可识别性:信息可采取直观识别、比较识别和间接识别等多种方式来把握。

③可转换性:信息可以从一种形态转换为另一种形态。

④可存储性:信息可以存储。大脑就是一个天然的信息存储器。人类发明的文字、摄影、录音、录像以及计算机存储器等都可以进行信息存储。

⑤可处理性:人脑就是最佳的信息处理器。人脑的思维功能可以进行决策、设计、研究、写作、改进、发明、创造等多种信息处理活动。计算机也具有信息处理功能。

⑥可传递性:信息的传递是与物质和能量的传递同时进行的。语言、表情、动作、报刊、书籍、广播、电视、电话等是人类常用的信息传递方式。

⑦可再生性:信息经过处理后,可以以其他的方式再生成信息。输入计算机的各种数据文字等信息,可用显示、打印、绘图等方式再生成信息。

⑧可压缩性:信息可以进行压缩,可以用不同的信息量来描述同一事物。人们常常用尽可能少的信息量描述一件事物的主要特征。

⑨可利用性:信息具有一定的实效性和可利用性。

⑩可共享性:信息具有扩散性,因此可共享。

2.信息技术

信息技术(Information Technology)是指对信息的收集、存储、处理和利用的技术。信息技术能够延长或扩展人的信息功能。到目前为止,对于信息技术也没有公认的统一的定义,由于人们使用信息的目的、层次、环境、范围不同,因而对信息技术的表述也各不相同。

通常,信息技术是指有关信息的收集、识别、提取、变换、存储、传递、处理、检索、检测、分析和利用等的技术。概括而言,信息技术是在信息科学的基本原理和方法的指导下扩展人类信息功能的技术,是人类开发和利用信息资源的所有手段的总和。信息技术既包括有关信息的产生、收集、表示、检测、处理和存储等方面的技术,也包括有关信息的传递、变换、显示、识别、提取、控制和利用等方面的技术。

在现今的信息化社会,一般来说,人们所提及的信息技术,又特指是以电子计算机和现代通信为主要手段实现信息的获取、加工、传递和利用等功能的技术总和。信息技术是一门多学科交叉综合的技术,计算机技术、通信技术和多媒体技术、网络技术互相渗透、互相作用、互相融合,将形成以智能多媒体信息服务为特征的大规模信息网。

在人类发展史上,信息技术经历了5个发展阶段,即5次革命:

第一次信息技术革命是语言的使用。距今35000~50000年前出现了语言,语言成为人类进行思想交流和信息传播不可缺少的工具。

第二次信息技术革命是文字的创造。大约在公元前3500年出现了文字,文字的出现,使人类对信息的保存和传播取得重大突破,较大地超越了时间和地域的局限。

第三次信息技术的革命是印刷术的发明和使用。大约在公元1040年,我国开始使用活字印刷技术,欧洲人则在1451年开始使用印刷技术。印刷术的发明和使用,使书籍、报刊成为重要的信息存储和传播的媒体。

第四次信息革命是电报、电话、广播、电视的发明和普及应用。使人类进入利用电磁波传播信息的时代。

第五次信息技术革命是电子计算机的普及应用,计算机与现代通信技术的有机结合以及网际网络的出现。1946年第一台电子计算机问世,第五次信息技术革命的时间是从20世纪60年代电子计算机与现代技术相结合开始至今。

现在所说的信息技术一般特指的就是第五次信息技术革命,是狭义的信息技术,它经历了从计算机技术到网络技术再到计算机技术与现代通信技术结合的过程。第五次信息技术革命对社会的发展、科技进步及个人生活和学习都产生了深刻的影响。1.1.2 信息化与信息化社会

1.信息化的概念

信息化的概念起源于20世纪60年代的日本,但直到20世纪70年代后期才普遍使用“信息化”和“信息社会”的概念。所谓信息化是指培育、发展以智能化工具为代表的新的生产力并使之造福于社会的历史过程。

从信息化的定义可以看出:信息化代表了一种信息技术被高度应用,信息资源被高度共享,从而使得人的智能潜力以及社会物质资源潜力被充分发挥,个人行为、组织决策和社会运行趋于合理化的理想状态。同时,信息化也是IT产业发展与IT在社会经济各部门扩散的基础之上,不断运用IT改造传统的经济、社会结构从而通往如前所述的理想状态的一个持续的过程。

2.信息化社会

信息社会与工业社会的概念没有什么原则性的区别,它是脱离工业化社会以后,信息将起主要作用的社会。在农业社会和工业社会中,物质和能源是主要资源,所从事的是大规模的物质生产。而在信息社会中,信息成为比物质和能源更为重要的资源,以开发和利用信息资源为目的的信息经济活动迅速扩大,逐渐取代工业生产活动而成为国民经济活动的主要内容。信息经济在国民经济中占据主导地位,并构成社会信息化的物质基础。以计算机、微电子和通信技术为主的信息技术革命是社会信息化的动力源泉。信息技术在生产、科研教育、医疗保健、企业和政府管理,以及家庭中的广泛应用对经济和社会发展产生了巨大而深刻的影响,从根本上改变了人们的生活方式、行为方式和价值观念。1.1.3 信息素养

信息素养(Information Literacy)是一个内容丰富的概念,其本质是全球信息化需要人们具备的一种基本能力,它包括能够判断什么时候需要信息,并且懂得如何去获取信息,如何去评价和有效利用所需的信息。

信息素养的定义为:信息的获取、加工、管理与传递的基本能力;对信息及信息活动的过程、方法、结果进行评价的能力;流畅地发表观点、交流思想、开展合作、勇于创新并解决学习和生活中的实际问题的能力;遵守道德与法律,形成社会责任感。

可以看出,信息素养是一种基本能力,是一种对信息社会的适应能力,它涉及信息的意识、信息的能力和信息的应用。同时,信息素养也是一种综合能力,它涉及各方面的知识,是一个特殊的、涵盖面很宽的能力,它包含人文的、技术的、经济的、法律的诸多因素,和许多学科有着紧密的联系。

具体来说,信息素养主要包括信息意识、信息知识、信息能力和信息道德这4方面的要素,信息素养的4个要素共同构成一个不可分割的统一整体。信息意识是先导,信息知识是基础,信息能力是核心,信息道德是保证。1.2计算机的发展

在人类文明发展的历史长河中,计算工具经历了从简单到复杂、从低级到高级的发展过程,例如,绳结、算筹、算盘、计算尺、手摇机械计算机、电动机械计算机等。它们在不同的历史时期发挥了各自的作用,同时也孕育了电子计算机的雏形。1.2.1 电子计算机的诞生

1946年2月,世界上第一台电子计算机ENIAC(Electronic Numerical Integrator And Computer,电子数字积分计算机)在美国的宾夕法尼亚大学诞生,如图1-1所示。设计这台计算机主要用于解决第二次世界大战时军事上弹道课题的高速计算。虽然它的运算速度仅为每秒完成5000次加、减法运算,但它把一个有关发射弹道导弹的运算题目的计算时间从台式计算器所需的7~10h缩短到30s以下,这在当时是了不起的进步。制造这台计算机使用了18800个电子管、1500多个继电器、7000个电阻器,占地面积约170m 2 ,质量达3×10 4 kg,功率为150kW。它的存储容量很小,只能存储20个字长为10位的十进制数;另外,它采用线路连接的方法来编排程序,因此每次解题都要靠人工改接连线,准备时间大大超过实际计算时间。

虽然这台计算机的性能在今天看来微不足道,但在当时确实是一种创举。ENIAC的研制成功为以后计算机科学的发展奠定了基础,具有划时代的意义。它的成功,使人类的计算工具由手工到自动化产生了一个质的飞跃,为以后计算机的发展提供了契机,开创了计算机的新时代。

ENIAC采用十进制进行计算,它的存储量很小,程序是用线路连接的方式来表示的。由于程序与计算两相分离,程序指令存放在机器的外部电路中,每当需要计算某个题目时,首先必须人工接通数百条线路,往往为了进行几分钟的计算要很多人工作好几天的时间做准备。针对ENIAC的这些缺陷,美籍匈牙利数学家冯·诺依曼(Johnvon Neumann)提出了把指令和数据一起存储在计算机的存储器中,让计算机能自动地执行程序,即“存储程序”的思想。

冯·诺依曼指出计算机内部应采用二进制进行运算,应将指令和数据都存储在计算机中,由程序控制计算机自动执行,这就是著名的存储程序原理。“存储程序式”计算机结构为后人普遍接受,此结构又称冯·诺依曼体系结构,此后的计算机系统基本上都采用了冯·诺依曼体系结构。冯·诺依曼还依据该原理设计出了“存储程序式”计算机EDVAC,并于1950年研制成功,如图1-2所示。这台计算机总共采用了2300个电子管,运算速度却比ENIAC提高了10倍,冯·诺依曼的设想在这台计算机上得到了圆满的体现。

世界上首台“存储程序式”电子计算机是1949年5月在英国剑桥大学研制成功的EDSAC(Electronic Delay Storage Automatic Computer),它是剑桥大学的威尔克斯(Wilkes)教授于1946接受了冯·诺依曼的存储程序计算机结构后开始设计研制的。

图1-1 第一台电子计算机ENIAC

图1-2 冯·诺依曼设计的计算机EDVAC1.2.2 电子计算机的发展历程

计算机界传统的观点是将计算机的发展大致分为4代,这种划分是以构成计算机的基本逻辑部件所用的电子元器件的变迁为依据的。从电子管到晶体管,再由晶体管到中小规模集成电路,再到大规模集成电路直至现今的超大规模集成电路,元器件的制造技术发生了几次重大的革命,芯片的集成度不断提高,这些使计算机的硬件得以迅猛发展。

从第一台计算机诞生以来的60多年时间里,计算机的发展过程可以划分如下:

1.第一代计算机 (1946—1954年): 电子管计算机时代

第一代计算机是电子管计算机,其基本元件是电子管,内存储器采用水银延迟线,外存储器有纸带、卡片、磁带和磁鼓等。受当时电子技术的限制,运算速度仅为每秒几千次到几万次,而且内存储器容量也非常小,仅为1000~4000B。

此时的计算机程序设计语言还处于最低阶段,要用二进制代码表示的机器语言进行编程,工作十分烦琐,直到20世纪50年代末才出现了稍微方便一点的汇编语言。

第一代计算机体积庞大,造价昂贵,因此基本上局限于军事研究领域的狭小天地里,主要用于数值计算。UNIVAC(Universal Automatic Computer)是第一代计算机的代表,于1951年首次交付美国人口统计局使用。它的交付使用标志着计算机从实验室进入了市场,从军事应用领域转入数据处理领域。

2.第二代计算机 (1955—1964年): 晶体管计算机时代

晶体极管的发明标志着一个新的电子时代的到来。1947年,贝尔实验室的两位科学家布拉顿(W.Brattain)和巴丁(J.Bardeen)发明了点触型晶体管,1950年科学家肖克利(W.Shockley)又发明了面结型晶体管。比起电子管,晶体管具有体积小、重量轻、寿命长、功耗低、发热少、速度快的特点,使用晶体管的计算机,其电子线路结构变得十分简单,运算速度大幅提高。

图1-3 晶体管计算机TRADIC

第二代计算机是晶体管计算机,以晶体管为主要逻辑元件,内存储器使用磁芯,外存储器有磁盘和磁带,运算速度从每秒几万次提高到几十万次,内存储器容量也扩大到了几十万字节。

1955年,美国贝尔实验室研制出了世界上第一台全晶体管计算机TRADIC,如图1-3所示,它装有800只晶体管,功率仅为100W。1959年,IBM公司推出了晶体管化的7000系列计算机,其典型产品IBM 7090是第二代计算机的代表,在1960—1964年间占据着计算机领域的统治地位。

此时,计算机软件也有了较大的发展,出现了监控程序并发展为后来的操作系统,高级程序设计语言也相继推出。1957年,IBM研制出公式语言FORTRAN;1959年,美国数据系统语言委员会推出了商用语言COBOL;1964年,Dartmouth大学的J.Kemeny和T.Kurtz提出了BASIC。高级语言的出现,使得人们不必学习计算机的内部结构就可以编程使用计算机,为计算机的普及提供了可能。

第二代计算机与第一代计算机相比,体积小、成本低、重量轻、功耗小、速度快、功能强且可靠性高。使用范围也由单一的科学计算扩展到数据处理和事务管理等其他领域中。

3.第三代计算机 (1965—1971年): 中小规模集成电路计算机时代

1958年,美国物理学家基尔比(J.Kilby)和诺伊斯(N.Noyce)同时发明了集成电路。集成电路是用特殊的工艺将大量完整的电子线路制作在一个硅片上。与晶体管电路相比,集成电路计算机的体积、重量、功耗都进一步减小,而运算速度、运算功能和可靠性则进一步提高。

第三代计算机的主要元件采用小规模集成电路(Small Scale Integrated Circuits,SSI)和中规模集成电路(Medium Scale Integrated Circuits,MSI),主存储器开始采用半导体存储器,外存储器使用磁盘和磁带。

IBM公司1964年研制出的IBMS/360系列计算机是第三代计算机的代表产品,它包括6个型号的大、中、小型计算机和44种配套设备,从功能较弱的360/51小型机,到功能超过它500倍的360/91大型机。IBM为此耗时3年,投入50亿美元的研发费,超过了第二次世界大战时期原子弹的研制费用。IBMS/360系列计算机是当时最成功的计算机,5年之内售出32300台,创造了计算机销售中的奇迹,奠定了“蓝色巨人”在当时计算机业的统治地位。此后,IBM又研制出与IBMS/360兼容的IBMS/370,其中最高档的370/168机型的运算速度已达250万次/秒。

软件在这个时期形成了产业,操作系统在种类、规模和功能上发展很快,通过分时操作系统,用户可以共享计算机资源。结构化、模块化的程序设计思想被提出,而且出现了结构化的程序设计语言Pascal。

4.第四代计算机 (1971年至今): 大规模和超大规模集成电路计算机时代

随着集成电路技术的不断发展,单个硅片可容纳电子线路的数目也在迅速增加。20世纪70年代初期出现了可容纳数千个至数万个晶体管的大规模集成电路(Large Scale Integrated Circuits,LSI),20世纪70年代末期又出现了一个芯片上可容纳几万个到几十万个晶体管的超大规模集成电路(Very LargeScale Integrated Circuits,VLSI)。利用VLSI技术,能把计算机的核心部件甚至整个计算机都做在一个硅片上。一个芯片显微结构如图1-4所示。

第四代计算机的主要元器件采用大规模集成电路和超大规模集成电路。集成度很高的半导体存储器完全代替了磁芯存储器,外存磁盘的存取速度和存储容量大幅上升,计算机的速度可达每秒几百万次至上亿次,而其体积、重量和耗电量却进一步减少,计算机的性能价格比基本上以每18个月翻一番的速度上升,此即著名的More定律。

图1-4 芯片显微结构

美国ILLIAC-IV计算机,是第一台全面使用大规模集成电路作为逻辑元件和存储器的计算机,它标志着计算机的发展已到了第四代。1975年,美国阿姆尔公司研制成470V/6型计算机,随后日本富士通公司生产出M-190计算机,是比较有代表性的第四代计算机。英国曼彻斯特大学1968年开始研制第四代计算机,1974年研制成功DAP系列计算机。1973年,联邦德国西门子公司、法国国际信息公司与荷兰飞利浦公司联合成立了统一数据公司,研制出Unidata 7710系列计算机。

这一时期的计算机软件也有了飞速发展,软件工程的概念开始提出,操作系统向虚拟操作系统发展,计算机应用也从最初的数值计算演变为信息处理,各种应用软件丰富多彩,在各行业中都有应用,大大扩展了计算机的应用领域。

1982年以后,许多国家开始研制第五代计算机。其特点是以人工智能原理为基础,希望突破原有的计算机体系结构模式,还提出了神经网络计算机等新概念,这些都属于新一代计算机,目前尚不成熟。1.2.3 微型计算机的发展

在计算机的飞速发展过程中,20世纪70年代出现了微型计算机。微型计算机开发的先驱是两个年青的工程师,美国英特尔(Intel)公司的霍夫(Hoff)和意大利的弗金(Fagin)。霍夫首先提出了可编程通用计算机的设想,即把计算机的全部电路制作在4个集成电路芯片上。这个设想首先由弗金实现,他在4.2mm×3.2mm的硅片上集成了2250个晶体管构成中央处理器,即4位微处理器Intel 4004,再加上一片随机存储器、一片只读存储器和一片寄存器,通过总线连接就构成了一台4位微型电子计算机。

凡由集成电路构成的中央处理器(Central ProcessingUnit,CPU),人们习惯上称为微处理器(Micro Processor)。由不同规模的集成电路构成的微处理器,形成了微型计算机的几个发展阶段。从1971年世界上出现第一个4位的微处理器Intel 4004算起,至今微型计算机的发展经历了6个阶段。

1.第一代微型计算机

第一代微型计算机是以4位微处理器和早期的8位微处理器为核心的微型计算机。4位微处理器的典型产品是Intel 4004/4040,芯片集成度为1200个晶体管/片,时钟频率为1MHz。第一代产品采用了PMOS工艺,基本指令执行时间为10~20μs,字长4位或8位,指令系统简单,速度慢。微处理器的功能不全,实用价值不大。早期的8位微处理器的典型产品是Intel 8008。

2.第二代微型计算机

1973年12月,Intel 8080的研制成功,标志着第二代微型计算机的开始。其他型号的典型微处理器产品是Intel公司的Intel 8085、Motorola公司的M6800以及Zilog公司的Z80等,它们都是8位微处理器,集成度为4000~7000个晶体管/片,时钟频率为4MHz。其特点是采用了NMOS工艺,集成度比第一代产品提高了一倍,基本指令执行时间为1~2μs。

1976—1977年,高档8位微处理器以Z80和Intel 8085为代表,使运算速度和集成度又提高了一倍,已具有典型的计算机体系结构及中断、直接数据存取(Direct Memory Access,DMA)等控制功能,指令系统比较完善。它们所构成的微型计算机的功能显著增强,最著名的是Apple公司的AppleⅡ,软件可以使用高级语言进行交互式会话操作,此后微型计算机的发展开始进入全盛期。

3.第三代微型计算机

1978年,Intel公司推出第三代微处理器代表产品Intel 8086,集成度为29000个晶体管/片。1979年又推出了Intel 8088,同年Zilog公司也推出了Z8000,集成度为17500个晶体管/片。这些微处理器都是16位微处理器,采用HMOS工艺,基本指令执行时间为0.5μs,各方面的性能比第二代又提高了一个数量级。由它们构成的微型计算机具有丰富的指令系统,采用多级中断、多重寻址方式、段式寄存器结构,并且配有强有力的系统软件。

1982年,Intel公司在8086的基础上又推出了性能更为优越的80286,集成度为13.4万个晶体管/片。其内部和外部数据总线均为16位,地址总线为24位。由Intel公司微处理器构成的微型机首次采用了虚拟内存的概念。Intel 80286微处理器芯片的问世,使20世纪80年代后期286微型计算机风靡全球。

4.第四代微型计算机

1985年10月,Intel公司推出了32位字长的微处理器Intel 80386,标志着第四代微型计算机的开始。80386芯片内集成了27.5万个晶体管/片,其内部、外部数据总线和地址总线均为32位,随着内存芯片制造技术的发展和成本的下降,内存容量已达到16MB和32MB。1989年,研制出的80486,集成度为120万个晶体管/片,把80386的浮点运算处理器和8KB的高速缓存集成到一个芯片,并支持二级Cache,极大地提高了内存访问的速度。用该微处理器构成的微型计算机的功能和运算速度完全可以与20世纪70年代的大中型计算机相匹敌。

5.第五代微型计算机

1993年,Intel公司推出了更新的微处理器芯片Pentium,中文名为“奔腾”,Pentium微处理器芯片内集成了310万个晶体管/片。随后Intel公司又陆续推出了Classic Pentium(经典奔腾)、Pentium Pro(高能奔腾)、Pentium MMX(多能奔腾,1997年初)、Pentium II(奔腾二代,1997年5月)、Pentium III(奔腾三代,1999年)和Pentium 4(奔腾第四代产品,2001年)的微型计算机。在Intel公司各阶段推出微处理器的同时,各国厂家也相继推出与奔腾微处理器结构和性能相近的微型机。

6.第六代微型计算机

2004年,AMD公司推出了64位芯片Athlon 64,次年初Intel公司也推出了64位奔腾系列芯片。2006年Intel公司推出了酷睿系列的64位双核微处理器Core 2,AMD公司也相继推出了64位双核微处理器,之后Intel和AMD公司又相继推出了四核的处理器。2008年11月,Intel公司推出了第一代智能酷睿Core i系列,Core i系列是具有革命性的全新一代PC处理器,其性能相较之前的产品提升了20%~30%。在2011年接近尾声之际,Intel再次推出了六核顶级处理器Core i7 3960X,至今在PC处理器中仍处于领先地位。

64位技术和多核技术的应用使得微型计算机进入了一个新的时代,现代微型计算机的性能远远超过了早期的巨型机。随着近些年来微型机的发展异常迅速,芯片集成度不断提高,并向着重量轻、体积小、运算速度快、功能更强和更易使用的方向发展。1.2.4 我国计算机技术的发展

我国计算机的发展起步较晚,1956年国家制定12年科学规划时,把发展计算机、半导体等技术学科作为重点,相继筹建了中国科学院计算机研究所、中国科学院半导体研究所等机构。1958年组装调试成第一台电子管计算机(103机),1959年研制成大型通用电子管计算机(104机),1960年研制成第一台自己设计的通用电子管计算机(107机)。1964年,我国开始推出第一批晶体管计算机。1971年,研制成第三代集成电路计算机。1974年后,DJS-130晶体管计算机形成了小批量生产。1982年,采用大、中规模集成电路研制成16位的DJS-150机。1983年,长沙国防科技大学推出向量运算速度达1亿次/秒的银河Ⅰ巨型计算机。

进入20世纪90年代,我国的计算机开始步入高速发展阶段,不论是大型、巨型计算机,还是微型计算机,都取得长足的发展。其中,作为代表国家综合实力象征的巨型机领域,我国已经处于世界的前列。在2014年11月17日国际TOP500组织公布的最新全球超级计算机500强排行榜榜单中,前5名分别为中国“天河二号”超级计算机(浮点运算速度为每秒33.86千万亿次)、美国能源部下属橡树岭国家实验室的“泰坦”(每秒17.59千万亿次)、美国劳伦斯利弗莫尔国家实验室的“红杉”(每秒17.17千万亿次)、日本理化研究所的“京”(每秒10.51千万亿次)、美国阿尔贡国家实验室的“米拉”(每秒8.59千万亿次)。“天河二号”以比第二名快近一倍的速度连续4次登上榜首,是目前全球最快的超级计算机。“天河二号”计算机如图1-5所示。

图1-5 天河二号计算机

软件方面,1992年我国的软件产业销售额仅为43亿元,2000年国务院发布《关于鼓励软件产业和集成电路产业发展若干政策的通知》,为发展软件提供了有力的政策支持。20多年来,一大批优秀的国产应用软件在办公自动化、财税、金融电子化建设等电子政务、企业信息化方面以及国民经济和社会生活中得到广泛应用,成功地为“金卡”“金税”“金关”等国家信息化工程开发了应用软件系统,为贯彻落实“以信息化带动工业化,以工业化促进信息化”和大力推广信息技术应用,改造提升传统产业和推动国家信息化建设工作发挥了重要作用。1.2.5 计算机应用技术的新发展

1.普适计算

普适计算又称普存计算、普及计算(Pervasive Computing或Ubiquitous Computing),这一概念强调将计算和环境融为一体,而让计算本身从人们的视线里消失,使人的注意力回归到要完成任务的本身。在普适计算的模式下,人们能够在任何时间、任何地点以任何方式进行信息的获取与处理。

普适计算的核心思想是小型、便宜、网络化的处理设备广泛分布在日常生活的各个场所,计算设备将不只依赖命令行、图形界面进行人机交互,而更依赖“自然”的交互方式,计算设备的尺寸将缩小到毫米甚至纳米级。在普适计算的环境中,无线传感器网络将广泛普及,在环保、交通等领域发挥作用;人体传感器网络会大大促进健康监控以及人机交互等的发展。各种新型交互技术(如触觉显示等)将使交互更容易、更方便。

普适计算的目的是建立一个充满计算和通信能力的环境,同时使这个环境与人们逐渐地融合在一起。在这个融合空间中人们可以随时随地、透明地获得数字化服务。普适计算的含义十分广泛,所涉及的技术包括移动通信技术、小型计算设备制造技术、小型计算设备上的操作系统技术及软件技术等。

在信息时代,普适计算可以降低设备使用的复杂程度,使人们的生活更轻松、更有效率。实际上,普适计算是网络计算的自然延伸,它使得不仅个人计算机,而且其他小巧的智能设备也可以连接到网络中,从而方便人们即时地获得信息并采取行动。

2.网格计算

随着超级计算机的不断发展,它已经成为复杂科学计算领域的主宰。但超级计算机造价极高,通常只有一些国家级的部门,如航天、气象等部门才有能力配置这样的设备。而随着人们日常工作遇到的商业计算越来越复杂,人们越来越需要数据处理能力更强大的计算机,而超级计算机的价格显然阻止了它进入普通人的工作领域。于是,人们开始寻找一种造价低廉而数据处理能力超强的计算模式,网格计算应运而生。

网格计算(Grid Computing)是伴随着互联网而迅速发展起来的专门针对复杂科学计算的新型计算模式。这种计算模式是利用互联网把分散在不同地理位置的计算机组织成一个“虚拟的超级计算机”,其中每一台参与计算的计算机就是一个“结点”,而整个计算是由成千上万个“结点”组成的“一张网格”。网格计算的优势有两个:一个是数据处理能力超强;另一个是能充分利用网上的闲置处理能力。

实际上,网格计算是分布式计算(Distributed Computing)的一种,如果说某项工作是分布式的,那么,参与这项工作的一定不只是一台计算机,而是一个计算机网络。充分利用网上的闲置处理能力是网格计算的一个优势,网格计算模式首先把要计算的数据分割成若干“小片”,然后不同结点的计算机可以根据自己的处理能力下载一个或多个数据片断,这样这台计算机的闲置计算能力就被充分地调动起来了。

网格计算不仅受到需要大型科学计算的国家级部门,如航天、气象部门的关注,目前很多大公司如IBM等也开始追捧这种计算模式,并开始有了相关“动作”。除此之外,一批围绕网格计算的软件公司也逐渐壮大和为人所知,有业界专家预测,网格计算在未来将会形成一个年产值20万亿美元的大产业。目前,网格计算主要被各大学和研究实验室用于高性能计算的项目,这些项目要求巨大的计算能力,或需要接入大量数据。

综合来说,网格能及时响应需求的变动,通过汇聚各种分布式资源和利用未使用的容量,网格技术极大地增加了可用的计算和数据资源的总量。可以说,网格是未来计算世界中的一种划时代的新事物。

3.云计算

云计算(Cloud Computing)是一种基于互联网的计算方式,通过这种方式,共享的软硬件资源和信息可以按需提供给计算机和其他设备。狭义云计算是指IT基础设施的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的资源(硬件、平台、软件)。广义云计算是指服务的交付和使用模式,指通过网络以按需、易扩展的方式获得所需的服务。这种服务可以是IT和软件、互联网相关的,也可以是任意其他的服务,这意味着计算能力也可作为一种商品通过互联网进行流通。云计算是通过网络提供可伸缩的廉价的分布式计算能力。

云计算是网格计算、分布式计算、并行计算、效用计算、网络存储、虚拟化、负载均衡等传统计算机技术和网络技术发展融合的产物,或者说是这些计算机科学概念的商业实现。它旨在通过网络把多个成本相对较低的计算实体整合成一个具有强大计算能力的完美系统,并借助先进的商业模式把这种强大的计算能力分布到终端用户手中。云计算的一个核心理念就是通过不断提高“云”的处理能力,进而减少用户终端的处理负担,最终使用户终端简化成一个单纯的输入/输出设备,并能按需享受“云”的强大计算处理能力。

云计算的基本原理是,通过使计算分布在大量的分布式计算机上,而非本地计算机或远程服务器中,企业数据中心的运行将更与互联网相似。这使得企业能够将资源切换到需要的应用上,根据需求访问计算机和存储系统。这是一种革命性的举措,它意味着计算能力也可以作为一种商品进行流通,就像煤气、水电一样,取用方便,费用低廉。

云计算主要分为3种服务模式:SaaS、PaaS和IaaS。

①SaaS(Software as a Service,软件即服务):它是一种通过Internet提供软件的模式,用户无须购买软件,而是向提供商租用基于Web的软件来管理企业经营活动。

②PaaS(Platform as a Service,平台即服务):实际上是指将软件研发的平台作为一种服务,以SaaS的模式提交给用户。因此,PaaS也是SaaS模式的一种应用。

③IaaS(Infrastructure as a Service,基础设施即服务):消费者通过Internet可以从完善的计算机基础设施获得服务。IaaS的最大优势在于它允许用户动态申请或释放结点,按使用量计费。

云计算被视为科技业的一次革命,它带来了工作方式和商业模式的根本性改变。首先,对中小企业和创业者来说,云计算意味着巨大的商业机遇,其可以借助云计算在更高的层面上和大企业竞争。其次,从某种意义上说,云计算意味着硬件不再重要。那些对计算需求量越来越大的中小企业,不再试图去买价格高昂的硬件,而是从云计算供应商那里租用计算能力。当计算机的计算能力不受本地硬件的限制时,企业可以以极低的成本投入获得极高的计算能力,不用再投资购买昂贵的硬件设备,负担频繁的保养与升级。

4.人工智能

人工智能(Artificial Intelligence,AI)是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。“人工智能”一词最初是在1956年Dartmouth学会上提出的,从那以后,研究者们发现了众多理论和原理,人工智能的概念也随之扩展。

人工智能是计算机学科的一个分支,20世纪70年代以来被称为世界三大尖端技术之一(空间技术、能源技术、人工智能),也被认为是21世纪基因工程、纳米科学、人工智能三大尖端技术之一。这是因为近30年来它获得了迅速的发展,在很多学科领域都获得了广泛应用,并取得了丰硕的成果。人工智能已逐步成为一个独立的分支,无论在理论和实践上都已自成体系。

人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如,繁重的科学和工程计算本来是要人脑来承担的,现在计算机可以轻松完成这种计算,因此当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”,可见复杂工作的定义是随着时代的发展和技术的进步而变化的,人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展,另一方面又转向更有意义、更加困难的目标。

能够用来研究人工智能的主要物质基础以及能够实现人工智能技术平台的机器就是计算机,人工智能的发展历史是和计算机科学技术的发展史联系在一起的。除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。

从1956年正式提出人工智能学科算起,50多年来,人工智能取得长足的发展。现在人工智能已经不再是几个科学家的专利,全世界几乎所有大学的计算机系都有人在研究这门学科,各大公司或研究机构也投入力量进行研究与开发。在科学家和工程师不懈的努力下,现在计算机已经可以在很多地方帮助人进行原来只属于人类的工作,计算机以它的高速和准确为人类发挥着它的作用。目前,人工智能主要的应用领域有机器翻译、智能控制、专家系统、机器人学、语言和图像理解、遗传编程机器人工厂、自动程序设计、航天应用、庞大的信息处理、存储与管理、执行化合生命体无法执行的或复杂或规模庞大的任务,等等。

5.物联网

顾名思义,物联网(“the Internet of Things”)就是“物物相连的互联网”。这里有两层意思:第一,物联网的核心和基础仍然是互联网,是在互联网基础上的延伸和扩展的网络;第二,其用户端延伸和扩展到了任何物品与物品之间,进行信息交换和通信。严格而言,物联网的定义是:通过射频识别(RFID)、红外感应器、全球定位系统、激光扫描器等信息传感设备,按约定的协议,把任何物品与互联网连接起来,进行信息交换和通信,以实现智能化识别、定位、跟踪、监控和管理的一种网络。

物联网中非常重要的技术是RFID电子标签技术。以简单RFID系统为基础,结合已有的网络技术、数据库技术、中间件技术等,构筑一个由大量联网的阅读器和无数移动的标签组成的,比Internet更为庞大的物联网成为RFID技术发展的趋势。物联网把新一代IT技术充分运用在各行各业之中,具体地说,就是把感应器嵌入和装备到电网、铁路、桥梁、隧道、公路、建筑、供水系统、大坝、油气管道等各种物体中,然后将“物联网”与现有的互联网整合起来,实现人类社会与物理系统的整合。在这个整合的网络当中,存在能力超强的中心计算机群,能够对整合网络内的人员、机器、设备和基础设施实施实时的管理和控制。在此基础上,人类可以以更加精细和动态的方式管理生产和生活,达到“智慧”状态,提高资源利用率和生产力水平,改善人与自然间的关系。

物联网根据其实质用途可以归结为3种基本应用模式:

①对象的智能标签。通过二维码、RFID等技术标识特定的对象,用于区分对象个体。

②环境监控和对象跟踪。利用多种类型的传感器和分布广泛的传感器网络,可以实现对某个对象的实时状态的获取和特定对象行为的监控。

③对象的智能控制。物联网基于云计算平台和智能网络,可以依据传感器网络用获取的数据进行决策,改变对象的行为进行控制和反馈。

与传统的互联网相比,物联网有其鲜明的特征:

①它是各种感知技术的广泛应用。物联网上部署了海量的多种类型传感器,每个传感器都是一个信息源,不同类别的传感器所捕获的信息内容和信息格式不同。

②它是一种建立在互联网上的泛在网络。物联网技术的重要基础和核心仍旧是互联网,通过各种有线和无线网络与互联网融合,将物体的信息实时准确地传递出去。

③物联网具有智能处理的能力,能够对物体实施智能控制。物联网不仅仅提供了传感器的连接,其本身也具有智能处理的能力,能够对物体实施智能控制。

物联网是利用无所不在的网络技术建立起来的,是继计算机、互联网与移动通信网之后的又一次信息产业浪潮,是一个全新的技术领域。物联网用途广泛,遍及智能交通、环境保护、政府工作、公共安全、平安家居、智能消防、工业监测、老人护理、个人健康等多个领域。预计物联网是继计算机、互联网与移动通信网之后的又一次信息产业浪潮。有专家预测,随着物联网的大规模普及,这一技术将会发展成为一个上万亿元规模的高科技市场。

6.大数据

大数据是指无法在一定时间内用常规软件工具对其内容进行抓取、管理和处理的数据集合,它具有4个基本特征:一是数据体量巨大,从TB级别跃升到PB级别(1PB=1024TB);二是数据类型多样,现在的数据类型不仅是文本形式,更多的是图片、视频、音频、地理位置信息等多类型的数据,个性化数据占绝对多数;三是处理速度快,数据处理遵循“1秒定律”,可从各种类型的数据中快速获得高价值的信息;四是价值密度低,商业价值高,以视频为例,连续不间断监控过程中,可能有用的数据仅仅有一两秒。业界将这4个特征归纳为4个“V”——Volume(大量)、Variety(多样)、Velocity(高速)、Value(价值)。

大数据技术是指从各种各样类型的数据中,快速获得有价值信息的能力。大数据技术的战略意义不在于掌握庞大的数据信息,而在于对这些含有意义的数据进行专业化处理。如果把大数据比作一种产业,那么这种产业实现赢利的关键,在于提高对数据的“加工能力”,通过“加工”实现数据的“增值”。适用于大数据的技术,包括大规模并行处理(MPP)数据库、数据挖掘电网、分布式文件系统、分布式数据库、云计算平台、互联网和可扩展的存储系统。

由此可见,大数据并不只是简单的数据大的问题,重要的是通过对大数据进行分析来获取有价值的信息。所以,大数据的分析方法在大数据领域就显得尤为重要,可以说是决定最终信息是否有价值的决定性因素。大数据分析的基本方法有可视化分析、数据挖掘算法、预测性分析、语义引擎和数据质量和数据管理。对于更深入的大数据分析,则需要更有特点、更深入、更专业的大数据分析方法。

大数据的作用体现在如下的四方面:

第一,对大数据的处理分析正成为新一代信息技术融合应用的结点。移动互联网、物联网、社交网络、数字家庭、电子商务等是新一代信息技术的应用形态,这些应用不断产生大数据。云计算为这些海量、多样化的大数据提供存储和运算平台。通过对不同来源数据的管理、处理、分析与优化,将结果反馈到上述应用中,将创造出巨大的经济和社会价值。

第二,大数据是信息产业持续高速增长的新引擎。面向大数据市场的新技术、新产品、新服务、新业态会不断涌现。在硬件与集成设备领域,大数据将对芯片、存储产业产生重要影响,还将催生一体化数据存储处理服务器、内存计算等市场。在软件与服务领域,大数据将引发数据快速处理分析、数据挖掘技术和软件产品的发展。

第三,大数据利用将成为提高核心竞争力的关键因素。各行各业的决策正在从“业务驱动”转变“数据驱动”。对大数据的分析可以使零售商实时掌握市场动态并迅速做出应对;可以为商家制定更加精准有效的营销策略提供决策支持;可以帮助企业为消费者提供更加及时和个性化的服务;在医疗领域,可提高诊断准确性和药物有效性;在公共事业领域,大数据也开始发挥促进经济发展、维护社会稳定等方面的重要作用。

第四,大数据时代科学研究的方法手段将发生重大改变。在大数据时代,可通过实时监测、跟踪研究对象在互联网上产生的海量行为数据,进行挖掘分析,揭示出规律性的东西,提出研究结论和对策。1.3计算机中的数制与编码

信息在现实世界中无处不在,它们的表现形式也多种多样,如数字、字母、符号、图表、图像、声音等。而任何形式的信息都可以通过一定的转换方式变成计算机能直接处理的数据。这种计算机能直接处理的数据是用二进制来表示的。

也就是说,在计算机内部无论是存储数据还是进行数据运算,一律采用二进制。虽然为了书写、阅读方便,用户可以使用十进制或其他进制形式表示一个数,但不管采用哪种形式,计算机都要把它们变成二进制数存入计算机并以二进制方式进行运算。当要输出运算结果时,也必须把运算结果转换成人们所习惯的十进制等形式通过输出设备进行输出。

那么,为什么计算机要采用二进制数形式呢?第一是由于二进制数在电器元件中最容易实现,而且稳定、可靠,二进制数只要求识别“0”和“1”两个符号,计算机就是利用电路输出电压的高或低分别表示数字“1”或“0”的;第二是二进制数运算法则简单,可以简化硬件结构;第三是便于逻辑运算,逻辑运算的结果称为逻辑值,逻辑值只有两个“0”和“1”。这里的“0”和“1”并不是表示数值,而是代表问题的结果有两种可能:真或假、正确或错误等。1.3.1 计算机的数制

人们在生产实践和日常生活中,创造了各种表示数的方法,这种数的表示系统称为数制。

按照进位方式计数的数制叫进位计数制。在日常生活中,会遇到不同进制的数。例如,十进制,逢十进一;十二进制(一年等于十二个月),逢十二进一;七进制(一周等于七天),逢七进一;六十进制(一小时等于六十分),逢六十进一。平常用得最多的是十进制数,而计算机内部使用的是二进制数据,有时编写程序时还要用到八进制和十六进制数据,因此,需要了解不同进制是如何转换的。

首先,来理解基数与位权的概念。

1.基数与位权

进位计数制涉及两个基本问题:基数与各数位的位权。

所谓某进位数制的基数是指该进制中允许选用的基本数字符号的个数。

①十进制(Decimal):其每位数位上允许使用的是0、1、2、3、4、5、6、7、8、9这10个数字符号中的一个,故基数为10。

②二进制(Binary):其每位数位上允许使用的是0和1两个数字,故基数为2。这就是说,如果给定的数中,除0和1外还有其他数,如1012,它就决不会是一个二进制数。

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载