大学计算机基础(txt+pdf+epub+mobi电子书下载)


发布时间:2020-07-20 17:25:24

点击下载

作者:刘宝忠,谢芳

出版社:高等教育出版分社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

大学计算机基础

大学计算机基础试读:

前言

本书的编写目标是要让大学生不仅会进行计算机的基本操作,而且要对计算机原理和应用有进一步的掌握,培养学生的计算思维能力,使学生在以后的学习和工作中,能够更好地使用计算机及其相关技术解决本专业领域的问题。

本书力求反映计算机技术发展的趋势和本学科领域的最新科技成果,并以应用为主线,内容丰富实用、结构清晰、图文并茂。全书共分7章,分别介绍了计算机基础知识、计算机硬件系统、计算机软件基础、Office应用软件、计算机网络基础、多媒体技术基础和数据库基础。

本书在吸收借鉴已有教材长处的基础上,结合教育部非计算机专业计算机基础课程教学指导委员会的“高等学校计算机基础核心课程教学实施方案”要求,由教学经验丰富的老师编写而成。书中顾及了教学内容的系统性和完整性,考虑了各个版块知识的联系,将基础理论、基本操作技能和解决实际问题能力有机结合,特别注重对学生实际应用能力的培养。本书在更新修订计算机技术相关内容的同时,将操作系统平台由 Windows XP 升级为Windows 7,Office 的各个组件也由 2003 升级为2010,并增添了如长文档编写、选配计算机或笔记本电脑、小型局域网组网、Access数据库、防火墙软件的使用等实践性操作内容。

本书由武汉工程大学刘宝忠、谢芳任主编,刘菲、吴静、徐诚任副主编。第1章和第3章由刘宝忠编写,第2章由徐诚编写,第4章由刘菲、谢芳编写(其中Word部分由刘菲编写),第5章由吴静编写,第6章和第7章由谢芳编写。全书由刘宝忠、谢芳统稿并审定,王海晖教授审阅了全书并提出了许多宝贵意见。

在编写过程中,编者参考了大量有关计算机基础教学的书籍和资料,引用了大量同行专家的研究成果,在此对这些参考文献的作者、专家表示诚挚的感谢。

由于作者水平有限,书中存在不妥之处,敬请广大读者批评指正。编者2014年5月第1章计算机基础知识概述

电子计算机(Electronic Computer)又称电脑,诞生于 20世纪40年代。几十年来,计算机的发展突飞猛进,其应用已深入到社会的各个领域、各个部门以及人们生活的各个方面。学习和了解计算机的基础知识,已经成为人们的必需。

本章主要介绍计算机的一些基础知识。通过本章的学习,了解计算机的发展、特点与用途;了解计算机使用的各种数制和数制之间的转换方法;弄清微型计算机的基本组成及各部件的主要功能;学习计算机病毒的防御。1.1计算机系统概述

自从1946年世界上第一台电子计算机问世以来,尤其是微型计算机的出现和计算机网络的发展,有力地推动了信息社会的发展。计算机的发明和应用发挥和激发了人类的创造力,标志着人类文明的发展进入了一个崭新的阶段。同样计算机技术也随着社会生产和科学技术的进一步发展而不断发展。1.1.1 计算机的发展、特点与分类

1.计算机的发展历史

现代计算机技术的飞速发展,离不开人类科技知识的积累,离不开许许多多热衷于此并为此呕心沥血的科学家的探索。正是这一代代人的知识积累才构筑了今天的“信息大厦”。(1)计算机的诞生

计算机作为一种工具,首先是计算的工具,是人类在长期的劳动实践中创造出来的。它的前身是各种各样的计算工具。人类最早的计算工具是人自身的附属物,如手指等;或者是触手可及的物品,如石子、木棍、绳结等。后来又制造出了专门用于计算的工具——算筹,中国古代圆周率的求得,用的就是算筹;《射雕英雄传》中的瑛姑,酷爱计算,她用的工具就是算筹。

人类历史上,有几件事对现代计算机的发明有着重要意义:一是中国古代发明的、直到今天还在使用的算盘被有些人誉为“原始计算机”;二是1642年法国物理学家帕斯卡(Blaise Pascal,1623~1662年)发明的齿轮式加减法器;三是 1673年德国数学家莱布尼兹(Gottfried Wilhelm Leibniz,1646~1716年)制成的机械式计算器,可以进行乘除运算。以上这些事件对计算机的产生与发展都具有不可替代的历史作用。这些发明虽在灵巧性上有些进步,但无一例外,它们或人工,或机械,都没有突破手工操作的局限。

直到19世纪20年代,英国数学家查尔斯·巴贝奇(Charles Babbage,1791~1871年)才取得突破,从手动机械跃入自动机械时代。巴贝奇提出了自动计算机的基本概念:要使计算机能自动进行计算,必须把计算步骤和原始数据预先存放在机器内,并使计算机能取出这些数据,在必要时能进行一些简单的判断,决定自己下一步的计算顺序。巴贝奇提出的关于计算机的构想,具有输入、处理、存储、输出及控制5个基本功能,而这些正是现代意义上的计算机所必备的。他还分别于1823年和1834年设计了一台差分机和一台分析机,提出了一些创造性的建议,从而奠定了现代数字计算机的基础。

1884年,美国工程师赫尔曼·霍雷斯(Herman Hollerith)制造了第一台电动计算机,采用穿孔卡和弱电流技术进行数据处理,在美国人口普查中大显身手。

美国哈佛大学应用数学教授霍华德·阿肯(Howard H.Aiken)受巴贝奇思想启发,在 1937年得到美国海军部的经费支持,开始设计“马克1号”(由IBM承建),于1944年交付使用。“马克1号”采用全继电器,长51英尺、高8英尺,看上去像一节列车,有750000个零部件,里面的各种导线加起来总长500英里,总耗资近五十万美元。“马克1号”做乘法运算一次最多需要6秒,除法需要10多秒。运算速度不算太快,但精确度很高(精确到小数点后23位)。

世界上第一台真正意义上的数字式电子计算机是由美国宾夕法尼亚大学的物理学家约翰·莫克利(John Mauchly)和工程师普雷斯伯·埃克特(J. Presper Eckert)领导研制的名为ENIAC(Electronic Numerical Integrator And Calculator,电子数值积分计算机)的计算机。

1942年在宾夕法尼亚大学任教的莫克利提出了用电子管组成计算机的设想,这一方案得到了美国陆军弹道研究所高尔斯特丹(Goldstone)的关注。当时正值第二次世界大战之际,新武器研制中的弹道问题涉及许多复杂的计算,单靠手工计算已远远满足不了要求,急需自动计算的机器。于是在美国陆军部的资助下,1943年开始了ENIAC的研制,并于1946年(这个里程碑的年份)完成。当时它的功能确实出类拔萃。例如它可以在1秒钟内进行5000次加法运算,3毫秒便可进行一次乘法运算,与手工计算相比速度要大大加快,60秒钟射程的弹道计算时间由原来的20分钟缩短到30秒。但它也明显存在着缺点:它体积庞大,装有16种型号的18000只真空管、1500个电子继电器、70000个电阻、18000个电容器,8英尺高,3英尺宽,100英尺长,总重量有30吨,运行时耗电量很大;另外,它的存储容量很小,只能存20个字长为10位的十进位数,而且是用线路连接的方法来编排程序,因此每次解题都要靠人工改接连线,准备时间大大超过实际计算时间。

尽管如此,ENIAC的研制成功还是为以后计算机科学的发展提供了契机,而克服它的每一个缺点,都对计算机的发展带来很大影响。其中影响最大的是“程序存储”方式的采用,由美籍匈牙利数学家冯·诺依曼(Johnvon Neumann)提出。其思想是:①采用二进制,简化计算机结构;②计算机中设置存储器,将符号化的计算步骤存放在存储器中,然后由机器在指定时刻自动读取、运算、判断并执行。归纳起来,冯·诺依曼体系结构的计算机的主要特征是用二进制表示数据,存储程序、顺序控制、存储单元按线性编号。(2)电子计算机的发展

半个多世纪以来,根据电子计算机所采用的电子器件,一般将电子计算机的发展分成五个阶段。

①第一代计算机。第一代计算机是电子管计算机,时间大约为1946~1958年。其基本特征是采用电子管作为计算机的逻辑器件;数据表示主要是定点数;用机器语言或汇编语言编写程序。由于当时电子技术的限制,每秒运算速度仅为几千次,内存容量仅几 KB。因此,第一代电子计算机体积庞大,造价很高,仅限于军事和科学研究工作,其代表机型有IBM650(小型机)、IBM709(大型机)。

②第二代计算机。第二代计算机是晶体管电路计算机,时间大约为1958~1964年。其基本特征是逻辑元件逐步由电子管改为晶体管,内存所使用的器件大都使用铁氧磁性材料制成的磁芯存储器。外存储器有了磁盘、磁带,外设种类也有所增加。运算速度提高到每秒几十万次,内存容量扩大到几十KB。与此同时,计算机软件也有了较大的发展,出现了FORTRAN、COBOL、ALGOL 等高级语言。与第一代计算机相比,晶体管计算机体积小、成本低、功能强、可靠性大大提高。除了科学计算外,还用于数据处理和事务处理。代表机型有IBM7094、CDC7600。

③第三代计算机。第三代计算机是集成电路计算机,时间约为1964~1970年。随着固体物理技术的发展,集成电路工艺已可以在几平方毫米的单晶硅片上集成由十几个甚至上百个电子元件组成的逻辑电路。其基本特征是逻辑元件采用小规模集成电路 SSI(Small Scale Integration)和中规模集成电路 MSI(Middle Scale Integration)。第三代计算机的运算速度每秒可达几十万次到几百万次。存储器进一步发展,体积更小、价格低,软件逐步完善。这一时期,计算机同时向标准化、多样化、通用化、机种系列化发展。高级程序设计语言在这个时期有了很大发展,并出现了操作系统和会话式语言,计算机开始广泛应用在各个领域。其代表机型有IBM360。

④第四代计算机。第四代计算机称为大规模集成电路计算机,时间从 1971年至今。进入 20世纪70年代以来,计算机逻辑器件采用大规模集成电路 LSI(Large Scale Integration)和超大规模集成电路 VLSI(Very Large Scale Integration)技术,在硅半导体上集成了 1000~1000000个以上电子元器件。集成度很高的半导体存储器代替了服役达20年之久的磁芯存储器。

随着技术的进步,硅晶片越来越小,也越来越薄,而其上的晶体管数目和管线则越来越多。从基尔比模型上的4个晶体管(最早的集成电路:1958年9月,德州仪器公司工程师杰克·基尔比(Jack Kilby)在锗晶片一个大拇指指甲盖大小的地方放置了 5个元件,其中有 4个晶体管),变成了 20世纪60年代中期的 10个、80年代初的 10000个,直至今日的上亿个。

我们可从Intel微处理器的元器件的间隔距离体会集成度的变化:

ENIAC,一般为5cm;

1972年,4004微处理器芯片10µm;

1974年,8080微处理器芯片6µm;

1979年,8086微处理器芯片3µm;

1985年,80386微处理器芯片1.5µm;

1990年,80486微处理器芯片0.8µm;

1993年,80586微处理器芯片0.6µm;

1995年,“奔腾”0.5µm;

1997年,“奔腾Ⅱ”0.35µm;

1998年,“奔腾Ⅱ”0.25µm;

1999年,“奔腾Ⅲ”0.18µm;

2000年,“奔腾4”0.13µm;

2002年,“奔腾D”90nm;

2005年,“酷睿”65nm。

⑤第五代计算机。第五代计算机是智能计算机,是一种有知识、会学习、能推理的计算机,具有理解自然语言、声音、文字和图像且能说话的能力,使人机能够用自然语言直接对话。它可以利用已有的和不断学习到的知识,进行思维、联想、推理,并得出结论;能解决复杂问题,具有汇集、记忆、检索等有关能力。智能计算机突破了传统的冯·诺依曼式机器的概念,舍弃了二进制结构,把许多处理机并联起来,并行处理信息,速度大大提高。其智能化人机接口使人们不必编写程序,只需发出命令或提出要求,计算机就会完成推理和判断,并且进行解释。1988年,世界上召开了第五代计算机国际会议。1991年,美国加州理工学院推出了一种大容量并行处理系统,用528台处理器并行进行工作,其运算速度可达到320亿次浮点每秒运算。(3)计算机的发展趋势

进入21世纪以来,计算机技术的发展非常迅速,产品不断升级换代,融入了各项新技术,使得计算机功能越来越强。计算机在各个领域的广泛应用,也积极地推动了社会的发展和科学技术的进步,促进了计算机技术的更新和发展。因而就产生了新一代计算机,可称为第5代计算机,主要用于支持知识库的智能计算机、神经网络计算机和生物计算机等。

新一代计算机主要是将信息采集、存储、加工、通信和人工智能结合在一起的智能计算机,将突破传统计算机的结构模式,注重智能化的功能,即对数据进行处理的同时还具备模拟的功能。因此,未来计算机的发展趋势是微型化、巨型化、网络化、智能化。

①微型化。随着计算机技术的不断发展,计算机的体积越来越小,功能越来越强,如笔记本电脑、掌上电脑等便携式计算机。

②巨型化。巨型化是指最大、最快、最贵的计算机。例如,目前世界上运行速度达到 1704亿次每秒浮点运算的超级计算机。生产巨型计算机的公司有美国的Cray公司和TMC公司、日本的富士通公司和日立公司等。我国研制的银河计算机也属于巨型计算机,银河1号为亿次计算机,银河2号为十亿次计算机。

③智能化。计算机依据不确定的输入做出决定,它模仿人脑的工作方式,具有直观判断和处理不完整的模糊信息的能力,甚至有接近人的审美和情感能力。也就是说,计算机工作时只需要告诉它“做什么”,而不必“手把手”教它“怎么做”。目前科学家们正在采取“人工智能”和“神经网络”方法开发智能计算机。

④网络化。随着计算机技术与通信技术的飞速发展,全球网络化时代已经到来,可以说有了计算机就拥有了网络资源。(4)未来的计算机

按照摩尔定律,微芯片上集成的晶体管数目每18个月翻一番。许多科学家认为以半导体材料为基础的集成电路技术日益走向它的物理极限,要解决这个矛盾,必须突破传统的冯·诺依曼结构,引入新材料,开发新技术。于是人们努力探索新的计算材料和计算技术,致力于研制新一代计算机,如生物计算机、光子计算机和量子计算机等。

①生物计算机。生物计算机就是利用 DNA 计算技术替代传统电子技术的新型计算机。生物计算机的运算过程就是蛋白质分子与周围物理化学介质的相互作用的过程。计算机的转换开关由酶来充当,而程序则在酶合成系统本身和蛋白质的结构中极其明显地表示出来。

早在20世纪70年代,人们就发现脱氧核糖核酸(DNA)处于不同状态时可以代表“有信息”或“无信息”。于是,科学家设想:假若有机物的分子也具有这种“开”“关”的功能,那岂不可以把它们作为计算机的基本构件,从而就可能造出“有机物计算机”。20世纪80年代以来,美国、日本、前苏联等国家开始着手研制生物计算机。

生物计算机的突出优点有:密集度高、速度快、可靠性高,且蛋白质分子能够自我组合、再生新的微型电路,使得生物计算机具有生物体的一些特点,比如能发挥生物本身的调节机能,自动修复芯片发生的故障,还能模仿人脑的思考机制。目前,生物计算机尚处于起步阶段,在很多方面还相当不完善,要想真正进入实用阶段还需要更多的时间和更多科学家的艰辛探索。

②量子计算机。量子计算机是一类遵循量子力学规律进行高速数学和逻辑运算、存储及处理量子信息的物理装置。当某个装置处理和计算的是量子信息,运行的是量子算法时,它就是量子计算机。量子计算机的概念源于对可逆计算机的研究,其目的是解决计算机中的能耗问题。

20世纪60年代至70年代,人们发现能耗会导致计算机中的芯片发热极大地影响芯片的集成度,从而限制了计算机的运行速度。研究发现,能耗来源于计算过程中的不可逆操作。那么,计算过程是否必须要用不可逆操作才能完成呢?问题的答案是:所有经典计算机都可以找到一种对应的可逆计算机,且不影响运算能力。既然计算机中的每一步操作都可以改造为可逆操作,那么在量子力学中,它就可以用一个幺正变换来表示。

在经典计算机中,基本信息单位为比特(bit),运算对象是各种比特序列。而在量子计算机中,基本信息单位是量子比特(qubit),运算对象是量子比特序列。量子计算机可以进行任意的幺正变换,对经典计算做了极大的扩充。在数学形式上,经典计算可看作是一类特殊的量子计算。量子计算机对每一个叠加分量进行变换,所有这些变换同时完成,并按一定的概率叠加起来,给出结果,这种计算称作量子并行计算。除了进行并行计算外,量子计算机的另一重要用途是模拟量子系统,这项工作是经典计算机无法胜任的。

迄今为止,世界上还没有真正意义上的量子计算机。但是,世界各地的许多实验室正在以巨大的热情追寻着这个梦想——如何实现量子计算。目前已经提出的方案主要利用了原子和光腔相互作用、冷阱束缚离子、电子或核自旋共振、量子点操纵、超导量子干涉等。量子计算机使计算的概念焕然一新,这是量子计算机与其他计算机(如光子计算机、生物计算机等)的不同之处。

③光子计算机。光子计算机是一种以光信号进行数字运算、逻辑操作、信息存储和处理的新型计算机。光子计算机的基本组成部件是集成光路,包括激光器、透镜和棱镜等。

光子计算机主要优点有以下几点。

a.超高速的运算速度。光子计算机并行处理能力强,因而具有更高的运算速度。电子的传播速度是593km/s,而光子的传播速度却5达3×10km/s,对于电子计算机来说,电子是信息的载体,它只能通过一些相互绝缘的导线来传导,即使在最佳的情况下,电子在固体中的运行速度也远远不如光速,尽管目前的电子计算机运算速度不断提高,但其能力还是有限的;此外,随着装配密度的不断提高,会使导体之间的电磁作用不断增强,散发的热量也在逐渐增加,从而制约了电子计算机的运行速度;而光子计算机的运行速度要比电子计算机快得多,对使用环境条件的要求也比电子计算机低得多。

b.超大规模的信息存储容量。光子计算机具有极为理想的光辐射源——激光器,光子的传导可以不需要任何导线,即使是在相交的情况下,它们之间也不会产生丝毫的相互影响。光子计算机无导线传递信息的平行通道,其密度理论上是无限的,一枚五角硬币大小的棱镜,它的信息通过能力是全世界现有电话电缆流量的许多倍。

c.能量消耗小,散发热量低。光子计算机的驱动,只需要同类规格的电子计算机驱动能量的一小部分,这不仅降低了电能消耗,大大减少了机器散发的热量,而且有利于光子计算机的微型化和便携化的研制。

目前,光子计算机的许多关键技术,如光存储技术、光互连技术、光电子集成电路等都已经获得突破,最大幅度地提高光子计算机的运算能力是当前科研工作面临的攻关课题。

④高速超导计算机。高速超导计算机是使用超导体元器件的高速计算机。所谓超导,是指有些物质在接近绝对零度时,电流流动是无阻力的。

1962年,英国物理学家约瑟夫逊提出了超导隧道效应原理,即由超导体—绝缘体—超导体组成器件。当两端加电压时,电子便会像通过隧道一样无阻挡地从绝缘介质中穿过去,形成微小电流,而这一器件的两端是无电压差的。约瑟夫逊因此获得诺贝尔奖。

用约瑟夫逊器件制成的电子计算机,称为约瑟夫逊计算机,也就是超导计算机。这种计算机的耗电仅为用半导体器件制造的计算机所耗电量的几千分之一,它执行一个指令只需十亿分之一秒,比半导体元件快10倍。日本电气技术研究所研制成世界上第一台完善的超导电脑,它采用了4个约瑟夫逊大规模集成电路,每个集成电路芯片只3有3~5mm大小,每个芯片上有上千个约瑟夫逊元件。(5)计算机发展中的关键人物

在计算机发展历程中有如下几个关键人物。

①约翰·冯·诺依曼。约翰·冯·诺依曼(John von Neumann,1903~1957年),美藉匈牙利人,1903年12月28日生于匈牙利的布达佩斯。1911~1921年,冯·诺依曼在布达佩斯的卢瑟伦中学读书期间,就崭露头角而深受老师的器重;1921~1923年在苏黎世大学学习;很快又在1926年以优异的成绩获得了布达佩斯大学数学博士学位,此时冯·诺依曼年仅22岁;1927~1929年,冯·诺依曼相继在柏林大学和汉堡大学担任数学讲师;1930年接受了普林斯顿大学客座教授的职位,西渡美国;1931年成为该校终身教授;1933年转到该校的高级研究所,成为最初六位教授之一,并在那里工作了一生。冯·诺依曼是普林斯顿大学、宾夕法尼亚大学、哈佛大学、伊斯坦堡大学、马里兰大学、哥伦比亚大学和慕尼黑高等技术学院等校的荣誉博士。他是美国国家科学院、秘鲁国立自然科学院和意大利国立林且学院等院的院土。1954年他任美国原子能委员会委员,1951~1953年任美国数学学会主席。1954年夏,冯·诺依曼被诊断出患有癌症,1957年2月8日在华盛顿去世,终年54岁。

冯·诺依曼对人类的最大贡献是对计算机科学、计算机技术和数值分析的开拓性工作。现在一般认为ENIAC机是世界第一台电子计算机,由美国科学家研制,于1946年2月14日在费城开始运行。不过,ENIAC机本身存在两大缺点:一是没有存储器;二是使用布线接板进行控制,使用前往往要花费大量时间进行布线工作。

冯·诺依曼由ENIAC机研制组的戈尔德斯廷中尉介绍进入ENIAC机研制小组后,便带领这批富有创新精神的年轻科技人员,向着更高的目标进军。1945年,他们在共同讨论的基础上,发表了“存储程序通用电子计算机方案”——EDVAC(Electronic Discrete Variable Automatic Computer)。在这个过程中,冯·诺依曼显示出他雄厚的数理基础知识,充分发挥了他的顾问作用及其探索问题和综合分析的能力。EDVAC 方案明确奠定了新机器由 5个部分组成:运算器、逻辑控制装置、存储器、输入和输出设备,并描述了这 5 部分的功能和相互关系。EDVAC 机还有两个非常重大的改进:一是采用二进制,不但数据采用二进制表示,指令也采用二进制表示;二是建立了存储程序,指令和数据一起存放在存储器里,并做同样处理,简化了计算机的结构,极大提高了计算机的运行速度。

1946年7~8月间,冯·诺依曼和戈尔德斯廷、勃克斯在EDVAC方案的基础上,为普林斯顿大学高级研究所研制IAS计算机时,又提出了一个更加完善的设计报告《电子计算机逻辑设计初探》。

以上两份是既有理论又有具体设计方案的文件,首次在全世界掀起了一股“计算机热”,它们的综合设计思想,便是著名的“冯·诺依曼机”,其中心就是存储程序原则——指令和数据一起存储。这个概念被誉为“计算机发展史上的一个里程碑”,它标志着电子计算机时代的真正开始,并指导着以后的计算机设计。

冯·诺依曼还积极参与了推广应用计算机的工作,对编制程序及计算数值都做出了杰出的贡献。冯·诺依曼于1937年荣获美国数学会的波策奖;1947年荣获美国总统的功勋奖章、美国海军优秀公民服务奖;1956年荣获美国总统的自由奖章和爱因斯坦纪念奖以及费米奖。

冯·诺依曼奠定了现代计算机的基础,被世人尊为“计算机之父”,但在谈到他的理论与构思时,他谦虚地说,这些理论与构思的基础来自于英国数学家布尔和图灵的思想。

②乔治·布尔。乔治·布尔(Boolean George)1847年发表《思维规律研究》创立逻辑代数学,成功地把形式逻辑归结为一种代数。布尔认为,逻辑中的各种命题能够使用数学符号来代表,并能依据规则推导出相应于逻辑问题的适当结论。布尔的逻辑代数理论建立在两种逻辑值“真True”、“假 False”和三种逻辑关系“与 AND”、“或 OR”、“非 NOT”之上。这种理论为计算机使用二进制计数、逻辑元件和逻辑电路的设计铺平了道路。1854年,布尔出版了名著《布尔代数》,并在此基础上,经过许多年的发展,形成了现代计算机的理论基础——数理逻辑。

③香农。香农(C.E.Shannon),信息论创始人之一。1938年在其一篇硕士论文中指出:能够用二进制系统表达布尔代数中的逻辑关系,用“1”代表“真(True)”,用“0”代表“假(False)”,并由此用二进制系统来构筑逻辑运算系统。并指出,以布尔代数为基础,任何一个机械性推理过程,对计算机来说,都能像处理普通计算一样容易。香农把布尔代数与计算机二进制联系在了一起。

④阿兰·图灵。阿兰·图灵(Alan M.Turing),“人工智能之父”,22 岁就被选为英皇家学院研究员,1936年在论文《论可计算数及其在判定问题中的应用》中,严格地描述了计算机的逻辑结构,首次提出了计算机的通用模型——“图灵机”,并从理论上证明了这种抽象计算机的可能性。“二战”期间,图灵在英国外交部工作,设计了密码破译机(BOMBE),这实际上就是一台以继电器为器件的专用数字电子计算器,该机一次次地破译了敌军的密码,为反法西斯战争的胜利做出了贡献。

1945年,图灵在英国国家物理研究所开始设计自动计算机,阐述了用子程序实现某些运算而程序员不必知道机器运行细节的思想,为计算机高级语言的诞生奠定了基础。1950年,图灵制成了一台体现他设计思想的计算机模型机——PIOLOTACE。同年10月,图灵发表了题为《计算机器与智能》的论文,设计了著名的“图灵测试”,通过问答来测试计算机是否具有同人相等的智力,这一思考至今仍是计算机学术界探讨的核心问题之一。该论文引起了计算机学术界的极大震撼,奠定了人工智能理论的基础。

为纪念图灵对计算机科学的巨大贡献,美国计算机协会设立了“图灵奖”,每年授予在计算机科学方面做出重大贡献的科学家,堪称计算机界的“诺贝尔奖”。(6)我国的计算机发展史

1956年,周恩来总理亲自提议、主持并制定了我国《十二年科学技术发展规划》,选定“计算机、电子学、半导体、自动化”作为“发展规划”的4项紧急措施,并制定了计算机科研、生产及教育发展的计划,标志着我国计算机事业由此起步。

20世纪60年代中期,我国已全面进入到第二代电子计算机时代。当时研究和生产的计算机有441B、X-2、121、109机等,以后还生产过108Z及320等计算机。

我国的集成电路于1954年研制成功,但真正生产集成电路是20世纪70年代初期。整个70年代我国先后生产或研制的第三代计算机有655、150、013、151、260等,这些属于中型计算机。研制和生产的小型计算机有DJS100系列、DJS130系列和DJS180系列,其中DJS130在全国生产量最大。

20世纪80年代以来,我国的计算机科学技术进入了迅猛发展的新阶段。目前,已建立了完整的计算机科研、生产与服务体系,在计算机教育、普及及应用方面有了良好的开端。微处理器和微型计算机的研究与应用正在全国蓬勃发展,32位微处理器已研制成功,与国际上主流计算机机型完全兼容的80X86计算机系列已投入生产、应用,中、大型计算机与巨型计算机的研制取得了令人鼓舞的成就。1992年,国防科技大学成功研制10亿次每秒的YH-II型巨型计算机。1997年,国防科技大学又研制成功130亿次每秒的YH-III型巨型计算机,系统的综合技术达到国际先进水平。这标志着我国巨型计算机技术已达到世界先进水平。

2.计算机的特点

①运算速度快。计算机的运算速度已从早期的每秒几千次发展到现在高达每秒几千亿次。如此高的计算速度,不仅极大地提高了工作效率,而且使许多极复杂的科学问题得以解决。例如,外国的一位数学家花了15年的时间把圆周率π的值算到小数点后707位,而用现代计算机计算不到1小时就完成了。

②计算精度高。尖端科学技术的发展往往需要高度准确的计算能力,只要电子计算机内用以表示数值的位数足够多,就能提高运算精度。一般的计算工具只有几位有效数字,而计算机的有效数字可以精确到十几位、几十位,甚至数百位,这样就能精确地进行数据计算和表示数据的计算结果。

③存储功能强。计算机具有存储“信息”的存储装置,可以存储大量的数据,当需要时又可准确无误地取出来。计算机这种存储信息的“记忆”能力,使它能成为信息处理的有力工具。

④具有逻辑判断能力。计算机既可以进行数值运算,也可以进行逻辑运算,可以对文字或符号进行判断和比较,进行逻辑推理和证明,这是其他任何计算工具无法相比的。

⑤具有自动运行能力。计算机不仅能存储数据,还能存储程序。由于计算机内部操作是按照人们事先编制的程序一步一步自动地进行的,不需要人工操作和干预。这是计算机与其他计算工具最本质的区别。

3.计算机的分类

通常,人们用“分代”来表示计算机在纵向的历史中的发展情况,而用“分类”来表示计算机在横向的不同领域的发展、分布和使用情况。根据美国电气和电子工程师协会(IEEE)1989年提出的标准来划分,可以将计算机分成巨型机、小巨型机、大型主机、小型主机、工作站和个人计算机等6类。

①巨型机(Supercomputer)。也称为超级计算机,在所有计算机类型中其占地最大、价格最贵、功能最强、其浮点运算速度最快(2004年IBM的蓝色基因达到135.5万亿次每秒)。目前,只有数国家的几家公司能够生产,多用于战略武器(如核武器和反导武器)的设计、空间技术、石油勘探、中、长期天气预报以及社会模拟等领域。巨型机的研制水平、生产能力及其应用程度,已成为衡量一个国家经济实力和科技水平的重要标志。

②小巨型机(Minisupercomputer)。这是小型超级计算机,或称桌上型超级计算机,出现于20世纪80年代中期。功能低于巨型机,速度能达到1TELOPS,即10亿次每秒,价格也只有巨型机的十分之一。

③大型主机(Mainframe)。也称为大型计算机,覆盖国内通常所说的大、中型机。其特点是大型、通用,内存可达 1GB 以上,整机处理速度高达 300MIPS~750MIPS(Million Instructions Per Second,每秒处理的百万级的机器语言指令数),具有很强的处理和管理能力,主要用于大银行、大公司、规模较大的高校和科研院所。在计算机向网络化发展的今天,大型主机仍有其生存空间。

④小型机(Minicomputer)。结构简单、可靠性高、成本较低、不需要经过长期培训即可维护和使用,对于广大中、小用户较为适用。

⑤工作站(Workstation)。功能介于个人计算机和小型机之间的一种高档微机,运算速度快,具有较强的联网功能,用于特殊领域,如图像处理、计算机辅助设计等。它与网络系统中的“工作站”在用词上相同,而含义不同。网络上的“工作站”泛指联网用户的节点,以区别于网络服务器,常常由一般的个人计算机充当。

⑥个人计算机(Personal Computer,PC)。即通常所说的电脑、微机或计算机。它出现于 20世纪70年代,以其设计先进(总是率先采用高性能的微处理器MPU)、软件丰富、功能齐全、价格便宜等优势而拥有广大的用户,因而大大推动了计算机的普及应用。PC机的主流是IBM公司在1981年推出的PC机系列及其众多的兼容机。可以这么说,PC机无处不在、无所不用,除了台式型,还有膝上型、笔记本型、掌上型、手表型等。1.1.2 计算机系统的基本结构

1.冯·诺依曼计算机的基本原理

冯·诺依曼在1946年提出了关于计算机组成和工作方式的基本设想。至今为止,尽管计算机制造技术已经发生了翻天覆地的变化,但是就其体系结构而言,仍然是根据他的设计思想制造的,这样的计算机称为冯·诺依曼结构计算机。冯·诺依曼设计思想可以简要地概括为以下3点。

①计算机应包括运算器、存储器、控制器、输入和输出设备 5 大基本部件。

②计算机内部应采用二进制来表示指令和数据。每条指令一般具有一个操作码和一个地址码。其中操作码表示运算性质,地址码指出操作数在存储器中的地址。

③将编好的程序送入内存储器中,然后启动计算机工作,计算机无须操作人员干预,能自动逐条取出指令和执行指令。

从以上3条可以看出,冯·诺依曼设计思想最重要之处就在于明确地提出了“程序存储”的概念,他的全部设计思想实际上就是对“程序存储”概念的具体化。所以程序存储和二进制是冯·诺依曼计算机的设计思想和基本原理如图1-1所示。图1-1 计算机的工作原理

2.计算机系统的基本结构

计算机系统由硬件系统和软件系统两大部分组成,如图1-2所示。

计算机通过执行程序而运行,工作时软、硬件须协同工作,二者缺一不可。

硬件(Hardware)是构成计算机的物理装置,是看得见、摸得着的一些实实在在的实体。一个计算机硬件系统,从功能级角度而言包含五大功能部件,即运算器、控制器、存储器、输入设备和输出设备。硬件是计算机能够运行的物质基础,计算机的性能,如运算速度、存储容量、计算精度、可靠性等,很大程度上取决于硬件的配置。只有硬件而没有任何软件支持的计算机称为裸机。在裸机上只能运行机器语言程序,使用很不方便,效率也低。图1-2 计算机的系统组成

软件(Software)是指使计算机运行需要的程序、数据和有关的技术文档资料。软件是计算机的灵魂,是发挥计算机功能的关键。有了软件,人们可以不必过多地去了解机器本身的结构与原理,从而方便灵活地使用计算机。软件屏蔽了下层的具体计算机硬件,形成一台抽象的逻辑计算机(也称虚拟机),它在用户和计算机(硬件)之间架起了沟通的桥梁。如图1-3所示为计算机系统的层次结构。图1-3 计算机系统的层次结构

3.计算机硬件系统

从功能上来看,计算机的硬件系统由运算器、控制器、存储器、输入设备和输出设备组成(如图1-4所示),这5大部分由总线连接。控制器和运算器组合在一起被称为中央处理器 CPU(Central Processing Unit)。图1-4 计算机的基本结构(1)中央处理器(CPU)

CPU是计算机的核心部件,由它完成计算机的运算和控制功能。运算器又称算术逻辑部件(Arithmetical and Logic Unit,ALU),主要功能是执行所有数据的算术运算、逻辑运算、逻辑测试和判断等操作。控制器(Controller)是整个计算机的指挥中心,它负责从主存储器中取出指令,对指令进行分析、判断,并根据指令产生相应的操作控制信号,使计算机的有关设备有条不紊地协调工作,指挥并控制CPU、主存和输入输出设备之间的数据流动方向,保证计算机能自动、连续的工作。

在控制器中还包括若干寄存器(Register),它们的作用是存放运算过程中的各种数据、地址或其他信息。寄存器种类很多,主要包括以下几种。

①通用寄存器。向 ALU 提供运算数据,或保留运算结果。一般 CPU 有多个通用寄存器。

②累加器。这是一个使用相对频繁的特殊的通用寄存器,有重复累加数据的功能。

③程序计数器。存放将要执行的指令的地址。

④指令寄存器。存放根据 PC 的内容从存储器中取出的指令。

在微型计算机中,CPU 一般集成在一片被称为微处理器(Micro Processing Unit,MPU)的大规模集成电路芯片上。(2)存储器(Memory)

是有记忆能力的部件,用来存储程序和数据。存储器可分为两大类:内存储器和外存储器。内存储器(简称内存)和CPU直接相连,存放当前要运行的程序和数据,故也称主存储器(简称主存)。它的特点是存取速度快,可与CPU处理速度相匹配,但价格较贵,能存储的信息量较少。外存储器(简称外存)又称辅助存储器,主要用于保存暂时不用但又需长期保留的程序或数据。存放在外存的程序必须调入内存才能运行。外存的存取速度相对来说较慢,但外存价格比较便宜,可保存的信息量大。

CPU和内存储器合起来被称为计算机的主机。外存通过专门的输入/输出接口与主机相连。外存与其他的输入/输出设备统称外部设备。(3)输入/输出设备(Input/outputDevice)

输入设备是向计算机输入信息的装置,用于向计算机输入原始数据和处理数据的程序。常用的输入设备有键盘、鼠标器、扫描仪、磁盘驱动器、模数转换器(A/D)、数字化仪、条形码读入器等。输出设备主要用于将计算机处理过的信息保存起来,或以人们能接受的数字、文字、符号、图形和图像等形式显示或打印出来。常用的输出设备有显示器、打印机、绘图仪、磁盘驱动器、数模转换器(D/A)等。

4.计算机软件系统

软件系统包括系统软件和应用软件。系统软件面向机器,实现计算机硬件系统的管理和控制,同时为上层应用软件提供开发接口,为使用者提供人机接口。包括操作系统、程序设计语言、语言处理程序、数据库管理系统、网络软件、系统服务程序等。

应用软件以系统软件为基础,面向特定的应用领域,是为解决特定领域问题而用计算机语言编写的。应用软件是用户为了解决某些特定具体问题而开发研制或外购得到的各种程序,它往往涉及应用领域的知识,并在系统软件的支持下运行。例如,字处理、电子表格、绘图、课件制作、网络通信(如Word、WPS、Excel、PowerPoint、E-mail等),以及用户程序(如工资管理程序、财务管理程序等)。

5.计算机系统的主要技术指标

①字长。是计算机信息处理中,一次存取、传送或加工的数据长度。字长不仅标志着计算精度,也反映了计算机处理信息的能力。一般情况下,字长越长,计算精度越高,处理能力也越强。

②存储器容量。是指存储的二进制信息的总量,它反映了计算机处理时容纳数据量的能力。字节是计算机中数据处理和存储容量的基本单位,一个字节(Byte,简称B)由8位二进制码(bit)组成,所以1B=8bit,更大的单位是千字节、兆字节等,具体如下。10

KB(Kilobyte,即千字节),1KB=2B=1024B。10

MB(Megabyte,即兆字节),1MB=2KB=1024KB。10

GB(Gigabyte),1GB=2MB=1024MB。10

TB(Terabyte),1TB=2GB=1024GB。

主存容量越大,计算机处理时与外存储器交换数据的次数越少,处理速度也就越快。当前市场上的微机主存容量一般在1GB以上;辅存容量一般在100GB以上。

③运算速度。取决于指令的执行时间。计算机执行不同的操作所需要的时间可能不同,因而有不同的计算方法来表示运算速度。现在多采用两种计算方法:一种是具体指明各种运算需多少时间,另一种是给出每秒所能执行的指令(一般指加、减运算)的百万条数,简称 MIPS。后一种方法是最常用的计算方法。

④时钟周期(频率)。指 CPU 在单位时间(s)内发出的脉冲数。CPU 中每条指令的执行是通过若干步基本的硬件动作即微操作来完成的,这些微操作按时钟周期的节拍来动作。一般来说,时钟频率越高(周期越短),计算机的运算速度就越快。时钟频率以兆赫(MHz)为单位。

⑤数据输入/输出最高速率。主机与外部设备之间交换数据的速率同样影响计算机系统的工作速度。由于各种外部设备本身工作差异很大,故常用主机所能支持的数据输入/输出最高速率来表示。

⑥性能价格比。选购计算机时,不能片面追求高性能,而是要根据实际应用情况,选用那些既能满足需要,而且性能又好、价格低廉的计算机。也就是说,只有性能价格比高的机器才具有市场竞争力。1.2计算机中的信息

信息是描述客观事物运动状态及运动方式的数据,是以一定目的组织起来的,具有一定结构的数据集合。数据则是一组表示数量、行为和目标的非随机的可鉴别的符号。数据和信息有着密切关系,信息来源于数据。1.2.1 数据与信息

1.数据

数据是一组表示数量、行为和目标的非随机的可鉴别的符号,是现实世界存在的实体或事物的属性值。数据一般是未被加工、处理的,往往被称为原始数据。数据可以包括数值、字符、符号、表格、声音、图像和图形等。从数据的产生和采集来看,数据具有离散性、变化性和规律性的特点。

2.信息

信息是描述事物运动状态及运动方式的数据,它无处不在。信息以一定的方式和目的存在,是具有一定结构的数据集合。科学上所说的信息是从原始数据中提炼出来的。

数据和信息有着密切的关系,数据是原材料,信息是产品,只有使用了正确的、可靠的数据才能提炼出有用的信息。1.2.2 信息的表示形式

1.信息的表示形式

计算机具有表现、处理、存储各种媒体信息的能力,多媒体计算机应用了计算机技术可以对文字、图像、图形、声音等信息以数字化的方式进行综合处理。

2.计算机中的数制与编码

数制也称计数制,是指用一组固定的符号和统一的规则来表示数值的方法。编码是采用少量的基本符号,选用一定的组合原则,以表示大量复杂多样的信息的技术。计算机处理的任何信息必须转换成二进制形式数据后才能由计算机进行处理、存储和传输。(1)数制的概念

对于不同的数制,它们的共同特点如下。

一种数制都有固定的符号集。如十进制数制,其符号有10个:0,1,2,…,9;二进制数制,其符号有两个:0和1。

数制都使用位置表示法,即处于不同位置的数符所代表的值不同,与它所在位置的权值有关。例如,十进制数5555.555可表示为3210–1–2–3

5555.555=5×10+5×10+5×10+5×10+5×10+5×10+5×10

可以看出,各种进位记数制中的权的值恰好是基数的某次幂。因此,对任何一种进位记数制表示的数都可以写出按其权展开的多项式之和,任意一个m位整数,k位小数的r进制数N可表示为i

式中的D为该数制采用的基本数符,r是权,r是基数,不同的基i数表示不同的进制数。(2)常用的几种数制

人们常用的是十进制数,而计算机一般只能处理二进制,编码中也采用八进制或十六进制数。表1-1给出了几种常用的进位数制。表1-1 几种常用的数制的表示

注:有关几种数制之间的转换与运算详见第二章2.2小节1.3计算科学基础1.3.1 什么是计算科学

一般说来,计算科学是描述和变换信息的算法过程,包括其理论分析、设计,效率分析、实现和应用系统的研究。综观计算科学的基本问题就是:什么能(有效地)自动进行,什么不能(有效地)自动进行。

计算作为数学的研究对象已有几千年了。计算本身不等于数学,但数学确实是起源于对计算的研究。计算的渊源可以深入扩展到数学和工程,即数学为计算提供理论、方法和技术,而工程为实际计算和应用提供可以自动计算的设备,并为更有效地完成计算和应用任务提供了工程技术和方法。

长期以来,国内外计算机科学界一直对计算机科学与技术究竟属于科学还是属于工程的范畴这一问题存在着争议。这是一个困扰国内外计算机科学界很久且争论不休的问题。由美国计算机协会(ACM)和国际电气和电子工程师协会/计算机学会(IEEE/CS)联合小组的二十几名专家从1985年起用了五年的时间进行了深入的调查和分析,他们的结论是:计算机科学和计算机工程之间在本质上没有区别,两者是一回事。联合小组的专家之所以得出这一结论,是由于计算学科的内在原因在于其与许多别的学科不同,计算科学所研究的全部问题的核心恰是能行问题,能行问题贯穿在整个学科(包括硬件和软件在内的理论、方法、技术的研究以及应用的各个方向的研究与开发)之中。而且,学科的科学、技术、工程的方法论的主要理论基础——以离散数学为代表的构造性数学与能行性形成了天然的一致。由于这一原因,代表计算机科学的各分支学科的理论、技术理论(含方法)和代表计算机工程的各分支学科的工程(含开发方法)和工程技术(含技艺和技巧)常常既有理论特征,又有技术特征,甚至还具有工程特征,三者相互之间的界限往往非常模糊。但从本质上看,它们都是从不同的角度和层面对各种问题的能行性及其求解方法和过程的描述,是通过对各种反映其能行性的内在规律的问题的描述折射出求解方法和求解过程的描述。在计算机界统一了认识之后,近年来,国外使用计算科学涵盖并称为计算机科学、计算机技术和计算机工程。

在计算科学发展的历程中,随着学科的兴起,陆续产生了一些学术团体。国际知名的计算科学学术团体主要有美国计算机器协会(ACM),国际电气、电子、工程师学会计算机学会(IEEE/CS),国际信息处理联合会(IFIP),美国人工智能协会(AAAI),以及由一些国家人工智能学会和协会组织的国际人工智能联合会议(ICAI)等。在中国计算机科学界中,中国计算机学会是目前最有影响的全国性一级学会。1.3.2 计算机与计算科学

当第一台电子数字计算机诞生后,人们就想把各种各样的事情都让计算机来完成,这样就使计算机的应用日益扩展。计算机应用是一个范畴很大的应用领域。广义地说,凡是与计算机使用相关联的领域都可纳入计算机应用的范畴。不过,任何学科都有其基本的研究范畴和支持整个学科赖以发展的核心内容,计算科学也一样。支持计算科学向各个学科渗透、应用和发展的正是一些最基本的共性理论、方法和技术。对许多领域的计算机具体应用所使用的理论和技术做深入的分析,其结果反复地证明了这一点。也正是从这一认识开始,在计算科学界,人们开始将计算机在各行各业的具体应用与研究计算机应用与具体领域的共性理论、方法和技术的研究区分开来。前者叫计算机具体应用,它们应该划入具体应用的学科,后者称为计算机应用或计算机基本应用技术,属于计算科学范畴。1.3.3 计算科学的学科体系

CC2001(关于计算机科学的教学大纲)将计算学科的主要内容分为14个主要领域。

1.离散结构

主要内容包括:集合论、数理逻辑、近似代数、图论和组合数学等。

该领域与计算学科其他主领域有着密切的联系,CC2001 为了强调它的重要性,特意将它列在计算学科的第一个主要领域。该主领域以抽象和理论两个学科形态出现在计算学科中,它为计算学科各分支领域解决其基本问题提供了强有力的数学工具。

离散结构在计算学科的广泛应用不仅解决了计算学科的问题,而且它反映和融入了现代数学研究的主流。

2.程序设计基础

主要内容包括:程序设计结构、算法、问题求解和数据结构等。

基本问题主要包括:对给定的问题,如何进行有效的描述并给出适当的算法,如何根据给定的问题正确地选择数据结构,并进行程序的设计、编码、测试和调试。

算法就是从给定的问题出发,通过研究该问题的已知条件之间的内在联系或规律,为算法的设计提供理论方法。

数据结构主要研究数据在计算机中的表示和存储的方法、抽象的逻辑结构及在其上定义的各种基本操作。数据的逻辑结构常常采用数学描述的抽象符号和有关的理论。如使用队列、栈、数组、树、图等结构和理论来表示数据在存储时的逻辑结构,并同时研究这些结构上定义的各种操作。

3.算法与复杂性

主要内容包括:算法的复杂度分析、典型的算法策略、分布式算法、并行算法、可计算理论、P类和NP类问题、自动机理论、密码算法以及几何算法等。

基本问题主要包括:对于给定的问题类,最好的算法是什么,要求的存储空间和计算时间有多少,空间和时间如何折衷,访问数据的最好方法是什么,算法最好和最坏的情况是什么,算法的平均性能如何,算法的通用性如何。

算法理论主要研究在各种抽象的计算模型上的算法的设计方法和算法复杂性分析。可计算理论主要研究抽象的计算模型及其性质、可计算函数,以及两者之间的关系。计算复杂性理论除了包含复杂性的内容之外,还包括研究基于抽象的公理基础之上的可计算函数的复杂性。

形式语言理论是指用数学的方法研究语言的语法,研究语言的构造性结构的学问。自动机理论主要研究各种能自动控制处理符号的数学机器,即自动机。

4.体系结构

主要内容包括:数字逻辑、数据的机器表示、汇编级机器组织、存储技术、接口和通信、多道处理和预备体系结构、性能优化、网络和分布式系统的体系结构等。

基本问题主要包括:实现处理器、内存和机内通信的方法是什么;如何设计和控制大型计算系统,而且使其令人相信,尽管存在错误和失败,但它仍然是按照我们的意图工作的;哪种类型的体系结构能够有效地包含许多在一个计算中能够并行工作的处理元素;如何度量性能。

由于硬件设计中可以预见的极限,使计算机设计的研究更趋向于向分布式网络计算机系统和并行计算机系统发展。要开发分布式计算机系统和并行式计算机系统,计算机基础研究的重心便从计算机的设计转向到了体系结构的研究。

5.操作系统

主要内容包括:操作系统的逻辑结构、并发处理、资源分配与调度、存储管理、设备管理、文件系统等。

基本问题主要包括:在计算机系统操作的每一个级别上,可见的对象和允许进行的操作是什么;对于每一类资源,能够对其进行有效利用的最小操作集是什么;如何组织接口才能使得用户只需与抽象的资源而非硬件的物理细节打交道;作业调度、内存管理、通信、软件资源访问、并发任务间的通信以及可靠性与安全的控制策略是什么;通过少数构造规则的重复使用进行系统功能扩展的原则是什么。

6.网络计算

主要内容包括:计算机网络的体系结构、网络安全、网络管理、无线和移动计算以及多媒体数据技术等。

基本问题主要包括:网络中的数据如何进行交换;网络协议如何验证;如何保证网络的安全;分布式计算的性能如何评价;分布式计算如何组织才能够使通过通信网络连接在一起的自主计算机参加到一项计算中,而网络协议、主机地址、带宽和资源则具有透明性。

7.程序设计语言

主要内容包括:程序设计模式、虚拟机、类型系统、执行控制模型、语言翻译系统、程序设计语言的语义学、基于语言的并行构件等。

基本问题主要包括:语言(数据类型、操作、控制结构、引进新类型和操作的机制)表示的虚拟机的可能组织结构是什么,语言如何定义机器,机器如何定义语言,什么样的表示法(语义)可以有效地用于描述计算机应该做什么。

8.人—机交互

主要内容包括:以人为中心的软件开发和评价、图形用户接口设计、多媒体系统的人机接口等。

基本问题主要包括:表示物体和自动产生供阅览的照片的有效方法是什么,接受输入和给出输出的有效方法是什么,怎样才能减小产生误解和由此产生的人为错误的风险,图表和其他工具怎样才能通过存储在数据集中的信息去理解物理现象。

9.图形学和可视化计算

主要内容包括:计算机图形学、可视化、虚拟现实、计算机视觉等。

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载