计算机应用基础(Windows 7+Office 2010)(txt+pdf+epub+mobi电子书下载)


发布时间:2020-05-30 01:18:30

点击下载

作者:赵帮华、汤东 主编 蔡小莉、刘熙 副主编

出版社:化学工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

计算机应用基础(Windows 7+Office 2010)

计算机应用基础(Windows 7+Office 2010)试读:

前言

随着科学技术的飞速发展,计算机技术已成为当今各行各业工作岗位必备的基本技能之一,对于新时代的大学生而言,掌握计算机应用能力与提高信息素养,则显得十分重要。本教材为满足不同层次职业院校的教学要求,实现培养高素质技术技能型人才的目标,结合《全国计算机等级考试一级MS Office考试大纲(2018年版)》编写而成,操作系统和软件环境要求为Windows 7+ Microsoft Office 2010。

本教材突出以能力培养为核心,紧密围绕计算机等级考试相关考点,设计教学内容,选取教学案例,着重培养学生的实践能力。课程内容层次分明,由浅入深,图文并茂,十分便于教学实施,以及读者自主学习。

本教材主要内容包括计算机基础知识、计算机网络基础及应用、Windows 7操作系统及其操作、Word 2010的使用、Excel 2010的使用和PowerPoint 2010的使用等。通过本教材的学习,使读者具备计算机应用能力和解决相关问题的能力。

本教材由重庆化工职业学院赵帮华、汤东担任主编,重庆化工职业学院蔡小莉、刘熙担任副主编。具体编写分工如下:蔡小莉(第1、第2章)、汤东(第3章)、刘熙(第4章)、赵帮华(第5章)、汤东(第6章、附录)。

本教材在编写过程中参考了相关教材和资料,在此向这些作者表示衷心的感谢!

由于编者水平有限,难免有不足和疏漏之处,敬请各位同仁和广大读者给予批评指正。编 者   2018年11月  第1章 计算机基础知识

学习目的与要求 了解计算机的发展历史 掌握计算机的特点、分类以及应用领域 掌握计算机中信息的表示与存储方法 掌握计算机系统的组成 了解多媒体计算机 掌握计算机病毒及其防治 掌握信息技术和信息安全知识1.1 计算机概述

计算机(Computer)俗称电脑,是20世纪最先进的科学技术发明之一,计算机技术是当代众多新兴技术中发展最快、应用最广的一项技术,对人类的生产活动和社会活动产生了极其重要的影响。它的应用从最初的军事计算扩展到社会的各个方面,遍及学校、机关、企事业单位等,进入寻常百姓家,成为人们生产生活必不可少的工具。本节主要介绍计算机的发展历程、发展趋势、特点、分类、应用领域等。1.1.1 计算机的发展历程

计算机最早的诞生源于解决大量的科学计算问题。计算工具的演化经历了由简单到复杂、从低级到高级的不同阶段,例如从“结绳记事”中的绳结到算盘、计算尺、机械计算机、电子计算器等。现代电子计算机的研制也经历了从简单到复杂,从低级到高级的过程。

1889年,美国科学家赫尔曼·何乐礼研制出以电力为基础的电动制表机,用以储存计算资料。1930年,美国科学家范内瓦·布什造出世界上首台模拟电子计算机。

1946年,由美国军方定制的世界上第一台电子计算机“电子数字积分计算机”(Electronic Numerical And Calculator,简称ENIAC)在美国宾夕法尼亚大学问世。如图1-1所示。ENIAC(中文名:埃尼阿克)是为了满足武器试验场计算弹道需要而研制成的。这台计算器2使用了近18000支电子管,占地170m,重达28t,功耗为170kW,其运算速度可实现每秒5000次的加法运算,比当时最快的计算工具快300倍。ENIAC的问世具有划时代的意义,表明电子计算机时代的到来。图1-1 世界上第一台电子数字积分计算机

自从第一台计算机问世以来,计算机技术以前所未有的速度迅猛发展。通常根据计算机所使用的“电子元件”,将计算机的发展划分为四个阶段,也称为四个时代,即电子管时代、晶体管时代、中小规模集成电路时代、大规模和超大规模集成电路时代。第一代:电子管计算机(1946~1957年)

主要元件采用的是电子管,主存储器采用汞延迟线、阴极射线示波管静电存储器、磁鼓、磁芯;外存储器采用的是磁带;运行的软件多采用的是机器语言、汇编语言;应用领域以科学计算为主。特点是体积大、功耗高、可靠性差,速度慢、价格昂贵;第一代计算机为以后计算机的发展奠定了基础。第二代:晶体管计算机(1958~1964年)

主要元件采用的是晶体管,主存储器采用磁芯,外存储器已开始使用更先进的磁盘;出现了各种各样的高级语言以及编译程序;应用领域以科学计算和事务处理为主,并开始进入工业控制领域;特点是体积缩小、能耗降低、可靠性提高、运算速度提高、性能比第1代计算机有很大的提高。第三代:中小规模集成电路计算机(1965~1970年)

主要元件采用中、小规模集成电路,主存储器仍采用磁芯;出现了分时操作系统以及结构化、规模化程序设计方法;特点是速度更快,而且可靠性有了显著提高,价格进一步下降,产品走向了通用化、系列化和标准化等;应用领域开始进入文字和图形图像处理领域。第四代:大规模和超大规模集成电路计算机(1971年至今)

主要元件采用大规模和超大规模集成电路;出现了数据库管理系统、网络管理系统和面向对象语言等;运算速度可达百万至数亿亿次/秒;应用领域从科学计算、事务管理、过程控制逐步应用于各个领域。

计算机的发展阶段及其特征如表1-1所示。表1-1 计算机的发展阶段及其特征

1971年世界上第一台微处理器在美国硅谷诞生,开创了微型计算机的新时代。另一方面,利用大规模、超大规模集成电路制造的各种逻辑芯片,已经制成了体积并不很大,但运算速度可达每秒一亿甚至几十亿次的巨型计算机。1983年“银河-Ⅰ”亿次计算机研制成功,如图1-2所示,生产安装3台,是我国第一台自主研制的亿次计算机系统,使我国成为继美、日之后世界上第三个能研制巨型机的国家。继“银河-Ⅰ”这一巨型机以后,我国又于1993年研制成功运算速度更快的“银河-Ⅱ”巨型计算机。图1-2 “银河-Ⅰ”计算机1.1.2 计算机的发展趋势(1)计算机的发展方向

随着科技的进步,各种计算机技术、网络技术的飞速发展,计算机的发展已经进入了一个快速而又崭新的时代。计算机已经从功能单一、体积较大发展到了功能复杂、体积微小、资源网络化等并朝着不同的方向延伸,当前计算机技术正向着微型化、网络化、智能化和巨型化的方向发展。

① 微型化 随着微处理器的出现,计算机中开始使用微型处理器,使计算机体积缩小了,成本降低了。20世纪70年来,从台式电脑到笔记本电脑再到掌上电脑、平板电脑,计算机的体积逐步微型化,为人们提供便捷的服务。计算机理论和技术上的不断完善促使微型计算机很快渗透到全社会的各个行业和部门中,并成为人们生活和学习的必需品。未来计算机仍会不断趋于微型化,体积将越来越小。

② 网络化 20世纪90年代以来,随着Internet的飞速发展,计算机网络已广泛应用于各个领域。互联网将世界各地的计算机连接在一起,从此进入了互联网时代,人们通过互联网共享资源,交换信息,协同工作,极大地提高了使用计算机的便捷性,计算机网络化彻底改变了人类世界,未来计算机将会进一步向网络化方面发展。

③ 智能化 现代计算机具有强大的功能和运行速度,但与人脑相比,其逻辑能力和自动化程度仍有待提高。人类不断在探索如何让计算机能够更好地反映人类思维,可以通过思考与人类沟通交流,抛弃以往的依靠通过编码程序来运行计算机的方法,直接对计算机发出指令。计算机人工智能化是未来发展的必然趋势。

④ 巨型化 巨型化是指为了适应尖端科学技术的需要,研制具有极快的运算速度,超大容量的存储空间,功能更加强大和完善的超级计算机。此类计算机主要应用于航空航天、生物工程、军事、人工智能等领域。计算机朝着巨型化方向发展也预示着计算机的功能更加的多元化。(2)未来的新一代计算机技术

从计算机的产生及发展可以看出,目前计算机技术的发展都是以电子技术的发展为基础的,集成电路芯片是计算机的核心部件。然而,以硅为基础的芯片制造技术的发展不是无限的。利用纳米技术、光技术、生物技术和量子技术研究新一代计算机成为未来计算机研究的焦点。

① 分子计算机 分子计算机体积小、耗电少、运算快、存储量−12大。分子计算机完成一项运算,所需的时间仅为10×10s,比人的3思维速度快100万倍;分子计算机具有惊人的存储能力,1m的DNA20溶液可存储10个二进制数据;分子计算机消耗的能量也只有电子计算机的十亿分之一。

② 量子计算机 量子计算机是利用原子所具有的量子特性进行信息处理的一种全新概念的计算机。量子计算机处理数据时不是分步进行而是同时完成。只要40个原子一起计算,就相当于今天一台超级计算机的性能。

③ 光子计算机 光子计算机是一种由光信号进行数字运算、逻辑操作、信息存储和处理的新型计算机。如图1-3所示。由于光子比电子速度快,它的存储量是现代计算机的几万倍,还可以对语言、图形和手势进行识别与合成。随着现代光学与计算机技术、微电子技术相结合,许多国家都投入巨资进行光子计算机的研究,在不久的将来,光子计算机将成为人类普遍的工具。1990年初,美国贝尔实验室研制成世界上第一台光子计算机。图1-3 光子计算机

④ 纳米计算机 纳米计算机是用纳米技术研发的新型高性能计算机。应用纳米技术研制的计算机内存芯片,其体积只有数百个原子大小,相当于人的头发丝直径的千分之一。纳米计算机不仅几乎不需要耗费任何能源,而且其性能要比今天的计算机强大许多倍。

⑤ 生物计算机 生物计算机是一种有知识、会学习、能推理的计算机,具有能理解自然语言、声音、文字和图像的能力,并且具有说话的能力,使人机能够用自然语言直接对话,它可以利用已有的和不断学习到的知识,进行思维、联想、推理,并得出结论。20世纪80年代以来,生物工程学家对人脑、神经元和感受器的研究倾注了很大精力,以期研制出可以模拟人脑思维、低耗、高效的第六代计算机—生物计算机。1.1.3 计算机的特点及其分类(1)计算机的特点

计算机可以进行数值计算,又可以进行逻辑计算,还具有存储记忆功能,是能够按照程序运行,自动、高速处理海量数据的现代化智能电子设备。计算机不同于其它一般的计算工具,有其自身的特点,归纳起来主要表现在以下几个方面。

① 运算速度快 计算机的运算速度是指单位时间内所能执行指令的条数,一般用每秒钟能执行多少条指令来描述,其常用单位是MIPS(Million Instruction Per Second),即百万条指令每秒。当今计168算机系统的运算速度已达到每秒10次,微机也可达每秒10次以上,使大量复杂的科学计算问题得以解决。例如:大型桥梁工程的计算、气象问题的计算人工完成需要几年甚至几十年,而用计算机只需几分钟就可完成。

② 计算精度高 目前计算机的计算精度已达到小数点后上亿位,是任何其它计算工具所望尘莫及的。理论上通过一定的技术手段,计算机可以实现任何精度要求的计算,计算机的计算精度是不受限制的。

③ 存储容量大 计算机的存储能力是计算机区别于其它计算工具的重要特征。计算机内部的存储器具有记忆特性,可以存储大量数字、文字、图像、视频、声音等各类信息。目前计算机的存储容量越来越大,已高达千兆数量级。

④ 逻辑判断能力强 计算机不仅能解决数值计算问题,还能解决非数值计算问题。在相应程序的控制下,计算机能对信息进行比较和判断,分析命题是否成立,并可根据命题成立与否做出相应的处理。人是有思维能力的,思维能力本质上是一种逻辑判断能力,人类也在积极探索利用计算机的逻辑判断能力,让计算机也学会“思考”。

⑤ 自动化程度高 计算机的存储记忆能力和逻辑判断能力保证了计算机信息处理的高度自动化。人们可以将预先编好的程序输入计算机,在程序控制下计算机可以连续、自动地一步一步完成工作,不需要人的干预。(2)计算机的分类

计算机及相关技术的迅速发展带动计算机类型也不断分化,形成了各种不同种类的计算机,可以按照不同的标准对其进行分类。

① 按照信息的表示方式分类 根据信息在计算机中的表示方式可分为数字计算机和模拟计算机。数字计算机是通过电信号的有无来表示数,并利用算术和逻辑运算法则进行计算的。它具有运算速度快、精度高、灵活性大和便于存储等优点,因此适合于科学计算、信息处理、实时控制和人工智能等应用。我们通常所用的计算机,一般都是指的数字计算机。

模拟计算机是通过电压的大小来表示数,即通过电的物理变化过程来进行数值计算的。其优点是速度快,在模拟计算和控制系统中应用较多,但通用性不强,信息不易存储,且计算机的精度受到了设备的限制。因此,不如数字计算机的应用普遍。

② 按照用途分类 按照计算机的用途分为专用计算机和通用计算机。专用计算机具有单一性、使用范围小甚至专机专用的特点,它是为了解决一些专门的问题而设计制造的。一般来说,模拟计算机通常都是专用计算机。通用计算机具有用途多、配置全、通用性强等特点,我们通常所说的以及本书所介绍的都是指通用计算机。

③ 按照性能分类 在对计算机进行分类时较为普遍的是按照计算机的运算速度、字长、存储容量、处理能力等综合性能指标来分,可分为巨型机、大型机、中型机、小型机、微型机和工作站。

巨型机运算速度快,存储量大,结构复杂,价格昂贵,主要用于尖端科学研究领域。大型机是对一类计算机的习惯称呼,本身并无十分准确的技术定义。其规模仅次于巨型机,通常人们称大型机为“企业级”计算机。中型机的标准是计算速度每秒10万至100万次,字长32位、主存储器容量为1兆以下的计算机,主要用于中小型局部计算机通信网中的管理。小型机机器规模小、结构简单、设计试制周期短,便于及时采用先进工艺。微型机(又称为个人计算机)目前发展最快,应用范围最广。工作站是一种高档的微机系统。它具有较高的运算速度,既具有大、中、小型机的多任务、多用户能力,又兼具微型机的操作便利和良好的人机界面。它的应用领域也已从最初的计算机辅助设计扩展到商业、金融、办公领域,并频频充当网络服务器的角色。1.1.4 计算机的应用领域(1)计算机的主要应用领域

计算机问世之初主要用于科学计算,因而得名“计算机”。而今计算机的应用领域已渗透到社会的各行各业,正在改变着人们传统的工作、学习和生活方式,推动着社会的发展。归纳起来计算机主要应用于以下几个方面。

① 科学计算 也称数值计算,是指利用计算机来完成科学研究和工程技术中提出的数学问题的计算。在现代科学技术工作中,存在大量复杂的科学计算问题,利用计算机运算速度快、计算精度高、具有存储记忆功能等特点,可以实现人工无法解决的各种科学计算问题,达到事半功倍的效果,大大缩短工作周期,提高工作效率,节约人力、物力、财力。

② 数据处理 也称信息管理或事物处理,是指对各种数据进行收集、存储、整理、分类、统计、加工、传播等一系列活动的统称。据统计,80%以上的计算机主要用于数据处理。目前,数据处理已广泛地应用于办公自动化、企事业管理、电影电视动画设计、娱乐、游戏、会计电算化等各行各业。

③ 计算机辅助系统 计算机辅助系统是利用计算机辅助完成不同类任务的系统的总称。计算机辅助系统常用的有计算机辅助设计(CAD)、计算机辅助教学(CAI)、计算机辅助制造(CAM)、计算机辅助测试(CAT)等。

a.计算机辅助设计(Computer Aided Design,简称CAD) 计算机辅助设计是利用计算机系统辅助设计人员进行工程或产品设计,以缩短设计周期,提高设计质量,达到最佳设计效果的一种技术。它已广泛地应用于机械、电子、建筑和轻工等领域。例如,在机械设计过程中,可以利用CAD技术绘制机械零部件图纸,提高设计速度和设计质量。

b.计算机辅助教学(Computer Aided Instruction,简称CAI) 计算机辅助教学是利用计算机系统使用课件来进行教学。课件可以用制作工具或高级语言来开发制作,它能引导学生循环渐进地学习,使学生轻松自如地从课件中学到所需要的知识。CAI的主要特色是交互教育、个别指导和因材施教。

c.计算机辅助制造(Computer Aided Manufacturing,简称CAM) 计算机辅助制造是利用计算机系统进行生产设备的管理、控制和操作的过程。例如,在产品的制造过程中,用计算机控制机器的运行,处理生产过程中所需的数据,控制和处理材料的流动以及对产品进行检测等。使用CAM技术可以提高产品质量,降低成本,缩短生产周期,提高生产率和改善劳动条件。

d.计算机辅助测试(Computer Aided Test,简称CAT) 计算机辅助测试是指利用计算机协助进行测试。可应用于对教学效果和学习能力的测试,也可进行产品测试,软件测试等。

④ 过程控制 采用计算机进行过程控制,不仅可以大大提高控制的自动化水平,而且可以提高控制的及时性和准确性,从而改善劳动条件、提高产品质量及合格率。因此,计算机过程控制已在机械、冶金、石油、化工、纺织、水电、航天等行业得到广泛的应用。这不只是控制手段的改变,而且拥有众多优点。第一,能够代替人在危险、有害的环境中作业。第二,能在保证同样质量的前提下连续作业,不受疲劳、情感等因素的影响。第三,能够完成人所不能完成的有高精度、高速度、时间性、空间性等要求的操作。

⑤ 人工智能 人工智能是计算机模拟人类的智能活动,诸如感知、判断、理解、学习、问题求解和图像识别等。人工智能是计算机科学发展以来一直处于前沿的研究领域,现在人工智能的研究已取得不少成果,有些已开始走向实用阶段。例如,能模拟高水平医学专家进行疾病诊疗的专家系统,具有一定思维能力的智能机器人等。

⑥ 计算机网络 计算机技术与现代通信技术的结合构成了计算机网络。计算机网络的建立,不仅解决了一个单位、一个地区、一个国家中计算机与计算机之间的通信,各种软、硬件资源的共享,也大大促进了国际间的文字、图像、视频和声音等各类数据的传输与处理。通过网络,人们坐在家里通过计算机便可预定车票、可以购物,从而改变了传统服务业、商业单一的经营方式。通过网络,人们还可以与远在异国他乡的亲人、朋友实时地传递信息,大大地缩短了人们之间的距离。(2)计算机新技术应用

随着计算机技术的发展,计算机的功能已远远超过最初作为“计算的机器”这样狭义的概念。近几年由于网络技术的进步,计算机领域出现的新技术也被越来越多地广泛应用于更多新兴领域。

① 人工智能 人工智能是研究用计算机来模拟人的思维过程和智力行为的学科,制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能就其本质而言,是对人的思维的信息过程的模拟。

进入21世纪,人工智能在计算机领域内,得到了愈加广泛的重视,以计算机为基础的人工智能技术取得了一些进展,典型的例子就是人机对弈。2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜。

② 云计算 云计算是基于互联网的相关服务的增加、使用和交付模式,通常涉及通过互联网来提供动态易扩展且经常是虚拟化的资源。云是网络、互联网的一种比喻说法。互联网上的云计算服务特征和自然界的云、水循环具有一定的相似性,因此,云是一个相当贴切的比喻。

近几年,云计算作为一个新的技术趋势已经得到了快速地发展和广泛应用,例如阿里云分担12306流量压力、浙江交通厅用阿里云大数据预测1小时后堵车、云上贵州公安交警云等。

③ 大数据 大数据指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合。大数据技术的战略意义不在于掌握数据信息的量有多庞大,而在于对这些含有意义的数据进行专业化处理,即如何提高对数据的加工能力,使数据经过加工后实现数据的增值。1.2 计算机中信息的表示

计算机要处理的内容是多种多样的,如数字、文字、符号、图形、图像和语言等。但是计算机无法直接“理解”这些内容,所以在计算机内部专门有一种表示信息的形式。1.2.1 信息和数据(1)信息和数据的概念

信息是指现实世界事物的存在方式或运动状态的反应。信息具有可感知性、可存储性、可加工性、可传递性和可再生性等自认属性。

信息处理是指信息的收集、加工、存储、传递及使用过程。

数据是对客观事物的符号表示。数值、文字、语言、图形、图像等都是不同形式的数据。

信息和数据这两个概念既有联系又有区别。数据是反映客观事物属性的记录,是信息的具体表现形式或载体;信息是数据的语义解释,是数据的内涵。数据经过加工处理之后,就成为信息;而信息需要经过数字化转变成数据才能存储和传输。数据是数据采集时提供的,信息是从采集的数据中获取的有用信息。(2)计算机中的信息

计算机内部均采用二进制来表示各种信息,但计算机与外部交互仍采用人们熟悉和便于阅读的形式,如十进制数、文字、声音、图形图像等,其间的转换则由计算机系统的硬件和软件来实现。那么在计算机内部为什么要用二进制来表示各种信息呢?主要有以下几个方面的原因。一是电路简单,易于表示。计算机是由逻辑电路组成的,逻辑电路通常只有两个状态。例如开关的接通和断开,电压的高与低等。这两种状态正好用来表示二进制的两个数码0和1。若是采用十进制,则需要有十种状态来表示十个数码,实现起来比较困难。二是可靠性高。两种状态表示两个数码,数码在传输和处理中不容易出错,因而电路更加可靠。三是运算简单。二进制数的运算规则简单,无论是算术运算还是逻辑运算都容易进行。四是逻辑性强。计算机不仅能进行数值运算而且能进行逻辑运算。逻辑运算的基础是逻辑代数,二进制的两个数码1和0,恰好代表逻辑代数中的“真”和“假”。(3)计算机中的数据单位

计算机中数据最小的单位是位,存储容量的基本单位是字节,除此之外还有千字节、兆字节、吉字节等。

① 位(bit) 位是数据的最小单位,用来表示存放的一位二进制数,即0或1。在计算机中,采用多个数字(0和1的组合)来表示一个数时,其中的每一个数字称为1位。

② 字节(Byte) 字节是计算机表示和存储信息的最常用、最基本单位。1个字节由8位二进制数组成,即1Byte=8bit。

比字节表示的存储空间更大的有千字节、兆字节、吉字节等,不同数据单位之间的换算关系为:

字节B   1Byte=8bit10

千字节kB  1kB=1024B=2B

兆字节MB  1MB=1024kB=1024×1024B

吉字节GB  1GB=1024MB=1024×1024kB

太字节TB  1TB=1024GB=1024×1024MB

③ 字长 人们将计算机一次能够并行处理的二进制位称为该机器的字长。字长直接关系到计算机的精度、功能和速度,是计算机的一个重要指标,字长越长,处理能力就越强。计算机型号不同,其字长也不同,通常字长是字节的整数倍,如8位、16位、32位、64位等。1.2.2 进位计数制及其转换

在日常生活中,最常使用的是十进制数,而计算机内部在进行数据处理时,使用的是二进制数,由于二进制表示数时书写较长,有时为了理解和书写方便也用到八进制和十六进制,但它们最终都要转化成二进制数后才能在计算机内部进行加工和处理。(1)进位计数制

进位计数制是利用固定的数字符号和统一的规则来计数的方法。计算机中常见的有十进位计数制、二进位计数制、八进位计数制、十六进位计数制等。

一种进位计数制包含一组数码符号和三个基本因素。

数码:一组用来表示某种数制的符号。例如,十进制的数码是0、1、2、3、4、5、6、7、8、9;二进制的数码是0、1。

基数:某数制可以使用的数码个数。例如,十进制可以使用的数码有10个,基数为10;二进制可以用的数码只有0和1两个,基数为2。

数位:数码在一个数中所处的位置(小数点左侧的第一位为0开始)。

权:权是以基数的底,数位为指数的整数次幂,表示数码在不同位置上的数值。2

例如:十进制12670中,数码6的数位是2,权是10。

表1-2中十六进制的数码除了十进制的10个数字符号外,还使用了6个英文字母:A,B,C,D,E,F。它们分别等于十进制的10,11,12,13,14,15。表1-2 计算机中常用的几种进位计数制的表示

表1-3是十进制0~15与等值的二进制、八进制、十六进制的对照表。可以看出采用不同进制表示同一数时,基数越大,则使用的位数越少。比如十进制10,需要4位二进制来表示,只需要2位八进制、1位十六进制来表示。这也是为什么在程序书写中一般采用八进制或十六进制表示数据的原因。(2)常用进制之间的转换

① N进制转换为十进制 在十进制数中1234可以表示为以下多项式:3210(1234)=1×10+2×10+3×10+4×10103210

式中,10、10、10、10是各个数码的权,可以看出将各个位置上的数字乘上权值再求和就可以得到这个数。所以,将N进制数按权展开再求和就可以得到对应的进制数,这就是将N进制数转换为十进制数的方法。表1-3 不同进制数的对照表

例如:43210(10111) =1×2+0×2+1×2+1×2+1×22=16+0+4+2+1=(23)10210(217) =2×8+1×8+7×88=128+8+7=(143)1010(6C) =6×16+12×1616=96+12=(108)10

如果一个N进制中既有整数部分又有小数部分,仍然可按权展开求和将其转换成对应的十进制数。

例如:3210-1-2(1011.11) =1×2+0×2+1×2+1×2+1×2+1×22=8+2+1+0.5+0.25=(11.75)10

② 十进制数转换为N进制数 将十进制数转换为N进制数时由于整数部分和小数部分采用不同的方法,所以可以将整数和小数分开转换后再连接起来即可。

a.整数 将一个十进制整数转换为N进制整数可以采用“除基取余”法,即将十进制整数连续的除以N进制数的基数取余数,直到商为0为止,最先取得的余数放在最右边。【例1】将十进制整数125分别转换为二进制数和八进制数。(125)=(7D)1016(125)=(1111101)102

b.小数 将一个十进制小数数转换为N进制小数采用“乘基取整”法,即将十进制小数不断地乘以N进制数的基数取整数,直到小数部分为0或达到精度要求为止(存在小数部分永远不会达到0的情况),取得的整数从小数点之后自左往右排列,取有效精度,最先取得的整数放在最左边。【例2】将十进制小数0.625转换成二进制数。(0.625)=(0.101)102【例3】将十进制数147.16转换成八进制数,要求精确到小数点后4位。(147.16)=(223.1217)108

③ 二进制数与八进制数、十六进制数的相互转换 信息在计算机内部都用二进制数来表示,但二进制的位数比较长,比如一个十进制数 128,用等值的二进制数来表示就需要8位,书写和识别起来很不方便也不直观。而八进制和十六进制数比二进制数就要短得多,同1314时二进制、八进制和十六进制之间存在特殊的关系:8=2;16=2,即1位八进制数相当于3位二进制数,1位十六进制数相当于4位二进制数,因此它们之间转换也非常方便。在书写程序或数据时往往采用八进制数或十六进制数形式来表示等值的二进制数。

如表1-3所示根据二进制数和八进制数、十六进制数之间的关系,将二进制数转换为八进制数时,以小数点为起点向左右两边分组,每3位为一组,两头不足添0补齐3位(整数高位补0,小数低位补0对数的大小不会产生影响)。

例如:将二进制数(1011011.10111)转换成八进制数:2( 001 011 011 . 101 110)=(133.56)28

  1   3  3   5  6

将二进制数转换为十六进制数时,以小数点为起点向左右两边分组,每4位为一组,两头不足添0补齐4位。

例如:将二进制数(1011011.10111)转换成十六进制数。2(0101  1011 . 1011 1000)=(3B.B8)216

  3   B    B   8

反过来,将八进制数或十六进制数转换成二进制数,只要将1位八进制数或者十六进制数对应转换为三位或者4位二进制数即可。例如:(217.35)=(010 001 111 . 011 101)8=(10001111.011101)22

       2  1  7   3  5(46E.A8)=(0100 0110 1110.1010 1000)16=(10001101110.10101)22

        4   6   E  A   8

注意:整数部分的高位0和小数部分的低位0可以不写。1.2.3 计算机中非数值信息的表示

日常生活中需要计算机处理的信息是多种多样的,如文字、声音、图片、符号、图形等等,而计算机只能识别二进制数,为了让计算机能直接“读懂”这些信息,我们需要将这些非数值信息采用数字化编码的形式将其转换为计算机能直接识别的“0”和“1”。非数值信息非常多,我们重点了解两类非数值信息的编码方式,一类是西文字符,一类是中文汉字。(1)字符编码

目前采用的字符编码主要是ASCII码,又叫美国信息交换标准码(American National Standard Code for Information Interchange),是由美国国家标准学会制定的。它起始于上世纪50年代后期,在1967年定案。

ASCII码使用指定的7位或8位二进制数组合来表示128或256种可能的字符,其中7位ASCII码叫做标准ASCII码,8位ASCII码叫做扩展ASCII码。标准ASCII码用一个字节(8位)来表示一个字符,最高位7为0,剩下的 7位二进制数共有2=128个不同的编码,包括了0~9共10个数字、52个大小写英文字母、32个标点符号和运算符以及34个控制字符。常用字符的ASCII编码见表1-4。表1-4 标准ASCII码表

从ASCII码表可以看出,0~9,A~Z,a~z按照从小到大的顺序排列,且小写字母比它对应的大写字母的ASCII值大32。比如字符“a”的ASCII编码是1100001,对应的十进制数是97,则字符“b”的ASCII码值就是98,字符“A”的ASCII码就是65。(2)汉字编码

① 汉字编码字符集 ASCII码只对英文字母、数字、标点符号、控制字符等进行了编码,而计算机也需要处理、显示、存储汉字,因而对汉字字符也需要进行编码。为了满足国内在计算机中使用汉字的需要,中华人民共和国国家标准化管理委员会发布了一系列的汉字字符集国家标准编码,统称为GB码,或国标码。其中最有影响的是于1980年发布的《信息交换用汉字编码字符集 基本集》,标准号为GB 2312—80,因其使用非常普遍,也常被通称为国标码。

GB 2312是一个简体中文字符集,由6763个常用汉字和682个全角的非汉字字符组成。其中汉字根据使用的频率分为两级:一级汉字3755个,按汉语拼音字母的次序排列;二级汉字3008个,按偏旁部首排列。由于字符数量比较大,GB 2312采用了二维矩阵编码法对所有字符进行编码。首先构造一个94行94列的方阵,对每一行称为一个“区”,每一列称为一个“位”,然后将所有字符填写到方阵中。这样所有的字符在方阵中都有一个唯一的位置,这个位置可以用区号、位号合成表示,称为字符的区位码。如汉字“国”出现在第25区(行)的第90位(列)上,其区位码为2590。因为区位码同字符的位置是完全对应的,因此区位码同字符之间也是一一对应的。这样所有的字符都可通过其区位码转换为国标码。转换的方法是将汉字的区位码中的区号和位号分别转换成十六进制数,再分别加上20H,就得到了该汉字的国标码。如汉字“国”的区位码是2590D,则其国标码为397AH。

GB 2312字符在计算机中存储是以其区位码为基础的,其中汉字的区码和位码分别占一个存储单元,每个汉字占两个存储单元。实际存储时,将汉字的区位码转换成存储码进行存储。

在我国台湾、香港与澳门地区,使用的是繁体汉字,而1980年发布的GB 2312面向简体中文字符集,并不支持繁体汉字。为统一繁体字符集编码,1984年台湾五大厂商宏碁、神通、佳佳、零壹以及大众一同制定了一种繁体中文编码方案,因其来源被称为五大码,英文写作Big5,后来按英文翻译回汉字后,普遍被称为大五码。

② 汉字的几种编码 汉字从输入、存储处理到输出都进行了不同方式的编码,计算机对汉字的处理过程实际上就是汉字各种编码间的转换过程,这些编码主要包括汉字输入码、汉字内码、汉字字形码等。

a.汉字输入码 为通过键盘将汉字输入计算机而编制的各种代码叫做汉字输入码,也叫外码。目前汉字输入的编码研究非常多,已多达数百种,主要包括拼音编码和字型编码。常用的微软拼音、智能ABC、搜狗拼音等就是拼音编码,五笔字型输入法就是字型编码。

b.汉字内码 也叫机内码,汉字内码是在设备和信息处理系统内部存储、处理、传输汉字用的代码。一个汉字无论采用何种输入码,进入计算机后都会被转化为机内码才能进行传输、处理。目前的规则是将国标码的高位字节、低位字节各自加上128D或80H。例如,“国”字的国标码是397AH,每个字节加上80H,“国”字的内码为B9FAH。这样做的目的是使汉字内码区别于西文的ASCII,因为每个西文字母的ASCII的高位均为0,而汉字内码的每个字节的高位均为1。

c.汉字字形码 经过计算机处理后的汉字信息,如果要显示或者打印输出就需要将汉字内码转化为人们能识别的汉字,用于在显示屏或打印机输出的就是汉字字形码,也称为字模码。通常用点阵、矢量表示。

用点阵表示时,字形码指的就是这个汉字字形点阵的代码。根据输出汉字的要求不同,点阵的多少也不同。简易型汉字为16×16点阵、普通型汉字为24×24点阵、提高型汉字为32×32点阵、48×48点阵等。如果是24×24点阵,每行24个点就是24个二进制位,存储一行代码需要3个字节。那么,24行共占用3×24=72个字节。计算公式:每行点数×行数/8。依此,对于48×48的点阵,一个汉字字形需要占用的存储空间为48×48/8=288个字节。1.3 计算机系统的组成

想要更加全面地了解计算机,首先要知道计算机系统是怎么组成的。计算机是由硬件和软件两部分组成,硬件是计算机赖以工作的实体,是各种物理部件的有机结合,软件是控制计算机运行的灵魂,是由各种程序以及数据组成。计算机系统通过软件协调各硬件部件,并按照指定要求和顺序进行工作。1.3.1 计算机系统简介

一个完整的计算机系统由计算机硬件系统和计算机软件系统两部分组成,如图1-4所示。计算机硬件系统是构成计算机系统的各种物理设备的总称,是计算机的实体,通常包括运算器、控制器、存储器、输入设备、输出设备五个部分。计算机软件系统是运行、管理和维护计算机的各类程序和数据及有关资料的总和。计算机的软件系统由系统软件和应用软件构成。图1-4 计算机系统的组成

没有安装任何操作系统和其它软件的计算机称为裸机,计算机系统层次结构如图1-5所示。图1-5 计算机系统层次结构1.3.2 计算机硬件系统

计算机硬件系统是计算机的实体,也是计算机的物质基础,硬件系统的构成并不是仅仅只有日常我们观察到的外观所含各部件如图1-6所示,通常情况下 计算机的硬件系统由运算器、控制器、存储器、输入设备和输出设备五大部分组成。图1-6 计算机外观(1)运算器

计算机中执行各种算术和逻辑运算操作的部件就是运算器。运算器包括寄存器、加法器和控制线路等组成,基本操作包括加、减、乘、除四则运算,与、或、非、异或等逻辑操作,以及移位、比较等操作。计算机运行时,运算器的操作由控制器决定,运算器处理的数据来自存储器,处理后的结果数据通常送回存储器,或暂时寄存在运算器中。(2)控制器

控制器是指挥计算机的各个部件按照指令的功能要求协调工作的部件,是计算机的神经中枢和指挥中心。控制器主要负责从存储器中读取指令,并对指令进行翻译,确定指令类型,根据指令要求负责向其它部件发出控制信息,保证各部件协调一致地工作。

① 指令和指令系统 为了让计算机按照人们的需求正常地进行工作,需要设计一系列命令指挥计算机运行,于是就产生了指令,指令就是计算机执行某种操作的命令。一条指令,通常包括两方面内容:操作码和操作数。其中,操作码通常表示执行什么操作;操作数给出参与操作的数据的地址,指明操作对象。操作数又分为源操作数和目的操作数,源操作数指明参加运行的操作数的来源,目的操作数指明保存运行结果的存储单元地址或寄存器名称。

指令的格式如表1-5所示。表1-5 指令的基本格式

指令系统是指一台计算机所能执行的全部指令的集合。

② 指令的执行过程 计算机的工作过程就是按照控制器的控制信号自动、有序地执行指令的过程。一条指令的执行包括读取指令、分析指令、生成控制信号、执行指令几个过程。(3)中央处理器(CPU)

运算器和控制器组成了中央处理单元,也就是人们通常所说的CPU,也叫微处理器,如图1-7所示,这是计算机系统的核心部件,其重要性好比心脏对于人一样。实际上,处理器的作用和大脑更相似,因为它负责处理、运算计算机内部的所有数据。CPU主要由运算器、控制器、寄存器组和内部总线等构成。图1-7 中央处理器

计算机的发展主要表现在其核心部件—微处理器的发展上,每当一款新型的微处理器出现时,就会带动计算机系统的其它部件的相应发展。微处理器的发展大体可划分为6个阶段。

第1阶段(1971~1973年)是4位和8位低档微处理器时代,通常称为第1代,其典型产品是Intel4004和Intel8008微处理器。

第2阶段(1974~1977年)是8位中高档微处理器时代,通常称为第2代,其典型产品是Intel8080/8085。

第3阶段(1978~1984年)是16位微处理器时代,通常称为第3代,其典型产品是Intel公司的8086/8088。

第4阶段(1985~1992年)是32位微处理器时代,又称为第4代。其典型产品是Intel公司的80386/80486。

第5阶段(1993~2005年)是奔腾(Pentium)系列微处理器时代,通常称为第5代。典型产品是Intel公司的奔腾系列芯片及与之兼容的AMD的K6、K7系列微处理器芯片。

第6阶段(2005年至今)是酷睿(Core)系列微处理器时代,通常称为第6代。(4)存储器

存储器是具有存储记忆功能的设备,主要用来存放输入设备送来的程序和数据,以及运算器送来的中间结果和最后结果。

按照不同的标准存储器可分为不同的类别:按存储介质可分为半导体存储器和磁表面存储器;按信息保存性可分为非永久记忆的存储器和永久记忆性存储器;按用途可分为内存(主存储器、内部存储器)和外存(辅助存储器、外部存储器)。外存通常是磁性介质或光盘等,能长期保存信息。内存指主板上的存储部件,用来存放当前正在执行的数据和程序。

① 内存储器 内存储器简称内存,也称主存,是计算机中重要的部件之一,如图1-8所示,它是与CPU进行沟通的桥梁。计算机中所有程序的运行都是在内存储器中进行的,因此内存储器的性能对计算机的影响非常大。其作用是用于暂时存放CPU中的运算数据,以及与硬盘等外部存储器交换的数据。只要计算机在运行中,CPU就会把需要运算的数据调到内存中进行运算,当运算完成后CPU再将结果传送出来。内存的特点是存储速度快,但存储容量小。图1-8 内存

内存一般采用半导体存储单元,包括随机存储器(RAM)和只读存储器(ROM)。

a.随机存储器 随机存储器既可以读(取)又可以写(存),主要用来存取系统运行时的程序和数据。RAM的特点是存取速度快,但断电后存放的信息会全部丢失。

随机存储器可分为动态存储器(DRAM)和静态存储器(SRAM)两大类。DRAM的特点是集成度高,主要用于大容量内存储器;SRAM的特点是存取速度快,主要用于高速缓冲存储器。

b.只读存储器 只读存储器顾名思义只能读出不能随意写入信息,其最大的特点是断电后其中的信息不会丢失。只读存储器一般用来存放一些固定的程序和数据,这些程序和数据是在计算机出厂时由厂家一次性写入的,并永久保存下来。

常用的只读存储器有可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)和快擦除ROM(FROM)。

c.高速缓冲存储器 在计算机技术发展过程中,主存储器存取速度一直比中央处理器操作速度慢得多,使中央处理器的高速处理能力不能充分发挥,整个计算机系统的工作效率受到影响,为了解决中央处理器和主存储器之间速度不匹配的矛盾大多计算机都采用了高速缓冲存储器。

内部存储器的主要性能指标有两个:存储容量和存取速度。存储容量是指一个存储器包含的存储单元总数;存取速度是指CPU从内存储器中存取数据所需的时间。

② 外部存储器

外部存储器又称为辅助存储器、外存,是指除计算机内存及CPU缓存以外的存储器。它的存储容量大,是内存容量的数十倍或者数百倍,是内存的补充和后援,此类存储器一般断电后仍然能保存数据。常见的外存储器有硬盘、光盘、移动存储器等。

a.硬盘 硬盘是微型计算机非常重要的外部存储器。硬盘具有存取容量大,存取速度快等优点。目前常见的硬盘分为机械硬盘、固态硬盘。机械硬盘采用磁性碟片来存储,固态硬盘采用闪存颗粒来存储。图1-9所示为机械硬盘和固态硬盘外观。 图1-9 机械硬盘和固态硬盘外观

一个硬盘内部包含多个盘片,这些盘片被安装在一个同心轴上,每个盘片有上下两个盘面,每个盘面被划分为磁道和扇区。硬盘的每一个盘面有一个读写磁头,磁头是硬盘中最昂贵的部件,也是硬盘技术中最重要和最关键的一环,使用硬盘时应尽量避免振动,防止硬盘磁头损坏导致硬盘不可用。当磁盘旋转时,在磁盘表面划出的圆形轨迹就叫做磁道。磁盘上的每个磁道被等分为若干个弧段,这些弧段便是磁盘的扇区,每个扇区可以存放512个字节的信息,磁盘读写的物理单位是以扇区为单位。硬盘通常由重叠的一组盘片构成,每个盘面都被划分为数目相等的磁道,并从外缘的“0”开始编号,具有相同编号的磁道形成一个圆柱,称之为磁盘的柱面。图1-10所示为柱面、磁道与扇区示意图。图1-11所示为硬盘内部结构。图1-10 柱面、磁道与扇区示意图图1-11 硬盘内部结构

硬盘的主要性能指标有硬盘容量和转速。硬盘的容量=柱面数×盘面数×扇区数×512B。硬盘转速是指硬盘主轴的旋转速度,单位为转/分钟(r/min),转速是决定硬盘内部传输率的关键因素之一,在很大程度上直接影响硬盘的传输速度。目前市面上硬盘的容量有1T,2T,3T等,转速一般为5400r/min和7200r/min。

b.光盘 光盘是以光信息做为存储的载体并用来存储数据的一种物品。如图1-12所示。光盘存储器具有存储容量大,记录密度高,读取速度快,可靠性高,环境要求低的特点。光盘携带方便,价格低廉,目前已经成为存储数据的重要手段。光盘可分为不可擦写光盘和可擦写光盘两种。图1-12 光盘

c.移动存储设备 移动存储设备顾名思义,就是可以在不同终端间移动的存储设备,大大方便了资料存储。常见的移动存储设备主要有移动硬盘、U盘、闪存卡。图1-13所示为移动硬盘和U盘。   图1-13 移动硬盘和U盘

移动硬盘是以硬盘作为存储介质,便于携带的存储产品。目前,移动硬盘的容量已达太字节级,随着科技的发展和进步,未来将有更大容量的移动硬盘推出以满足用户的需求。

U盘全称“USB接口闪存盘”,英文名“USB flash disk”。U盘的称呼最早来源于朗科公司生产的一种新型存储设备,名曰“优盘”,也叫“U盘”,使用USB接口进行连接。其最大的特点就是:小巧便于携带、存储容量大、价格便宜。是移动存储设备之一。

闪存卡是利用闪存技术达到存储电子信息的存储器,一般应用在数码相机、掌上电脑、MP3、MP4等小型数码产品中作为存储介质,样子小巧,犹如一张卡片,所以称之为闪存卡。如图1-14所示。由于闪存卡本身并不能直接被电脑辨认,读卡器就是一个两者的沟通桥梁。读卡器使用USB1.1/USB2.0的传输界面,支持热拔插。与普通USB设备一样,只需插入电脑的USB端口,然后插入存储卡就可以使用了。图1-14 闪存卡(5)输入设备

输入设备是指向计算机输入各种数据、程序及各种信息的设备,是计算机和用户之间进行信息交换的桥梁。常用的输入设备有:键盘、鼠标、扫描仪、条形码阅读器、数码摄影机等。

① 键盘 键盘是字母、数字等信息的输入装置,是计算机必不可少的输入设备。图1-15所示为键盘及其使用指法。 图1-15 键盘及其使用指法

② 鼠标 其标准称呼应该是“鼠标器”,英文名“Mouse”,鼠标的使用是为了使计算机的操作更加简便快捷,来代替键盘复杂的指令。图1-16所示为鼠标外观。图1-16 鼠标外观

鼠标的主要操作有左键单击、右键单击、双击(连续按下鼠标左键两次)、拖动(按住鼠标左键不放)等。(6)输出设备

输出设备是计算机系统的终端设备,用于接收计算机数据的输出显示、打印等。即把各种结果以数字、文字、图形、图像、声音等形式表现出来。常见的输出设备有显示器、打印机、绘图仪等。

显示器是微型计算机系统中最基本,最必不可少的输出设备。根据显示器的显示原理不同,可分为阴极射线管显示器(CRT)、等离子显示器(PDP)、液晶显示器(LCD)等。分辨率是显示器一项重要的指标参数,分辨率反应屏幕图像的精密度,是指显示器所能显示的像素有多少。由于屏幕上的点、线和面都是由像素组成的,显示器可显示的像素越多,画面就越清晰。图1-17所示为常见的显示器。 图1-17 常见的显示器

显示器必须配置正确的适配器才能构成完整的显示系统。显示适配器俗称显卡,是主机与显示器之间的接口电路。它的主要功能是将要显示的信息的内码转换成图形点阵,并同步形成视频信号,输出给显示器。(7)其它硬件设备

计算机的硬件除以上五大部分外,还有一些也是必不可少的,下面我们重点介绍主板和总线。

① 主板 主板又叫主机板、系统板或母板(Motherboard),它安装在机箱内,是微机最基本的也是最重要的部件之一。主板一般为一块矩形印刷电路板,上面安装了组成计算机的主要电路系统。主板是整个计算机的中枢,所有部件及外设都是通过主板与处理器连接在一起,并进行通信,然后由处理器发出相应的指令,执行操作。图1-18所示为主板。

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载