信息与编码理论(txt+pdf+epub+mobi电子书下载)


发布时间:2020-08-20 17:55:17

点击下载

作者:杨晓萍 编

出版社:电子工业出版社

格式: AZW3, DOCX, EPUB, MOBI, PDF, TXT

信息与编码理论

信息与编码理论试读:

前言

《信息与编码理论》是吉林大学本科“十二五”规划的立项教材。编者根据“信息与编码”教学体系改革和电子信息、通信类人才培养的需要,经过对本门课程的潜心研究和分析编写了本书。“信息与编码”是信息、通信、电子工程类专业的基础课程,随着社会发展信息化的不断加强,要求信息相关类的学生和科技人员必须掌握信息与编码方面的相关知识。

不同院校不同专业对信息与编码课程的教学要求相差很大,本书同时兼顾了基础教学和应用。教材编写选材时注意满足课堂教学和课后自学相结合的教学模式的需要。内容主要阐述香农框架下的信息理论,围绕香农的三大定理展开论述,主要包括无失真变长信源编码定理、有噪信道编码定理和限失真信源编码定理,重点讨论信息的测度、信源模型与信源熵、信道模型与信道容量、信源编码和信道编码技术及相应的编码方法等。教学总学时为40~60学时。

本书编写具有以下特点:

① 对于无失真信源编码和信道编码,在详细讨论编码理论和方法的基础上,增加其方法实现的内容,有利于引导读者完成本课程知识的运用和理解;

② 精选教材例题,尽可能选择具有信息和通信专业背景的实例,使读者直接感受到本门课程的理论知识在自己所学专业中的应用,培养自觉运用所学知识解决问题的能力;

③ 本书每章后面不仅附有习题,还对重点节及知识点编写了思考题,以加深对基本概念的理解,注重读者运用信息理论知识对于实际问题的分析与解决能力的训练。

本书共分8章,第1章、第2章、第3章、附录C由高博编写,第4章由姚桂锦编写,6.5节、6.6节由钱志鸿编写,余下的第5章、6.1~6.4节、第7章、第8章、各章思考题及习题、附录A和附录B由杨晓萍编写,全书由杨晓萍担任主编。

本书在撰写和出版过程中,得到了通信工程学院和电子工程系领导的支持,同时还得到了同仁们的指导和帮助,在此表示深深的谢意!电子工业出版社的宋梅编审在本书的策划和审阅过程中提出了宝贵的建设性意见,在本书的编写出版过程中给予了热情的鼓励和支持,我们在此一并表示衷心感谢。

本书的编写得到了吉林大学本科“十二五”规划教材项目的资助。

限于作者水平,书中难免存在不足和疏漏之处,殷切希望广大读者批评指正。编者2016年5月于长春第1章绪论

信息对于我们来说并不陌生,生活中每天都会接触到大量的信息,各行各业都十分重视信息管理,可以说现在已经进入了信息时代。信息论是由通信技术、概率论、随机过程和数理统计等知识相结合产生的一门学科。它研究信息的基本理论,包括可能性和存在性等问题。信息论涉及的内容不局限于传统的通信范畴,进入了更广阔的信息科学领域。1.1 信息的概念

信息论的创始人是克劳德·香农,被誉为“信息论之父”。香农于1948年发表的论文“A Mathematical Theory of Communication”,被人们认为是现代信息论研究的开端。这篇文章部分基于哈里·奈奎斯特和拉尔夫·哈特莱之前的研究成果,香农在这篇文章中创造性地采用概率论的方法来研究通信中的问题,提出了信息熵的概念。香农的这篇论文及其1949年发表的另一篇论文一起奠定了现代信息论的基础。

信息是指各个事物运动的状态及状态变化的方式。信息是对客观事物的反映,从本质上说信息是对社会、自然界的事物特征、现象、本质及规律的描述。人们从对周围世界观察得到的数据中获得信息,信息是看不到摸不着的抽象的意识或知识。在日常生活中,信息常常被认为是消息,信息与消息之间有着密切的关系,但是信息的含义更加深刻,它不能等同于消息。消息是包含信息的语言、文字、图像和声音等。在通信中,消息是指担负着传送信息任务的符号和符号序列。消息是具体的,它承载着信息,但它不是物理性的。以下面的情况为例说明信息和消息的区别。人们接到电话、听到广播、看了电视或者上网浏览了网页以后,就说得到了“信息”,其实这是不准确的。人们在收到消息后,如果消息使我们知道了很多以前不知道的内容,我们就收获了很多信息;但是如果消息的内容我们以前基本都知道,那么我们得到的信息就不多了,甚至是没有得到任何的信息。信息是认识主体接收到的、可以消除对事物认识不确定性的新内容和新知识,信息是可以度量的。

1928年哈特莱首先研究了通信系统传输信息的能力,提出对数度量信息的概念,即一个消息所包含的信息量用它的所有可能取值的对数来表示。香农受到了哈特莱工作的启发,他注意到消息的信息量不但和它的可能性数值有关,还和消息本身的不确定性有关。一个消息之所以含有信息,是因为它具有不确定性,一个没有不确定性的消息不能包含任何信息,通信的目的就是要尽量地消除这种不确定性。香农对于信息的定义为:信息是对事物运动状态或存在方式的不确定性的描述。

用数学语言来讲,不确定性即为随机性,具有不确定性的事件就是随机事件。概率论和随机过程作为研究随机事件的数学工具,可以用来测度不确定性的大小。信息量是信息论中度量信息多少的一个物理量,它从量上反映具有确定概率的事件发生时所传递的信息。信息的度量与它所代表事件的随机性或者说事件发生的概率有关,当事件发生的概率大,事先容易判断,有关此事件的消息发生的不确定程度小,则包含的信息量就小;反之,当事件发生的概率小,事先不容易发生,则发生后包含的信息量就大。例如天气预报,以长春五月份的天气为例,经常出现的是晴、多云、阴、晴间多云等天气,小雨不常出现,小雪出现的概率极小,大雪出现的可能性微乎其微。在看天气预报前,我们大体可以猜测出气象状况,出现晴、多云、阴、晴间多云等天气的概率较大,我们比较能确定这些天气的出现,所以预报出现晴或阴的时候,我们并不奇怪,和我们预期的情况是一致的,所消除的不确定性就小,获得的信息量也就小。当预报明天有小雪时,我们就会很意外,觉得反常,获得的信息量就很大。如果是预报大雪的话,所获得的信息量就会更大。

在信息论中,将消息用随机事件表示,发出这些消息的信源则用随机变量表示。我们将某个消息xi出现的不确定性的大小定义为自信息,用这个消息出现概率的对数的负值来计算自信息量,表示为

信息的基本概念强调的是事物状态的不确定性,任何已经确定的事物都不含有信息,信息的特征有以下几点:

① 接收者在收到信息之前,对它的内容是未知的,信息是新知识、新内容;

② 信息可以产生、消失,也可以被传输、储存和处理;

③ 信息是可以使认识主体对某一事物的未知性或不确定性减少的有用知识;

④ 信息是可以度量的,并且信息量有多和少的差别。

信息在传输、处理及存储的过程中,难免受到噪声等无用信号的干扰,信息论就是为准确有效地将信息从传递的数据中提取出来提供依据和方法。信息论是建立在信息可以度量的基础上的,对如何有效、可靠地传递信息进行研究。它涉及信息特性、信息度量、信息传输速率、信道容量及干扰对信息传输影响等内容。这是狭义信息论,也称为香农信息论。广义信息论包含通信的全部统计问题,除了狭义信息论之外,还包括信号设计、噪声理论、信号检测与估值等。本书所描述的信息论是狭义信息论。这种建立在概率模型上的信息概念,排除了生活中“信息”概念中所包含的主观性和主观意义,而是对消息统计特性的定量描述。根据香农的定义,任何一个消息对于任何一个接收者来说,所包含的信息量是一致的。但是,实际上信息有很强的主观性和实用性,对于不同的人同样的一个消息有不同的主观意义和价值,获得的信息量也是不同的。香农信息论的定义和度量是科学的,它能反映出信息的某些本质,但是它有缺陷和局限性,适用范围受到一定的限制。1.2 信息论的研究对象、目的和内容1.2.1 研究对象

信息论从诞生到今天,它的发展对人类社会的影响是广泛和深刻的。现在信息论研究的内容不单是通信,还包括与信息有关的自然和社会领域。香农信息论发展成为涉及范围极广的信息科学。信息论的研究对象是广义的通信系统,将各种通信系统模型中具有共同特点的部分抽取出来,概括为一个统一的模型,如图1-1所示。图1-1 通信系统模型

这个通信系统模型不仅适用于电话、传真、电视、广播、遥感、雷达和导航等狭义的通信系统,还适用于其他的信息流通系统,如生物有机体的遗传系统、神经系统、视觉系统等,甚至是人类社会的管理系统。信息论的研究对象是这种统一的通信系统模型。信息以消息的形式在这个通信系统中传递,人们通过系统中消息的传输和处理来研究信息传输和处理的共同规律,其目的是提高通信的有效性和可靠性。图1-1所示的通信系统模型主要分成以下五个部分。(1)信源

信源是产生消息和消息序列的源,它向通信系统提供消息。信源可以是人、生物、机器或其他事物,它是事物各种运动状态或存在状态的集合。例如,各种天气状况是信源,通信网中向外发布消息的终端也是信源。信源本身是复杂的,在信息论中我们只对信源的输出进行研究。信源输出的是消息,消息是具体的,但它不是信息本身。消息携带着信息,消息是信息的表达者。

信源可能出现的状态,即信源输出的消息是随机的、不确定的,但又有一定的规律性,因而用随机变量或随机矢量等数学模型表示信源。信源的核心问题是它到底包含多少信息,怎么将信息定量地表示出来,即如何确定信息量。(2)编码器

编码是把消息变换成信号的措施,而译码就是编码的反变换。编码器输出的是适合信道传输的信号。信号是消息的物理体现,为了在信道上传输消息,就必须将消息加载到具有某种特征的信号上去。信号携带着消息,它是消息的载荷者,是物理性的。

编码器可分为两种,信源编码器和信道编码器。信源编码是对信源输出的消息进行适当的变换和处理,目的是为了提高信息传输的效率。信源编码有两个作用,一是把信源发出的消息变换为由二进制或多进制码元组成的代码组,即基带信号;二是通过信源编码来压缩信源的冗余度。信道编码是为了提高信息传输的可靠性而有目的地对信源编码器输出的代码添加一些附加码元,使之具有检错、纠错的能力。通常,信道中的干扰会使通信质量下降,对于模拟信号,表现在接收信号信噪比的下降;对于数字信号,表现在误码率的增加。

信源编码的目的是提高系统的有效性,信道编码的目的是提高系统的可靠性。在实际的通信系统中,有效性和可靠性往往是互相矛盾的,提高有效性必须去掉信源符号的冗余部分,这会导致系统可靠性的下降;提高可靠性就必须增加监督码元,这就降低了系统的有效性。为了兼顾二者的关系,不一定要求绝对准确地在接收端重现原来的消息,而是允许存在一定的失真和误差。(3)信道

信道是指通信系统把载荷消息的信号从甲地传输到乙地的媒介。信道是传递消息的通道,又是传送物理信号的设施。信道除了传播信号外,还可以存储信号。在狭义的通信系统中,实际信道有明线、电缆、波导、光纤、无线电波传播空间等,这些都是属于传输电磁波能量的信道。对于广义的通信系统来说,信道还可以是其他的传输媒介。信道问题主要是它能够传送多少信息,即信道容量的大小。(4)噪声源

在信道中引入噪声和干扰,这是一种简化的表达方式,将系统其他部分产生的干扰和噪声都等效地折合成信道干扰,看成是由一个噪声源所产生的,它作用于传输信号。这样,信道输出的是叠加了干扰的信号。噪声源是通信系统中各个干扰的集中反映,用来表示消息在信道中传输时遭受干扰的情况。干扰的性质或大小影响着通信系统的性能。由于干扰或噪声往往具有随机性,所以信道的特性也可以用概率空间来描述。而噪声源的统计特性又是划分信道的依据。(5)译码器

译码就是把信道输出的编码信号(已叠加了干扰)进行反变换,变换成能够理解的消息。一般认为这种变换是可逆的。译码器也可以分为信源译码器和信道译码器。信源译码器的作用是把信道译码器输出的代码组变换成信宿所需要的消息形式,它的作用相当于信源编码器的逆过程;信道译码器具有检错、纠错功能,它可以将落在其检错、纠错范围内的误传码元检测出来,并加以纠正,以提高通信系统的可靠性。(6)信宿

信宿是消息传送的对象,即接收消息的人或机器。根据实际情况,信宿接收的消息形式可以与信源发出的消息相同,也可以不同。当它们形式不同时,信宿所接收的消息是信源发出消息的一个映射。信宿要研究的是能够收到和提取多少信息量。

图1-1所示的通信系统模型只适合用于收发两端单向通信的情况,它只有一个信源和一个信宿,信息传输也是单向的。在实际的通信网络中,信源和信宿可能会有若干个,信息传输的方向也可以是双向的。要研究复杂的通信系统,需要对两端单向通信系统模型进行修正,把两端单向通信的信息理论发展为多用户通信信息理论。1.2.2 研究目的

信息论的研究目的是在通信系统中找到信息传输过程的共同规律,来提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统的最优化。1.2.3 研究内容

对于信息论研究的具体内容,以往的学者有着争议。目前,对于信息论研究的内容一般有三种理解,分别是:狭义信息论、一般信息论和广义信息论,其中狭义信息论和广义信息论我们已经在1.1节中进行了简单的描述。(1)狭义信息论

狭义信息论又称为香农信息论,主要通过数学描述与定量分析,研究信息的测度、信道容量以及信源和信道编码理论等问题。通过编码和译码使接收和发射两端联合最优化,并以定理的形式证明极限的存在。狭义信息论的内容是信息论的基础理论。(2)一般信息论

一般信息论又称为工程信息论,主要研究的问题也是信息传输和处理。除了狭义信息论的内容外,还包括噪声理论、信号滤波和预测、统计检测和估计、调制理论、信息处理和保密理论等内容。(3)广义信息论

广义信息论又称为信息科学,它的研究内容不但包括狭义信息论和一般信息论的内容,而且还包括所有与信息有关的自然和社会科学领域,比如模式识别、机器翻译、遗传学、心理学、神经生理学等,甚至还包括社会学中有关信息的问题。它是新兴的信息科学理论。

本书讲述的信息论的基本内容是与通信学科密切相关的狭义信息论,也就是香农信息论,涉及信息论中的很多基本问题。第2章信息的测度

本章讨论信息测度的相关概念,主要包括一个事件发生时包含的自信息、事件集合所包含的信息熵、事件之间所能相互给出的互信息等,需要深刻理解相关的定义和计算方法。2.1 自信息

在绪论中已经讲过,信源发出的消息(事件)具有不确定性,而事件发生的不确定性与事件发生的概率大小有关。概率越小,不确定性越大,事件发生后所含有的信息量就越大。小概率事件不确定性大,一旦出现必然使人感到意外,因此产生的信息量就大,特别是几乎不可能出现的事件一旦出现,必然产生极大的信息量;大概率事件因为是意料之中的事件,不确定性小,即使发生也没有多少信息量,特别是概率为1的确定事件发生以后,不会给人以任何信息量。因此,随机事件的自信息量I(xi)是该事件发生概率p(xi)的函数,并且I(xi)应该满足以下公理化条件:(1)I(xi)是p(xi)的严格递减函数。当p(x1)<p(x2)时,I(x1)>I(x2),概率越小,事件发生的不确定性越大,事件发生以后所包含的自信息量越大。(2)极限情况下,当p(xi)=0时,I(xi)→∞;当p(xi)=1时,I(xi)=0。(3)两个相对独立的不同消息所提供的信息量应等于它们分别提供的信息量之和,即自信息量满足可加性。

根据上述条件可以从数学上证明事件的自信息量I(xi)与事件的发生概率 p(xi)之间的函数关系满足对数形式。

定义2.1 随机事件的自信息量定义为该事件发生概率的对数的负值。设事件xi的概率为 p(xi),则它的自信息量为

由式(2.1)绘出自信息量I(xi)与事件的发生概率p(xi)之间的函数关系,如图2-1所示,显然,自信息量的定义满足公理性条件,在定义域 [0,1]内,自信息量是非负的。图2-1 自信息量

I(xi)代表两种含义:在事件xi发生以前,代表事件xi发生的不确定性的大小;在事件xi发生以后,表示事件xi所含有或所能提供的信息量。在无噪信道中,事件xi发生以后,能正确无误地传输到收信者,所以I(xi)就等于收信者接收到xi后所获得的信息量。这是因为消除了I(xi)大小的不确定性,才获得如此大小的信息量。

自信息量的单位与对数计算选用的底有关。当分别选用底为2、e和10时,自信息的单位分别为比特、奈特和哈特,详述如下:(1)对数的底取2时,信息量的单位为比特(bit,binary unit)。当p(xi)=1/2时,I(xi)=1比特,即概率等于1/2的事件具有1比特的自信息量。例如,一枚均匀硬币的任何一种抛掷结果均含有1比特的信息量。比特是信息论中最常用的信息量单位,为了书写简洁,当取对数的底为2时,底数2常省略不写。注意:计算机术语中bit是位的单位(bit,binary digit),与信息量单位含义不同。(2)对数的底取自然对数(以e为底)时,自信息量的单位为奈特(nat,natural unit)。理论推导中或用于连续信源时用以e为底的对数比较方便。

1奈特 =log2e比特 ≈1.443比特(3)工程上取以10为底的对数比较方便,自信息量的单位为哈特(hart),用来纪念哈特莱(Hartley)首先提出用对数来度量信息的贡献。

1哈特=log210比特≈3.322比特(4)如果取以r为底的对数(r>1),则I(xi)=−logr p(xi)(r进制单位)。

1 r进制单位 =log2r比特

例2.1 英文字母中“e”的出现概率为0.105,“a”的出现概率为0.064,“c”的出现概率为0.022。求:(1)分别计算它们的自信息量;(2)假定前后字母出现是相互独立的,计算“ac”的自信息量。【解】(1)“e”的自信息量 I(e)=−log 0.105=3.252比特“a”的自信息量 I(a)=−log 0.064=3.966比特“c”的自信息量 I(c)=−log 0.022=5.506比特(2)由于前后字母出现是相互独立的,“ac”出现的概率为0.064×0.022,所以“ac”的自信息量 I(ac)=−log(0.064×0.022)=I(a)+I(c)=9.472比特

由上面的计算可知,出现概率高的字符携带的自信息较小,两个相互独立事件的自信息量满足可加性,也就是由两个相对独立的事件的积事件所提供的信息量等于它们分别提供的信息量之和。n

例2.2 对于2进制的数字序列,假设每一个符号的出现完全随机且概率相等,求任一符号的自信息量。n【解】设2进制数字序列任一码元xi的出现概率为p(xi),则有

显然,事件的自信息量只与其概率有关,而与它的取值无关。2.2 平均自信息2.2.1 平均自信息的概念

自信息量是信源发出某一具体消息所含有的信息量,发出的消息不同它的自信息量就不同,所以自信息量本身为随机变量,不能用来表征整个信源的不确定度。我们用平均自信息量来表征整个信源的不确定度。平均自信息量又称为信息熵、信源熵,简称熵。

因为信源具有不确定性,所以把信源用随机变量来表示,用随机变量的概率分布来描述信源的不确定性。通常把一个随机变量的所有可能的取值和这些取值对应的概率[X,P(X)]称为信源的概率空间。

假设随机变量X 有q个可能的取值xi,i=1,2,…,q,各种取值出现的概率为p(xi),则信源的概率空间表示为

式(2.2)中,p(xi)满足概率空间的基本特性,0≤p(xi)≤1,即具有非负性和完备性。

定义2.2 随机变量 X 的每一个可能取值的自信息I(xi)的统计平均值定义为随机变量 X 的平均自信息量,也就是熵,表示为

这里q为X的所有可能取值的个数。

熵的单位与所取的对数底有关,根据所取的对数底不同,可以是比特/符号、奈特/符号、哈特/符号或者是r进制单位/符号,比特/符号为熵的常用单位。5

例2.3 电视屏幕上约有500×600=3×10个点,按每点有10个不同的灰度等级考虑,每个灰度等级的出现按等概率计算,平均每幅电视画面可提供的信息量是多少?【解】每个电视屏幕点的灰度等级出现的概率是 p(xi)=1/10,每个电视屏幕点平均提供的信息量是

则平均每幅电视画面可提供的信息量是556

3×10×H(X)=3×10×3.32≈10比特/画面

例2.4 有一篇一千字的文章,假定每个字都是从万字表中任选的(设每个字都是等概率使用的),不考虑句子中各文字的相关性,一篇一千字的文章可以提供多少信息量?【解】文章中一个字出现的概率是p(xi)=1/10 000,平均提供的信息量是

则一篇一千字的文章可以提供的信息量是4

1000×H(X)=1000×13.28≈1.33×10比特/千字文章

从这两个例子可以看出,“一幅电视画面”平均提供的信息量远超过“一篇千字文章”提供的信息量。当然,上面的计算只是理论上的粗略估计,事实是任意从万字表中取出的千字并不能组成有意义的文章,词、句子、段落和文章的组成是有一定规律的,也就是每个字并非等概率出现,所以千字文章提供的信息量要比计算值小得多,也4就是说要表示一篇千字文章并不需要1.33×10比特。同样,电视画面6也是一样,实际信息量远远小于10比特。2.2.2 熵的物理意义

熵这个名词是香农从物理学中热熵的概念借用过来的,热熵是表示分子混乱程度的一个物理量,因此,香农用熵来描述信源的平均不确定性。但是在热力学中任何孤立系统的演化,热熵只能增加不能减少,而在信息论中,信息熵正好相反,只会减少,不会增加,所以信息熵也被称为负热熵。

信息熵具有以下三种物理含义:(1)信息熵 H(X)是表示信源输出后,每个消息(或符号)所提供的平均信息量。(2)信息熵H(X)是表示信源输出前,信源的平均不确定性。

例如,有两个信源,其概率空间分别为

则信息熵分别为

H(X)=−0.99 log 0.99−0.01 log 0.01=0.080 8比特/符号

H(Y)=−0.5 log 0.5−0.5 log 0.5=1比特/符号

显然,H(Y)>> H(X),由此推断出信源Y 比信源X 的平均不确定性大。因为对于信源Y,它的两个输出的消息是等可能性的,所以在信源没有输出消息之前,要猜测哪一个消息出现的不确定性更大;而对于信源X,它的两个输出消息不是等概率的,而 x1出现的概率很大,可以猜测 x1和 x2哪一个出现的不确定性较小。所以,信息熵正好反映了信源输出消息以前,信源存在的平均不确定性程度的大小。(3)用信息熵H(X)来表征变量X 的随机性。

例如前面的例子,变量Y 取y1和y2是等概率的,所以其随机性大。而变量X取x1的概率比取x2的概率大得多,所以其随机性就小。因此,信息熵反映了变量的随机性。

应该注意的是:信息熵是信源本身输出消息的平均不确定性的描述。一般情况下,它并不等于接收者平均获得的信息量。只是在无噪情况下,接收者才能正确无误地接收到信源所发出的消息,全部消除了H(X)大小的平均不确定性,所以获得的平均信息量就等于H(X)。2.3 熵函数的性质

由式(2.3)的定义,信息熵是信源概率空间式(2.2)的函数,此函数的大小与信源的符号数 q 以及符号的概率分布 p(xi)有关。当信源符号集的个数 q 给定时,信源信息熵就是概率分布 p(xi)的函数,其函数形式由式(2.3)确定。我们用概率矢量P 来表示概率分布 p(xi)。

式(2.4)中,为了书写方便,用pi(i=1,2,…,q)来表示符号概率p(xi),概率矢量P是q维矢量,pi是其分量,它们满足和0≤pi≤1。信息熵H(X)是概率矢量P或它的分量p1,p2,…,pq的(q-1)元函数。一般式(2.3)可写成

我们称H(P)是熵函数,一般用H(X)表示以离散随机变量X描述的信源的信息熵;用H(P)或H(p1,p2,…,pq)表示概率矢量为H(P)的q个符号信源的信息熵。当q=2时,因为p1+p2=1,所以2个符号的熵函数可以写成H(p1)或H(p2)。2.3.1 对称性

对称性就是当概率的顺序p1,p2,…,pq任意互换时,熵函数的值不变,即

该性质表明熵只与随机变量的总体结构有关,即与信源的总体统计特性有关。若某些信源的统计特性相同(含有的符号数和概率分布相同),则这些信源的熵就相同。例如,下面三个信源的概率空间分别为

若其中x1,x2,x3分别表示红、黄、蓝三个具体消息,而z1,z2,z3分别表示晴、雨、雪三个信息,在这三个信源中,X 与Z 信源的差别是它们所选择的具体消息(符号)的含义不同,而X 与Y 信源的差别是它们选择的某一消息概率不同,但是这三个信源的信息熵是相同的,即 H(1/3,1/6,1/2)=H(1/6,1/2,1/3)=H(1/3,1/2,1/6)=1.459比特/信源符号。所以,熵表征信源总的统计特征,总体的平均不确定性。这也同时说明了所定义的信息熵的局限性,它不能描述事件本身的具体含义和主观价值等。2.3.2 确定性

当信源的某个消息是必然出现的而其他的消息不会出现时,这样的信源的熵是零,称为确定性,因为此信源是完全确知的,没有任何不确定性,即

因为在概率矢量P=(p1,p2,· · ·,pq)中,当某分量pi=1时,pi log pi=0;其他分量pj=0(j≠i),lim pj→0 pj log pj=0,所以式(2.7)成立。2.3.3 非负性

非负性是指任何离散信源的熵值都一定不是负值。

因为随机变量 X 的所有取值的概率满足0<pi<1,当取对数的底大于1时,log pi<0,而−pilogpi>0,则得到的熵是正值。只有当随机变量是一确知量时(确定性),熵才等于零。2.3.4 扩展性

扩展性表示为

因为limε→0εlog ε=0,所以式(2.9)成立。扩展性说明信源取值增多时,若这些取值对应的概率很小(接近于零),则信源的熵不变。虽然,小概率事件出现后,给予收信者的信息量较大,但从总体考虑时,因为这种概率很小实际几乎不会出现,它在熵计算中所占的比重极小,致使总的信源熵值维持不变,这也是熵的总体平均性的一种体现。2.3.5 连续性

连续性表示为

即信源概率空间中概率分量的微小波动,不会引起熵的变化。此性质证明略。2.3.6 可加性

当两个随机变量X和Y彼此独立时,其共熵满足可加性,即即统计独立信源X与Y 的联合信源的熵等于分别熵之和。

可加性是熵函数的一个重要特性,因为具有可加性,可以证明熵函数的形式是唯一的,没有其他形式存在,而且可加性也常用于推导其他公式。【证明】设两个随机变量X和Y统计独立,X的概率分布为{p1,p2,…,pn},,Y的概率分布为{q1,q2,…,qm},,且,则根据熵函数表达式有2.3.7 强可加性

两个互相关联的信源 X 和 Y 的联合信源的熵等于信源 X 的熵加上在 X 已知条件下信源Y 的熵,这是信源的强可加性,可以表示为【证明】本性质的证明可以采用条件概率和类似可加性的证明方法,这里利用熵的概念来证明,更为简洁。

这个关系可以推广到N个随机变量的共熵的情况,即

这里我们来分析条件熵的物理意义,先推导其计算公式。

由熵的概念可知,H(Y|X =xi)表示当信源X 取值xi的情况下信源Y的平均不确定性,当取值xi 不同时,H(Y|X =xi)的熵值也是不同的。而式(2.14)是对于不确定取值的X做统计平均,即在信源X输出一符号的条件下,信源Y 再输出一个符号所能提供的平均信息量,记作H(Y|X),称为条件熵。

当随机变量X与Y统计独立时,条件熵H(Y|X)的条件X 对熵值失去影响,即H(Y|X)=H(Y),式(2.12)成为式(2.11)。2.3.8 极值性

极值性是指任何离散信源的熵满足下面不等式:

表示在离散信源情况下,信源各符号等概率分布时,熵值达到最大。【证明】设概率矢量 P=(p1,p2,…,pq),并有和0≤pi≤1(i=1,2,

试读结束[说明:试读内容隐藏了图片]

下载完整电子书


相关推荐

最新文章


© 2020 txtepub下载