- 1、本文档共32页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第2章 信息的度量 重庆交通大学信息与工程学院 通信工程系 李益才 2012月 第2章 信息的度量 2.1 自信息和互信息 2.2 平均自信息 2.3 平均互信息 2.1 自信息和互信息 几个重要概念 自信息:一个事件(消息)本身所包含的信息量,它是由事件的不确定性决定的。比如抛掷一枚硬币的结果是正面这个消息所包含的信息量。 互信息:一个事件所给出关于另一个事件的信息量,比如今天下雨所给出关于明天下雨的信息量。 平均自信息(信息熵):事件集(用随机变量表示)所包含的平均信息量,它表示信源的平均不确定性。比如抛掷一枚硬币的试验所包含的信息量。 平均互信息:一个事件集所给出关于另一个事件集的平均信息量,比如今天的天气所给出关于明天的天气的信息量。 2.1.1 自信息 随机事件的自信息量I(xi)是该事件发生概率p(xi)的函数,并且应该满足以下公理化条件: I(xi),是 p(xi)的严格递减函数。当p(x1)p(x2)时, I(x1)I(x2) ,概率越小,事件发生的不确定性越大,事件发生以后所包含的自信息量越大。 极限情况下当p(xi) =0时, I(xi) →∞ ;当p(xi) =1时, I(xi) =0。 另外,从直观概念上讲,由两个相对独立的不同的消息所提供的信息量应等于它们分别提供的信息量之和。 可以证明,满足以上公理化条件的函数形式是对数形式。 2.1.1 自信息 定义2.1 随机事件的自信息量定义为该事件发生概率的对数的负值。设事件xi的概率为p(xi),则它的自信息定义为 2.1.1 自信息 自信息量的单位 常取对数的底为2,信息量的单位为比特(bit,binary unit)。当p(xi)=1/2时,I(xi)=1比特,即概率等于1/2的事件具有1比特的自信息量。 若取自然对数(对数以e为底),自信息量的单位为奈特(nat,natural unit)。 1奈特=log2e比特=1.443比特 工程上用以10为底较方便。若以10为对数底,则自信息量的单位为哈特莱(Hartley)。1哈特莱=log210比特=3.322比特 如果取以r为底的对数(r1),则I(xi)=-logrp(xi)进制单位 1r进制单位= log2r比特 [例] 8个串联的灯泡x1,x2,…,x8,其损坏的可能性是等概率的,现假设其中有一个灯泡已损坏,问每进行一次测量可获得多少信息量?最少需要多少次测量才能获知和确定哪个灯泡已损坏。 解:收到某消息获得的信息量(即收到某消息后获得关于某事件发生的信息量) =不确定性减少的量 =(收到此消息前关于某事件发生的不确定性) - (收到此消息后关于某事件发生的不确定性) 已知8个灯泡等概率损坏,所以先验概率P (x1)=1/8 ,即 第二次测量获得的信息量 = I [P (x2)] - I [P (x3)]=1(bit) 第三次测量获得的信息量 = I [P (x3)] =1(bit) 至少要获得3个比特的信息量就可确切知道哪个灯泡已坏了。 2.1.2 互信息 定义2.2 一个事件yj所给出关于另一个事件xi的信息定义为互信息,用I(xi;yj)表示。 互信息I(xi;yj)是已知事件yj后所消除的关于事件xi的不确定性,它等于事件xi本身的不确定性I(xi)减去已知事件yj后对 仍然存在的不确定性I(xi|yj) 。 互信息的引出,使信息得到了定量的表示,是信息论发展的一个重要的里程碑。 2.2 平均自信息 2.2.1 平均自信息(信息熵)的概念 自信息量是信源发出某一具体消息所含有的信息量,发出的消息不同,所含有的信息量也不同。因此自信息量不能用来表征整个信源的不确定度。定义平均自信息量来表征整个信源的不确定度。平均自信息量又称为信息熵、信源熵,简称熵。 因为信源具有不确定性,所以我们把信源用随机变量来表示,用随机变量的概率分布来描述信源的不确定性。通常把一个随机变量的所有可能的取值和这些取值对应的概率 [X,P(X)] 称为它的概率空间。 2.2.1 平均自信息(信息熵)的概念 定义2.3 随机变量X的每一个可能取值的自信息I(xi)的统计平均值定义为随机变量X的平均自信息量: 这里q为的所有X可能取值的个数。 熵的单位也是与所取的对数底有关,根据所取的对数底不同,可以是比特/符号、奈特/符号、哈特莱/符号或者是r进制单位/符号。通常用比特/符号为单位。 一般情况下,信息熵并不等于收信者平均获得的信息量,收信者不能全部消除信源的平均不确定性,获得的信息量将小于信息熵。 熵的计算[例]: 有一布袋内放l00个球,其中80个球是红
文档评论(0)