- 1、本文档共20页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
-第章-平均互信息量和各种熵关系
第2章 信源熵 2.1 单符号离散信源 2.1.1 单符号离散信源的数学模型 2.1.2 自信息和信源熵 2.1.3 信源熵的基本性质和定理 2.1.4 加权熵的概念及基本性质 2.1.5 平均互信息量 一、平均互信息量定义 二、平均互信息量物理意义 二、平均互信息量性质 2.1.6 各种熵之间的关系 离散集的平均互信息量 不同概率空间集合之间的平均互信息量对于通信问题的探讨十分重要。 通信的目的是在接收端准确地或以尽可能小的失真复现发送的消息。一般通信系统的输入和输出存在一定的概率关系。 令X和Y分别表示一个通信系统的输入事件集和输出事件集。 讨论输入X、输出Y均为离散的情况。研究离散集X和Y的平均互信息量。这时输入和输出均可用离散概率空间描述。 互信息量—信道中信息流通的测度? 互信息量I(xi;yj)是定量研究信息流通问题的重要基础。 它只能定量地描述输入随机变量发出某个具体消息xi,输出变量出现某一具体消息yj时,流经信道的信息量。 “输入xi ,输出yj”是一个概率为p(xi yj) 的随机事件,相应的I(xi;yj)也是随xi和yj变化而变化的随机量。 互信息量I(xi;yj)不能从整体上作为信道中信息流通的测度。 这种测度应该是从整体的角度出发,在平均意义上度量每通过一个符号流经信道的平均信息量。 作为一个测度,它不能是随机量,而是一个确定的量。 输入X、输出Y的离散概率空间描述 输入X、输出Y的联合空间XY 平均条件互信息量 定义:在联合集XY上,由 提供的关于集X的平均条件互信息量等于由 所提供的互信息量 在整个X中以 后验概率加权的平均值,其定义式为 由于互信息 是表示观测到 后获得的关于事件 的信息量,即 故平均条件互信息量又可以表示为 定理 定理: 联合集XY上的平均条件互信息量有 等号成立当且仅当X集中的各个 都与事件 相互独立。 平均条件互信息量表示观测到yj后获得的关于集X的平均信息量。 I(X; yj)仍然是一个随机变量,随yj的变化而变化,因此,不能作为信道中流通信息量的整体测度。 平均互信息量 定义:平均互信息量I(X;Y)是平均条件互信息量I(X;yj)在整个集Y上的概率加权平均值。其定义式为 定义:互信息量I(xi;yj)在联合概率空间P(XY)中的统计平均值 称I(X;Y)是Y对X的平均互信息量,简称平均互信息,也称平均交互信息量或交互熵。 平均互信息I(X;Y)克服了互信息量I(xi;yj)的随机性,成为一个确定的量,因此,可以作为信道中流通信息量的整体测度。 平均互信息量的其它定义 平均互信息量I(X;Y)也可定义为 平均互信息的性质 平均互信息量有以下基本性质: 1、互易性(对称性) 2、非负性 3、极值性 4、凸函数性 平均互信息的性质 1、互易性(对称性) I(X;Y)= I(Y;X) 该性质表示从集Y中获得关于X的信息量等于从集X中获得关于Y的信息量。 当集X和集Y统计独立时,有I(X;Y)= I(Y;X)=0 它意味着不能从一个集获得关于另一个集的任何信息 2、非负性I(X;Y)≥0 当且仅当X与Y相互独立时,等号成立。即如果X与Y相互独立,它们之间相互不能提供任何信息。 性质1:非负性I(X;Y)≥0的证明 性质2:对称性I(X;Y)=I(Y;X)的证明 证明:按定义 平均互信息的性质(续) 3、极值性 I(X;Y)≤ H(X); I(X;Y)≤ H(Y) 证明:因为I(X;Y)=H(X)-H(X/Y),条件熵H(X/Y)为非负,故两个不等式成立。 4、凸函数性 平均互信息量I(X;Y)是信源概率分布p(xi)的上凸函数; 该性质是研究信道容量的理论基础 平均互信息量I(X;Y)是信道传递概率p(yj/xi)的下凸函数。 该性质是研究率失真函数的理论基础 第2章 信源熵 2.1 单符号离散信源 2.1.1 单符号离散信源的数学模型 2.1.2 自信息和信源熵 2.1.3 信源熵的基本性质和定理 2.1.4 加权熵的概念及基本性质 2.1.5 平均互信息量 2.1.6 各种熵之间的关系 平均互信息和各类熵的关系 平均互信息和各类熵的关系 I(X;Y)=H(X)-H(X/Y) I(X;Y)=H(Y)-H(Y/X) I(X;Y)=H(X)+H(Y)-H(XY) 几个关系式的证明 维拉图 平均互信息量I(X;Y)和各类熵的关系可用维拉图表示。 当集X和Y统计独立时,I(X;Y)=0,得到 H(X,Y)max=H(X)+H(Y) 损失熵H(X/Y) 条件熵H(X/Y)表示在已知输出Y的条件下输入X的剩余不确定性,即信道损失。
文档评论(0)