uestc信息编码与加密第二章信息论基本概念3.pptVIP

uestc信息编码与加密第二章信息论基本概念3.ppt

  1. 1、本文档共29页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
uestc信息编码与加密第二章信息论基本概念3

(四) 平均互信息 一、定义 1.Y对X: 2.X对Y: 3.合写: [含义] 信道中流通信息量的整体测度 二、物理意义 1. I(X;Y)= H(X) – H(X/Y) (1) H(X)——信源熵:X的不确定度 H(X/Y)——已知Y时,对X仍剩的不确定度(疑义度) [结论] I(X;Y) ——“Y已知”,X的平均不确定度的减少量, 即获得了I(X;Y) 的信息量 (2) H(X)——信源含有的平均信息量(总,有用) I(X;Y)——信宿收到的平均信息量(有用部分) [结论] H(X/Y)—因信道有扰而丢失的平均信息量,故称损失熵 2. I(Y;X)= H(Y) – H(Y/X)= I(X;Y) (1) H(Y)——信宿的平均信息量 I(X;Y)——信道传输的平均信息量 [结论] H(Y/X)——因信道有扰而产生的假平均信息量,称噪声熵、散布度、扩散度 (2) H(Y)——Y的先验不定度 H(Y/X)——发出X后,关于Y的后验不定度 [结论] I(Y;X)——发X前后,Y平均不确定度的减少量 3. I(X;Y) = H(X) + H(Y) – H(XY) H(X) +H(Y)——通信前,整个系统的先验平均不确定度 H(XY)—— 通信后,整个系统仍剩余的平均不确定度 I(X;Y)—— 通信前后,整个系统平均不确定度的减少量,即传输的互信息。 [结论] I(X;Y)——平均每传送一个信源符号时, 流经信道的平均(有用)信息量 例 已知一个二元信源连接一个二元信道,如图所示。求I(X;Y),H(XY),H(X/Y)和H(Y/X)。 (1)求联合概率 p(x1y1)=0.5×0.98=0.49 p(x1y2)=0.5×0.02=0.01 p(x2y1)=0.5×0.80=0.40 p(x2y2)=0.5×0.20=0.10 (2)求p(yj) p(y1)=p(x1y1)+p(x2y1)=0.49+0.40=0.89 p(y2)=p(x1y2)+p(x2y2)=0.01+0.10=0.11 (3)求熵 H(X)=1 bit/符号 H(Y)=0.98 bit/符号 H(XY)=1.43 bit/符号 I(X;Y)=H(X)+H(Y)-H(X Y)=0.55bit/符号 H(X/Y)=0.45 bit/符号 H(Y/X)=0.43 bit/符号 三 、平均互信息的性质 1.非负性——I(X;Y) ≥0, 尽管I(xi;yj) 的某些值可为负 2.对称性——I(X;Y) = I(Y;X) 3.极值性—— I(X;Y) ≤ H(X) I(X;Y) ≤ H(Y) I(X;Y)= H(X) – H(X/Y) *当 H(X/Y) = 0 时, I(X;Y)= H(X) ——信道无噪(X、Y一一对应) *当 I(X;Y) = 0 时, H(X/Y) = H(X) ——信道中断(X、Y独立) 4. 凸函数性 (1) I(X;Y) 是信源概率分布P(X) 的上凸函数 (最大值)——信道容量的基础 (2) I(X;Y) 是信道转移概率P(Y/X) 的下凸函数 (最小值)——率失真函数的基础 5. 数据处理定理 I(X;Z) ≤ I(X;Y) I(X;Z) ≤ I(Y;Z) [意义] 信息不增原理—— 每经一次 处理,可能丢失一部分信息 信息不增原理证明I(X;Z) ≤ I(X;Y) I(X;YZ)=I(X;Y)+I(X;Z/Y) I(X;YZ)=I(X;Z)+I(X;Y/Z) I(X;Z)=I(X;YZ)-I(X;Y/Z)= I(X;Y)+I(X;Z/Y)- I(X;Y/Z) 假设在Y条件下 X与Z相互独立,则 I(X;Z)=I(X;Y)- I(X;Y/Z) 因为I(X;Y/Z)非负,所以I(X;Z) ≤ I(X;Y) 6.各种熵的关系 I(X;Y) = H(X) – H(X/Y) = H(Y) – H(Y/X) H(XY) = H(X) + H(Y/X) = H(Y) + H(X/Y) H(XY) + I(X;Y) = H(X) + H(Y)

文档评论(0)

118books + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档