[信息论与编码概念总结.docVIP

  1. 1、本文档共6页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
[信息论与编码概念总结

第一章 1.通信系统的基本模型: 2.信息论研究内容:信源熵,信道容量,信息率失真函数,信源编码,信道编码,密码体制的安全性测度等等 第二章 1.自信息量:一个随机事件发生某一结果所带的信息量。 2.平均互信息量:两个离散随机事件集合X和Y,若其任意两件的互信息量为 I(Xi;Yj),则其联合概率加权的统计平均值,称为两集合的平均互信息量,用I(X;Y )表示 3.熵功率:与一个连续信源具有相同熵的高斯信源的平均功率定义为熵功率。如果熵功率等于信源平均功率,表示信源没有剩余;熵功率和信源的平均功率相差越大,说明信源的剩余越大。所以信源平均功率和熵功率之差称为连续信源的剩余度。信源熵的相对率(信源效率):实际熵与最大熵的比值 信源冗余度: 意义:针对最大熵而言,无用信息在其中所占的比例。 3.极限熵: 平均符号熵的N取极限值,即原始信源不断发符号,符号间的统计关系延伸到无穷。 4.平均符号熵: 5.离散信源和连续信源的最大熵定理。 离散无记忆信源,等概率分布时熵最大。 连续信源,峰值功率受限时,均匀分布的熵最大。 平均功率受限时,高斯分布的熵最大。 均值受限时,指数分布的熵最大 6.限平均功率的连续信源的最大熵功率: 若一个连续信源输出信号的平均功率被限定为,则其输出信号幅度的概率密度分布是高斯分布时,信源有最大的熵,其值为.对于维连续平稳信源来说,若其输出的维随机序列的协方差矩阵被限定,则维随机矢量为正态分布时信源的熵最大,也就是维高斯信源的熵最大,其值为 7.离散信源的无失真定长编码定理: 离散信源无失真编码的基本原理 原理图 说明: 信源发出的消息:是多符号离散信源消息,长度为L,可以用L次扩展信源表示为: XL=(X1X2……XL) 其中,每一位Xi都取自同一个原始信源符号集合(n种符号): X={x1,x2,…xn} 则最多可以对应nL条消息。 (2) 信源编码后,编成的码序列长度为k,可以用k次扩展信宿符号表示为: Yk=(Y1Y2……Yk) 称为码字/码组 其中,每一位Yi都取自同一个原始信宿符号集合: Y={y1,y2,…ym} 又叫信道基本符号集合(称为码元,且是m进制的) 则最多可编成mk个码序列,对应mk条消息 定长编码:信源消息编成的码字长度k是固定的。对应的编码定理称为定长信源编码定理。 变长编码:信源消息编成的码字长度k是可变的。 8.离散信源的最佳变长编码定理 最佳变长编码定理:若信源有n条消息,第i条消息出现的概率为pi,且p1=p2=…=pn,且第i条消息对应的码长为ki,并有k1=k2=…=kn 即:把经常出现的消息编成短码,不经常出现的消息编成长码。这样可使平均码长最短,从而提高通信效率,代价是增加了编译码设备的复杂度。 在不等长码字组成的序列中,要正确识别每个长度不同的码字的起点就比等长编码复杂得多。 第三章 1.信道容量的概念及用途: 最大的信息传输速率为信息容量 信道的功能:以信号形式传输和存储信息 2.信道编码定理: 若有一个离散无记忆平稳信源,其容量为C,输入序列长度为L,则只要传输的信息速度RC 则总可以找到一种编码,使当L足够大时,得到的译码错误概率 反之 ,若RC时, 则无论采用何种编码,必然会有译码差错 第四章 1.保真度准则下的信源编码定理:设有某一信源的信息率失真函数为R(D),选择有限的失真函数d,对于任意允许的平均失真度D,当压缩后的信息率 RR(D)则一定存在某种信源编码方法,使译码后的平均失真度=D 反之,若压缩后的信息率RR(D)则无论用什么编码方法,必有 译码后的平均失真=D 2.信息率失真函数的概念及应用:给定信源和失真函数,要使信源的平均失真 (D为给定的失真上限),则需找到某个信道(满足一定的信道转移概率分布或转移概率密度函数),使在该信道(称为试验信道)上传输的信息速率达到最小,这个最小的信息速率称为信息率失真函数,记作R(D)。 信息率失真理论是量化、数模转换、频带压缩和数据压缩的理论基础。 3. 信道容量和信息率失真函数的比较: 相同点:二者都是求平均互信息的极值 不同点: 1、C和R(D)的不同: (1)信道容量:选择某一信源分布的情况下,求平均互信息的极大值。依据:平均互信息I是信源概率分布p(xi)的严格上凸函数。(2)信息率失真函数:求选择某一压缩试验信道(转移概率分布)的情况下,依据保真度准则,求平均互信息的极小值。

文档评论(0)

1789811832 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档