信息论试题2.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
信息论试题2

《信息论基础》答案 一、填空题(共15分,每空1分) 1、若一连续消息通过某放大器,该放大器输出的最大瞬时电压为b,最小瞬时电压为a。若消息从放大器中输出,则该信源的绝对熵是 无穷大 ;其能在每个自由度熵的最大熵是 。 2、高斯白噪声信道是指 信道噪声服从正态分布,且功率谱为常数 。 3、5 W,则最大熵为,达到最大值的条件是 高斯信道 。 4、离散信源存在剩余度的原因是 信源有记忆(或输出符号之间存在相关性) 和 不等概 。 5、离散无记忆信源在进行无失真变长信源编码时,编码效率最大可以达到 1 。 6、7、八进制信源的最小熵为 0 ,最大熵为 。 8、。 9、在下面空格中选择填入数字符号“”或“” = 二、判断题(正确打√,错误打×)(共5分,每小题1分) 离散无记忆等概信源的剩余度为0。 ( √ ) 离散无记忆信源N次扩展源的熵是原信息熵的N倍 ( √ ) 互信息可正、可负、可为零。 ( √ ) 信源的真正功率永远不会大于熵功率,即 ( × ) 信道容量与信源输出符号的概率分布有关。 ( × ) 三、(5分)已知信源的概率密度函数如下图所示,求信源的相对熵 四、(15分)设一个离散无记忆信源的概率空间为 它们通过干扰信道,信道输出端的接收信号集为,已知信道出书概率如下图所示。 试计算: 信源中事件的自信息量;(3分) 信源的信息熵;(3分) 共熵;(3分) 噪声熵;(3分) 收到信息后获得的关于信源的平均信息量。(3分) (1) (2) (3) (4) (5) 五、(10分)一个平均功率受限的连续信道,信道带宽为10MHz,信道噪声为高斯白噪声。 (1)已知信道上的信号与噪声的平均功率比值为63,计算该信道的信道蓉量。 (2)如果信道带宽降为2MHz,要达到相同的信道容量,信道上的信号与噪声的平均功率比值应为多少? (1) (2) 六、(10分)已知信源共7个符号信息,其概率空间为 试用霍夫曼编码法编成二进制变长码。(7分) 计算信源熵,平均码长和编码效率。(9分) (1) (7分) (2) (3分) (3分) 七、(10分)设给定两随机变量和,它们的联合概率密度为 求随机变量的概率密度函数,并计算变量的熵。 已知得 (2分) 则 (2分) 所以和独立,所以y为高斯分布 因为 所以 (2分) 所以 (2分) 所以 (2) 八、(10分)设某信道的传递矩阵为 计算该信道的信道容量,并说明达到信道容量的最佳输入概率分布。 解:s=4 (2分) (2分) 最佳概率分布当输入概率 (2分) 九、(14分)设有一个马尔可夫信源,如果为时,为、、的概率为1/3;如果为时,为、、的概率为1/3;如果为时,为、的概率为1/2。而且后面发的概率只与有关,又。 (1)写出转移概率矩阵 (2)计算达到稳定后状态的极限概率。 (3)该马尔可夫信源的极限熵 解 (1) (4分) (2) (3分) (3) 《信息论基础》试卷第1页

文档评论(0)

haihang2017 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档