- 1、本文档共15页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
“信息论与编码”复习
1.消息、信号、信息的含义、定义及区别。
信息是指各个事物运动的状态及状态变化的方式。
消息是指包含信息的语言,文字和图像等。
信号是消息的物理体现。
消息是信息的数学载体、信号是信息的物理载体
信号:具体的、物理的
消息:具体的、非物理的
信息:非具体的、非物理的
同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。同样,同一类型信号或消息也可以代表不同内容的信息
2.信息的特征与分类。
1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容;
2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识;
3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理;
4信息是可以量度的,信息量有多少的差别。
3.狭义信息论、广义信息论、一般信息论研究的领域。
狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。
广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。
概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量
4.信息论的起源、历史与发展。
1924年,Nyquist提出信息传输理论;
1928年,Hartly提出信息量关系;
1932年,Morse发明电报编码;
1946年,柯切尼柯夫提出信号检测理论;
1948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。
5.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。
信源的核心问题是它包含的信息到底有多少,怎样将信息定量地表示出来,即如何确定信息量。
信宿需要研究的问题是能收到或提取多少信息。
信道的问题主要是它能够传送多少信息,即信道容量的多少。
6.通信的目的?要解决的最基本问题?通信有效性的概念。提高通信有效性的最根本途径?通信可靠性的概念。提高通信可靠性的最根本途径?通信安全性的概念,提高通信安全性的最根本途径?
通信系统的性能指标主要是有效性,可靠性,安全性和经济性。通信系统优化就是使这些指标达到最佳。
从提高通信系统的有效性意义上说,信源编码器的主要指标是它的编码效率,即理论上所需的码率与实际达到的码率之比。提高通信有效性的最根本途径是信源编码。减少冗余。
提高可靠性:信道编码。增加冗余。
提高安全性:加密编码。
7.随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义?
信源符号不确定度:具有某种概率的信源符号在发出之前,存在不确定度,不确定度表征该符号的特性。符号的不确定度在数量上等于它的自信息量,两者的单位相同,但含义不同:
?不确定度是信源符号固有的,不管符号是否发出;
?自信息量是信源符号发出后给予收信者的;
?为了消除该符号的不确定度,接受者需要获得信息量。
自信息量
条件自信息量:
联合自信息量:
8.信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。
自信息量指的是该符号出现后,提供给收信者的信息量。
9. 各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。
信源熵:
条件熵:
疑义度:
噪声熵:
联合熵:
10. 信源熵的基本性质与定理及其理解?
?熵的性质
??对称性
??非负性
??确定性
??香农辅助定理
??最大熵定理
??条件熵小于无条件熵
信源熵和平均自信息量两者在数值上是相等的,但含义并不同。信源熵表征信源的平均不确定度,平均自信息量是消除信源不确定度所需要的信息的量度。
信源熵是在平均意义上来表征信源的总体特性,它是信源X的函数,而X是指随机变量的整体(包括概率空间)。信源给定,概率空间就给定,信源熵就是一个确定值。
小结:信源熵H(X)的三种物理含义:
??表示信源输出后,每个离散消息所提供的平均信息量。
??表示信源输出前,信源的平均不确定度。
??反映了变量X的随机性。
11. 平均互信息量的定义及物理意义?疑义度及噪声熵?
12. 平均互信息量的性质及理解?
13. 平均互信息量关于信源概率和信道转移概率的凸性定理。
14. 最大离散熵定理及理解。
16. 数据处理定理及其含义。
17. 信源的种类(详细分类)?各举出几个例子。
按时间和幅度
文档评论(0)