第3章 信息.docVIP

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第3章 信息

第三章 信息 1.信息的基本概念 ——信息与不确定性—— 定义1.从通信的角度看,信息就是信宿被消除了的不确定性,亦即增加了的确定性。(仙农Shannon) 式中 ——通信前的不确定性的测度 ——通信后仍然存在的不确定性的测度 ——信息与有序性、信息与熵—— 定义2.信息就是负熵。(维纳) 定义3.信息量的概念非常自然地从属于统计力学的一个古典概念——熵。正如一个系统中的信息量是它的组织程度的度量,一个系统的熵就是它的无组织程度的度量;这一个正好是那一个的负数。(维纳) 波尔茨曼的H定理:由于粒子的碰撞作用,函数H将随时间而单调减少,直到系统处于平衡状态。函数H的减少与熵S的增加是同一过程的两种相反的表示方法。H的减少与熵S的增加都表示系统混乱程度的增加。H的增加与S的减少都表示系统有序程度的增加。 S与H的关系: 薛定锷:Negative entropy 负熵 布里渊:negentropy 布里渊的负熵定理: I(信息)=S(熵)的减少 =N(负熵)的增加 ——信息与多样性、变异度—— 定义4:(阿西比)变异度即信息论中所讲的“信息”这一概念。变异度指某一集合中元素的差异程度。 当某一集合只包含同一类元素时,则这一集合是没有差异的,这意味着变异度是0。例如,下列12个元素组成的集合 ,a4 若不计a,b,c三者次序上的差异,则该系统的变异度为3; 若考虑a,b,c三者次序上的差异,则该系统的变异度为12。 ——信息与系统中物质、能量的不均匀分布—— 定义5.消息就是分布在时间上的可量事件的离散的或连续的序列——确切地说,就是统计学家所谓时间序列。(维纳) 定义 6.用来传送信息的消息,它的唯一统计性质,就是脉冲的频率(每秒钟的脉冲数)(V. Neumann 《计算机和人脑》)。 消息是一种周期性或近似周期性的脉冲序列。(V. Neumann 《计算机和人脑》) ——信息与系统和环境的关系—— 定义7:信息这个名称的内容就是我们对外界世界的调解,并使我们的调解为外界所了解,而与外界交换来的东西。(维纳《人有人的用处》) ——信息与物质、能量—— 维纳:信息不是物质,也不是能量。 定义8:信息不能离开物质而独立存在,它是物质的一种特殊属性。 其特点表现在: ——信息是表征一切物质属性(成分、结构、状态、特性、行为、功能)的特殊物质属性。 ——一个系统的信息只能在与其他系统的相互作用中表现出来。 ——信息可从该系统分离出来,转录到称为信息载体的物体上,而不改变原系统。 ——信息可以跨越时间和空间地传送和利用。 ——信息可以转录到载体上,盛载于人造符号之中。它不同于物质与能量,具有不守恒性和共享性。 2.信息论 技术科学层次上关于信息的理论 什么是信息论? 2.1关于信息的理论,研究信息的定义、信息的度量、信息的变换、传输、接收、处理、存储和控制等问题。 2.2信息论的内容 1948年 Shannon, C.E. 《A mathematical theory of communication》 离散的无噪声系统;离散的噪声信道;数学预备知识;连续信道;连续信道的码率。 2.3通讯系统模型 2.4 信息论的科学体系 3.信息度量 3.1信息量的数学表达形式 为什么用对数形式来度量信息? 信息量的两个基本特征。 从一个例子说起: 共有八排和八列。为了找到x的位置需要知道第一个消息:甲在第五排 第二个消息:甲在第四列。 特征一个可能消息中所含信息量是由该消息发生的概率决定的。 甲在第五排的消息中含的信息是由该消息发生的概率1/8决定的 甲在第四列的消息中含的信息是由该消息发生的概率1/8决定的 决定了信息发生概率的函数即 特征消息的信息量具有可加性:若A、B为同时发生的两个独立的消息,则 特征要求将乘积关系转化为加和关系。 问题是函数f取什么样的数学形式才能实现上述要求? 只能选用对数形式,通过对数运算把乘积关系转化为加和关系。这是由哈特莱在1928年提出来的。 于是,自信息的定义是—— 3.2自信息 自信息:一个可能消息中所包含的信息量称为自信息。 定义1可能消息A的自信息记作I(A),规定为 定义2 在给定消息B的条件下,消息A的条件自信息,记作,规定为 3.4互信息 定义3:消息A与B的互信息(既包含于A,又包含于B的信息量),记作,规定为 ——消息A和B同时发生的信息量。 3.5 自信息、条件自信息与互信息的关系 定理:对于任何可能消息A和B,有 互信息 =自信息 - 条件自信息 证明:由互信息定义 4. 仙农熵及其它 仙农熵(信息熵)——整体平均信息量—— 定义1:设有包含n个可能消息的集合X[或用消息向量表示],分别以概率。随机地的发生[常用概率向量表示],形成一个包含N个消息的序

文档评论(0)

asd522513656 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档