- 1、本文档共13页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
uestc信息编码与加密第二章信息论基本概念
第二章 信息论的基本概念 第一节 信源的描述和分类 第二节 离散信源的信息论概念 第三节 离散信源的熵 第一节 信源的描述和分类 一、香农信息论的基本出发点 用随机变量或随机矢量来表示信源,运用概率论和随机过程的理论来研究信息。 二、信源的分类 按照信源发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源两大类 { 信源 离散信源 连续信源 连续信源 连续信源是指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。 离散信源 离散信源是指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。 离散信源 { 离散无记忆信源 离散有记忆信源 { { 发出单个符号的无记忆信源 发出符号序列的无记忆信源 发出符号序列的有记忆信源 发出符号序列的马尔可夫信源 离散无记忆信源 离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。 离散有记忆信源 离散有记忆信源所发出的各个符号的概率是有关联的。 发出单个符号的信源 发出单个符号的信源是指信源每次只发出一个符号代表一个消息; 发出符号序列的信源 发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。 发出符号序列的有记忆信源 发出符号序列的有记忆信源是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。 发出符号序列的马尔可夫信源 发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。 三、先验概率及概率空间的形式 符号 的先验概率 一个离散信源发出的各个符号消息的集合为 ,它们的概率分别为 为符号 的先验概率。通常把它们写到一起,称为概率空间 显然有 问题: 什么叫自信息量? 什么叫不确定度? 什么叫互信息量? 什么叫平均自信息量? 什么叫条件熵? 什么叫联合熵? 联合熵、条件熵和熵的关系是什么? 熵的性质有哪些? 什么叫平均互信息量? 什么叫信源熵?如何计算离散信源熵? 第二节 离散信源的信息论概念 定义:一个随机事件的自信息量定义为其出现概率对数的负值。即: (一) 自信息量 自信息量 a. 因为概率 越小, 的出现就越稀罕,一旦出现,所获得的信息量也就较大。由于 是随机出现的,它是X的一个样值,所以是一个随机量。而 是 的函数,它必须也是一个随机量。 说明: 自信息量的单位的确定 在信息论中常用的对数底是2,信息量的单位为比特(bit),用log2或lb表示; 若取自然对数,则信息量的单位为奈特(nat),用loge或ln表示; 若以10为对数底,则信息量的单位为哈脱莱(Hartley),用log10或lg表示。 这三个信息量单位之间的转换关系如下: 1 nat=log2e l.433 bit, l Hartley =log210 3.322 bit 几个例子: i. 一个以等概率出现的二进制码元(0,1)所包含的自信息量为: I(0)= I(1)= - log2 (1/2)=log22=1 bit 若是一个m位的二进制数,因为该数的每一位可从0, 1两个数字中任取一个,因此有2m个等概率的可能组合。所以I= -log2(1/2m)=m bit,就是需要m比特的信息来指明这样的二进制数。 iii.英文字母中“e” 出现的概率为0.105,“c”出现的概率为0.023,“o”出现的概率为0.001。分别计算它们的自信息量。 解:“e”的自信息量 I(e)= - lb0.105=3.25 bit “c”的自信息量 I(c)= -lb0.023=5.44 bit “o”的自信息量 I(o)= -lb 0.001=9.97 bit 定义:随机事件的不确定度在数量上等于它的自信息量. 说明: 两者的单位相同,但含义却不相同。 具有某种概率分布的随机事件不管发生与否,都存在不确定度,不确定度表征了该事件的特性,而自信息量是在该事件发生后给予观察者的信息量。 不确定度 一个出现概率接近于1的随机事件,发生的可能性很大,所以它包含的不确定度就很小; 反之,一个出现概
您可能关注的文档
- SPC基本原理和Cpk改善.ppt
- SPSS在社会统计中的应用.ppt
- Spry框架.ppt
- SPSS数据分析教程数据文件的建立和管理.ppt
- SPSS入门讲义.ppt
- SPSS语法.ppt
- SPSS的双因子ANOVA.ppt
- SPSS行业应用实例医学分析.ppt
- spss使用教程ppt.ppt
- spss数据的编码录入与整理.ppt
- 北师大版小学数学三年级上册《寄书》教学设计.docx
- 统编版(部编版)语文二年级上册《雪孩子》教学设计.docx
- 统编版(部编版)语文二年级上册《八角楼上》教学设计.docx
- 北师大版小学数学三年级上册《长方形周长》教学设计.docx
- 北师大版小学数学三年级上册《丰收了》教学设计.docx
- 统编版(部编版)语文二年级上册《夜宿山寺》教学设计.docx
- 统编版(部编版)语文二年级上册《风娃娃》教学设计.docx
- 统编版(部编版)语文二年级上册《朱德的扁担》教学设计.docx
- 统编版(部编版)语文二年级上册《难忘的泼水节》教学设计.docx
- 统编版(部编版)语文二年级上册《纸船和风筝》教学设计.docx
最近下载
- 教师资格综合素质教育观-案例分析题应用 .pdf VIP
- 2023年普通高等学校招生全国统一考试化学试卷 辽宁卷(参考版)(无答案精品.pdf VIP
- 十年(2015-2024)高考真题数学分项汇编(全国通用)专题01 集合与常用逻辑用语(教师卷).pdf
- 数控机床机械系统装调与维修一体化教程 教学课件 作者 韩鸿鸾 数控机床机械系统装调与维修一体化教程教案_4 3模块四.doc VIP
- 2024学年度第一学期小学道德与法治五年级上册教学计划附教学进度.pdf VIP
- 2023年期货从业资格之期货投资分析通关考试题库带答案解析 .pdf VIP
- 总结好句好段的摘抄PPT.pptx
- 信息社会的未来发展 课件高中信息技术教科版(2019)必修2.pptx VIP
- 人教版高中地理必修1“地球上的水”教材分析及教学建议.pdf
- 北京交通大学2023年891通信原理考研真题及答案.pdf
文档评论(0)