- 1、本文档共46页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
[理学]第一部分 绪论及基础知识回顾
现代通信与信息处理 绪 论 课程教学基本情况 教材:《通信原理简明教程》第2版 主要内容 模拟信号的频带传输 模拟信号的数字传输 数字信号的基带传输 数字信号的频带传输 学时:25学时 课程教学基本情况 要求 预习、自学 参考书目: 《通信原理》,樊昌信 《现代通信原理》,曹志刚等编著 《通信原理》,周炯槃等编著 《现代通信基础》,仇佩亮等编著 本章主要内容 通信的基本概念 通信系统的组成及其发展 通信系统及通信方式的分类 信息及其度量 通信解决的主要问题及主要性能指标 一、通信的基本概念 广义的通信:信息的传输和交换,即信息从一地(时间)向另一地(时间)的传递过程。 通信所涉及的元素 信息:能够用于消除不确定性的东西 消息:载荷信息的有次序有规律可识别的状态和现象 信号:消息的物理实现,如电信号 二、通信系统的组成及其发展 通信系统: 为实现信息的传递和交换所需的一切技术设备和传输媒介的总和 通信系统的一般组成模型 1.模拟通信系统与数字通信系统 信号的分类 模拟信号:时间、取值连续 离散信号:时间离散,取值连续 数字信号:时间、取值离散 模拟/数字通信系统的异同 异:处理的信号形式/处理环节不同 同:信道中传输的信号基本为模拟信号 2.模拟通信系统的组成 处理模拟信号 系统组成 3.数字通信系统的组成 处理数字信号 系统组成 4.通信系统的发展 模拟通信系统?数字通信系统 有线通信系统?无线通信系统 点对点通信系统?点对多点通信系统?多点对多点通信系统(通信网) 单纯业务通信系统?多媒体通信系统 三、通信系统的分类 按传输媒介分类 有线通信:电缆通信、光纤通信等 无线通信:微波通信、卫星通信等 按工作波段分类 短波通信 超短波通信 微波通信等 四、通信方式的分类 双工方式 单工方式:通信是单向的 半双工方式:通信是双向的,但不能同时进行 全双工方式:通信是双向的,可以同时进行 同步方式:同步通信、异步通信 数据传输方式:并行传输、串行传输 并行传输 并行传输:将代表信息的数字信号码元序列以成组的方式在两条或两条以上的并行信道上同时传输 优点:节省传输时间,速度快:不需要字符同步措施 缺点:需要 n 条通信线路,成本高 串行传输 串行传输 :将数字信号码元序列以串行方式一个码元接一个码元地在一条信道上传输 优点:只需一条通信信道,节省线路铺设费用 缺点:速度慢,需要外加码组或字符同步措施 五、信息及其度量 事件x中包含的信息量Ix与P(x)有关 Ix=I[P(x)] 信息量Ix与P(x)应满足如下关系 P(x)越小, Ix越大; P(x)=1时, Ix=0; P(x)=0时, Ix=∞; 若干相互独立事件构成的消息所含信息量等于各独立事件信息量之和 Ix1,x2…= Ix1+ Ix2+… 信息量与事件概率的关系 信息量的单位 a=2:比特(bit) a=e:奈特(nat) a=10:哈特莱(hartley) 平均信息量/信源的熵 第1章 绪论 上式中对数的底: 若a = 2,信息量的单位称为比特(bit) ,可简记为b 若a = e,信息量的单位称为奈特(nat), 若 a = 10,信息量的单位称为哈特莱(Hartley) 。 通常广泛使用的单位为比特,这时有 (b) 第1章 绪论 【例1】 设一个二进制离散信源,以相等的概率发送数字“0”或“1”,则信源每个输出的信息含量为 在工程应用中,习惯把一个二进制码元称作1比特 第1章 绪论 若有M个等概率波形(P = 1/M),且每一个波形的出现是独立的,则传送M进制波形之一的信息量为 若M是2的整幂次,即 M = 2k,则有 当M = 4时,即4进制波形,I = 2比特, 当M = 8时,即8进制波形,I = 3比特。 第1章 绪论 对于非等概率情况 设:一个离散信源是由M个符号组成的集合,其中每个符号xi (i = 1, 2, 3, …, M)按一定的概率P(xi)独立出现,即 且有 则x1 , x2, x3,…, xM 所包含的信息量分别为 第1章 绪论 每个符号所含平均信息量为 由于H(x)同热力学中的熵形式相似,故称它为信息源的熵 第1章 绪论 【例2】 一离散信源由“0”,“1”,“2”,“3”四个符号组成,它们出现的概率分别为3/8,1/4,1/4,1/8,且每个符号的出现都是独立的。试求某消息2010201302130 01203210100321010023102002010312032100120210的信息量。 【解】此消息中,“0”出现23次,“1”出现14次,“2”出现13次,“3”出
文档评论(0)