网站大量收购独家精品文档,联系QQ:2885784924

第章通信原理稿件教材讲义.ppt

  1. 1、本文档共28页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
通信原理 通信原理 第1章 绪论 第1章 绪论 接收设备:从受到减损的接收信号中正确恢复出原始电信号。 受信者(信宿):把原始电信号还原成相应的消息,如扬声器等。 第1章 绪论 1.2.2 模拟通信系统模型和数字通信系统模型 模拟信号和数字信号 模拟信号:代表消息的信号参量取值连续,例如麦克风输出电压: 第1章 绪论 数字信号:代表消息的信号参量取值为有限个,例如电报信号、计算机输入输出信号: 通常,按照信道中传输的是模拟信号还是数字信号,相应地把通信系统分为模拟通信系统和数字通信系统。 第1章 绪论 模拟通信系统模型 模拟通信系统是利用模拟信号来传递信息的通信系统: 两种变换: 模拟消息  原始电信号(基带信号) 基带信号  已调信号(带通信号) 第1章 绪论 数字通信系统模型 数字通信系统是利用数字信号来传递信息的通信系统 信源编码与译码目的: 提高信息传输的有效性 完成模/数转换 信道编码与译码目的:增强抗干扰能力 加密与解密目的:保证所传信息的安全 数字调制与解调目的:形成适合在信道中传输的带通信号 同步目的:使收发两端的信号在时间上保持步调一致 第1章 绪论 1.2.3 数字通信的特点 优点 抗干扰能力强,且噪声不积累 传输差错可控 便于处理、变换、存储 便于将来自不同信源的信号综合到一起传输 易于集成,使通信设备微型化,重量轻 易于加密处理,且必威体育官网网址性好 缺点: 需要较大的传输带宽 对同步要求高 第1章 绪论 1.3 通信系统分类与通信方式 1.3.1 通信系统的分类 按通信业务分类:电报通信系统、电话通信系统、数据通信系统、图像通信系统 … … 按调制方式分类:基带传输系统和带通(调制)传输系统 调制传输系统又分为多种调制,详见书中表1-1。 按信号特征分类:模拟通信系统和数字通信系统 按传输媒介分类:有线通信系统和无线通信系统 按工作波段分类:长波通信、中波通信、短波通信 … … 按信号复用方式分类:频分复用、时分复用、码分复用 第1章 绪论 1.4 信息及其度量 信息:是消息中包含的有效内容 如何度量离散消息中所含的信息量? 度量信息量的原则 能度量任何消息,并与消息的种类无关。 度量方法应该与消息的重要程度无关。 消息中所含信息量和消息内容的不确定性有关 【例】 “某客机坠毁”这条消息比“今天下雨”这条消息包含有更多的信息。 上例表明: 消息所表达的事件越不可能发生,信息量就越大。 第1章 绪论 度量信息量的方法 事件的不确定程度可以用其出现的概率来描述: 消息出现的概率越小,则消息中包含的信息量就越大。 设:P(x) - 消息发生的概率, I - 消息中所含的信息量, 则 P(x) 和 I 之间应该有如下关系: I 是 P(x) 的函数: I =I [P(x)] P(x) ,I  ; P(x)  ,I ; P(x) = 1时,I = 0; P(x) = 0时,I = ; 满足上述3条件的关系式如下: -信息量的定义 第1章 绪论 上式中对数的底: 若a = 2,信息量的单位称为比特(bit) ,可简记为b 若a = e,信息量的单位称为奈特(nat), 若 a = 10,信息量的单位称为哈特莱(Hartley) 。 通常广泛使用的单位为比特,这时有 (b) 【例】 设一个二进制离散信源,以相等的概率发送数字“0”或“1”,则信源每个输出的信息含量为 在工程应用中,习惯把一个二进制码元称作1比特 第1章 绪论 若有M个等概率波形(P = 1/M),且每一个波形的出现是独立的,则传送M进制波形之一的信息量为 若M是2的整幂次,即 M = 2k,则有 当M = 4时,即4进制波形,I = 2比特, 当M = 8时,即8进制波形,I = 3比特。 第1章 绪论 对于非等概率情况 设:一个离散信源是由M个符号组成的集合,其中每个符号xi (i = 1, 2, 3, …, M)按一定的概率P(xi)独立出现,即 且有 则x1 , x2, x3,…, xM 所包含的信息量分别为 于是,每个符号所含平均信息量为 由于H(x)同热力学中的熵形式相似,故称它为信息源的熵 第1章 绪论 【例1】 一离散信源由“0”,“1”,“2”,“3”四个符号组成,它们出现的概率分别为3/8,1/4,1/4,1/8,且每个符号的出现都是独立的。试求某消息2010201302130 01203210100321010023102002010312032100120210的信息量。 【解】此消息中,“0”出现23次,“1”出现14次,“2”出现13次,“3”出现7次,共

文档评论(0)

youngyu0329 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档