第八章 数字媒体压缩技术-许昌网站建设_许昌网络营销_许昌seo1.ppt

第八章 数字媒体压缩技术-许昌网站建设_许昌网络营销_许昌seo1.ppt

  1. 1、本文档共59页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
第八章 数字媒体压缩技术 华中师范大学 清华大学出版社 第八章 数字媒体压缩技术 8.1数据压缩及分类 8.1.1压缩的可能性与信息冗余 8.1.2数据压缩分类 8.2通用的数据压缩技术 8.2.1编码的理论基础 8.2.2霍夫曼编码 8.2.3行程编码 8.2.4词典编码 8.2.5脉冲编码调制 8.2.6增量调制(DM) 8.2.7差分脉冲编码调制 第八章 数字媒体压缩技术 8.3数字媒体压缩标准 8.3.1声音压缩标准 8.3.2图像压缩标准 8.3.3运动图象压缩标准 8.3.3.1 MPEG标准 8.3.3.2 H.26X系列视频标准 8.3.3.3 AVS标准 8.1.1压缩的可能性与信息冗余 数据能够被压缩的主要原因在于媒体数据中存在数据的信息冗余。信息量包含在数据之中,一般的数据冗余主要体现在: 空间冗余 结构冗余 时间冗余 视觉冗余 知识冗余 信息熵冗余 数据压缩分类 按信息压缩前后比较是否有损失进行划分 按信息压缩前后比较是否有损失,可以划分有损压缩和无损压缩 。 无损压缩指使用压缩后的数据进行重构,重构后的数据与原来的数据完全相同。常用的无损压缩算法有霍夫曼(Huffman)算法和LZW算法 。 有损压缩是指使用压缩后的数据进行重构,重构后的数据与原来的数据有所不同,但不影响人对原始资料表达的信息造成误解。 按数据压缩编码的原理和方法进行划分 按数据压缩编码的原理和方法可划分为 统计编码,主要针对无记忆信源,根据信息码字出现概率的分布特征而进行压缩编码,寻找概率与码字长度间的最优匹配。 预测编码是利用空间中相邻数据的相关性来进行压缩数据的。 变换编码是将图像时域信号转换为频域信号进行处理。 分析—合成编码是指通过对源数据的分析,将其分解成一系列更适合于表示的“基元”或从中提取若干更为本质意义的参数,编码仅对这些基本单元或特征参数进行。 按照媒体的类型进行压缩划分 图像压缩标准 声音压缩标准 运动图象压缩标准 8.2通用的数据压缩技术 通用的数据压缩技术: 行程编码 字典编码 熵编码等 PCM DM DPCM 通用的压缩方法具有压缩比低、通用性强等特点 8.2.1编码的理论基础 数据压缩技术的理论基础是信息论。 根据信息论的原理,可以找到最佳数据压缩编码方法,数据压缩的理论极限是信息熵。 熵是信息量的度量方法,它表示某一事件出现的消息越多,事件发生的可能性就越小,数学上就是概率越小。 信息与信息量 信息量是指信源中某种事件的信息度量或含量。一个事件出现的可能性愈小,其信息量愈多,反之亦然。 若pi为第i个事件的概率为0≤ pi ≤1,则该事件的信息量为 一个信源包括的所有数据叫数据量,而数据量中包含有冗余信息。 信息量 = 数据量-冗余量 信息熵 信息熵就是将信源所有可能事件的信息量的平均。 设从N个数中选定任一个数xj的概率为p(xj),假定选定任意一个数的概率都相等,即p(xj) =1/N,则 I(xj)=log2N=-log2 1/N =-log2p(xj)=I[p(xj)] 上式中,p(xj)是信源X发出xj的概率。I(xj)的含义是信源X发出xj这个消息(随机事件)后,接收端收到信息量的量度。 信息熵(续) 信源X发出的xj(j=1,2,…,n)共n个随机事件的信息量的统计平均,即 H(X)=E{I(xj)}= H(X)称为信源X的“熵”,即信源X发出任意一个随机变量的平均信息量。 其中,等概率事件的熵最大,假设有N个事件,此时熵为: H(X)= = 信息熵(续) 当P(x1)=1时,P(x2)=P(x3)=…=P(xj)=0,此时熵为 H(X)=- P(x1) =0 由上可得熵的范围为: 0≤ H(X) ≤ 信息熵(续) 在编码中用熵值来衡量是否为最佳编码。若以Lc表示编码器输出码字的平均码长,其计算公式为: Lc= (j=1,2,…,n) 其中:P(xj) 是信源X发出xj的概率,L(xj)为xj的编码长。 信息熵(续) 平均码长与信息熵之间的关系为: Lc≥H(X) 有冗余,不是最佳。 Lc < H(X)不可能。 Lc = H(X)最佳编码( Lc稍大于H(X) ) 熵值为平均码长Lc的下限。 8.2.2霍夫曼编码 霍夫曼编码(Huffman)是运用信息熵原理的一种无损编码方法,这种编码方法根据源数据

文档评论(0)

资料 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档