- 1、本文档共60页,可阅读全部内容。
- 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
TD-LTE系统中先进信道估计算法的研究与实现
中图分类号: 密 级:
UDC: 本校编号:
硕 士 学 位 论 文
论文题目:TD-LTE系统中先进信道估计算法的研究与实现
研究生姓名: 王奕 学号:0207462
学校指导教师姓名: 王晓明 职称: 教授
申请学位等级: 工程硕士 专业: 交通信息工程及控制
论文提交日期: 论文答辩日期: 2010年6月5日
独创性声明
本人声明所呈交的学位论文是本人在导师指导下进行的研究工作和取得的研究成果,除了文中特别加以标注和致谢之处外,论文中不包含其他人已经发表或撰写过的研究成果,也不包含获得 兰州交通大学 或其他教育机构的学位或证书而使用过的材料。与我一同工作的同志对本研究所做的任何贡献均已在论文中作了明确的说明并表示了谢意。
学位论文作者签名: 签字日期: 年 月 日
学位论文版权使用授权书
本学位论文作者完全了解 兰州交通大学 有关保留、使用学位论文的规定。特授权 兰州交通大学 可以将学位论文的全部或部分内容编入有关数据库进行检索,并采用影印、缩印或扫描等复制手段保存、汇编以供查阅和借阅。同意学校向国家有关部门或机构送交论文的复印件和磁盘。
(必威体育官网网址的学位论文在解密后适用本授权说明)
学位论文作者签名: 导师签名:
签字日期: 年 月 日 签字日期: 年 月 日
硕 士 学 位 论 文
TD-LTE系统中先进信道估计算法的研究与实现
The research and implementation of advanced channel estimation algorithm in TD-LTE system
作 者 姓 名: 王奕
学科、专业 : 交通信息工程及控制
学 号 : 0207462
指 导 教 师: 王晓明
完 成 日 期: 2010年4月
兰 州 交 通 大 学
Lanzhou Jiaotong University
摘 要
在第3代移动通信技术逐渐成熟的今天,作为3G的后续演进,3GPP LTE(Long Term Evolution)无疑引起了人们更为强烈的关注。LTE技术也达到了与宽带无线接入技术相融合的效果。其目标在于降低时延、提高用户的数据率、增大系统容量、覆盖范围以及降低运营成本等,并提出了未来在20MHz带宽上达到瞬时峰值下行100MbPs以及上行50MbPs的目标。
因此,LTE技术得到了空前的关注。由于在3GPP 36系列的协议中规定了导频的构造方式却没有规定具体使用的信道估计方法,使得在LTE(包括TDD和FDD)系统中所应用的信道估计算法研究成为了近年来无线通信研究领域的一个热点。
本文主要研究经典的信道估计算法,并利用仿真平台进行仿真与性能分析。
首先,对LTE系统作了简要的介绍。由于LTE系统支持TDD与FDD两种模式,而两种模式下实现信道估计的基础不同,因此根据协议,对两种模式分别做了简单描述,并分析了两种模式的不同,还针对TD-LTE系统(即TDD模式),介绍了信道估计算法仿真所需的物理层系统模型以及信道模型。
其次,在前面的协议介绍的基础上回顾了现有的一些信道估计方法,包括基于频域处理和基于DFT的信道估计算法。基于频域处理的信道估计算法主要包括LS算法和频域平均滤波去噪算法;基于DFT的信道估计算法主要包括时域厥值判决滤波算法和频域加窗算法。并分析了这些算法的有缺点以及它们在LTE系统中的适用性。
在以上大量理论研究的基础上提出了一种新的基于经验模态分解(EMD)的频域拟合窗信道估计算法。并利用TD-LTE的仿真平台,验证了新算法相对于现有算法在性能方面的提高,还讨论了其硬件实现的可行性。并对几种信道估计算法进行了实际系统中的DSP实现。
最后对算法研究的前景作出了结论性的展望。
关键词:TD-LTE系统;信道估计;经验模态分解
论文类型:应用研究
Abstract
Recently, the 3rd generation mobile communication technology is maturing, as the foll
文档评论(0)