腾讯-1.4亿在线背后的故事b.ppt

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
腾讯-1.4亿在线背后的故事b.ppt腾讯-1.4亿在线背后的故事b.ppt腾讯-1.4亿在线背后的故事b.ppt

腾讯大讲堂走进北航 2011.10.31 D 1.4亿在线背后的故事(2) 腾讯科技(深圳)有限公司 即通平台部高级技术总监 icezhuang ——QQ IM后台架构的演化与启示 目录 从十万级到百万级在线 千万级在线 亿级在线 总结 随着亿时代的接近,新烦恼又来了 灵活性: “昵称”长度增加一半,需要两个月 增加“故乡”字段,需要两个月 最大好友数从500变成1000,需要三个月 亿时代的重要能力: 上万好友 隐私权限控制 PC QQ与手机QQ别互踢 微信与QQ互通 异地容灾 IM后台从1.0到3.5都是在原来基础上做改造升级,但是: 持续打补丁已经难以支撑亿级在线 IM后台4.0必须从头开始,重新设计实现! 太差! 想都别想! IM后台4.0存储系统 架构 IM后台4.0存储系统 运维页面 IM后台4.0存储系统 成果 历时3年完成 千万级好友 隐私权限控制 灵活扩展字段 高可运维性 运维操作组件化 负载自动转移 高性能 自写存储层 IM后台4.0通信系统 逻辑架构 IM后台4.0通信系统 物理架构 IM后台4.0通信系统 运维页面 IM后台4.0通信系统 阶段成果 历时2+年完成 多点登录 支持5至10亿个实例同时在线 方便接入微信等多种业务 区域自治 高可运维性 物理架构详细到机架 故障分析智能化 启示:亿级在线的关键技术 提供高灵活性的业务支持 传统IT行业可以半年到两年出一个新版本 互联网行业要求每个月出一个新版本 同时保持高性能、高可用性、高可运维性 高性能;高可用性;高可运维性;高灵活性 腾讯IM服务的未来之路 全球化分布 高效率的研发 监控告警的智能化 目录 从十万级到百万级在线 千万级在线 亿级在线 总结 QQ IM后台技术演化的启示 1.0十万级、2.0百万级 高性能;7乘24小时连续服务 3.0千万级 高可用性;高可运维性 4.0亿级 高性能;高可用性;高可运维性;高灵活性 QQ IM后台技术演化的启示 只实现功能,不难 高性能/低成本 高可用性 高可运维性 高灵活性 很难! 在线量每提升一个量级,技术难度也提升一个量级 7亿活跃账户 1.4亿同时在线 过万台IM服务器 百亿级的关系链对数 每天千亿级的服务请求 99.99%的可用性 团队经历了QQ在线从10万到1.4亿的整个过程,吸取了很多教训 对海量服务的理解是长期积累的结果 互联网与传统IT行业区别很大 互联网行业有自己的技术规律,需要做自己的技术积累 传统IT行业 互联网行业 ARPU 数十元 低于三元 IT成本的重要性 只占总成本的不到10% 占总成本的大部分 设备数量与单价 数量少单价高 数量多单价低 设备故障 极少 常态 对延迟的忍耐度 较高 很低 对数据错误的忍耐度 万无一失 万有一失 版本更新速度 半年以上 一个月左右 腾讯在海量服务方面的技术积累和总结: 《海量服务之道》系列课程 Set模型 全网调度 灰度升级 过载保护 立体监控 自动部署 柔性可用 大系统做小 先扛住再优化 边重构边生活 干干净净 有损服务 动态运营

文档评论(0)

wuyoujun92 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档