您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 亿级用户下的新浪微博平台架构

  2. 该文档详细的介绍亿级用户下的新浪微博平台架构、微博平台的技术挑战、微博平台架构演变与第三代技术架构体系、atchman-分布式服务追踪系统、Feed多级双机房缓存系统
  3. 所属分类:互联网

    • 发布日期:2015-03-22
    • 文件大小:838kb
    • 提供者:qazaaaaa
  1. 亿级用户下的新浪微博平台架构

  2. 亿级用户下的新浪微博平台架构
  3. 所属分类:Java

    • 发布日期:2017-07-06
    • 文件大小:838kb
    • 提供者:luojianwen
  1. 亿级用户下的新浪微博平台架构

  2. 竟然不能发布无需下载分的 文档,亿级用户下的新浪微博平台架构 非完整版
  3. 所属分类:其它

    • 发布日期:2017-10-19
    • 文件大小:838kb
    • 提供者:youlianying
  1. 亿级用户下陌陌存储中间件架构实践

  2. 亿级用户下陌陌存储中间件架构实践
  3. 所属分类:Java

    • 发布日期:2018-08-28
    • 文件大小:4mb
    • 提供者:karsajim
  1. 支付宝应对春节亿级用户红包发送的技术架构

  2. 支付宝应对春节亿级用户红包发送的技术架构
  3. 所属分类:Java

    • 发布日期:2018-12-27
    • 文件大小:2mb
    • 提供者:juneher
  1. 如何为全球 15 亿级用户产品保驾护航.pdf

  2. 北京技术峰会,如何为全球 15 亿级用户产品保驾护航。
  3. 所属分类:平台管理

  1. 亿级用户下的新浪微博平台架构

  2. 该文档详细的介绍亿级用户下的新浪微博平台架构、微博平台的技术挑战、微博平台架构演变与第三代技术架构体系、atchman-分布式服务追踪系统、Feed多级双机房缓存系统
  3. 所属分类:互联网

    • 发布日期:2019-08-13
    • 文件大小:651kb
    • 提供者:zhang3387405
  1. 亿级单库分表算法设计方案.rar

  2. 此方案针对大数据优化用户 对单表数据爆炸是个很好的解决方案 经过实战锤炼的 如果大家想要代码可以联系本人 本人可以根据用户需求制定对应的策略提供有偿算法方案和代码
  3. 所属分类:Java

    • 发布日期:2020-03-05
    • 文件大小:2mb
    • 提供者:huangjian1174
  1. 基于Flink流处理的动态实时亿级全端用户画像系统.rar

  2. 分享课程——基于Flink流处理的动态实时亿级全端用户画像系统,本课程基于真实的大型电商系统场景下讲解的用户画像系统,本系统采用第四代计算引擎Flink,同时采用微服务架构Spring Boot+Spring Cloud 架构 ,前端采用Vue.js+Node.js架构,完全符合目前企业级的使用标准。
  3. 所属分类:flink

    • 发布日期:2020-09-04
    • 文件大小:412byte
    • 提供者:atipa
  1. 徐汉彬:亿级Web系统搭建——单机到分布式集群(一)

  2. 随着数据暴增,单服务器开始疲于应对海量用户的访问。自本期《问底》,徐汉彬将带大家开启异地跨集群分布式系统打造,本次关注的重点则是架构从单机到分布式集群的转变。徐汉彬曾在*和腾讯从事4年多的技术研发工作,负责过日请求量过亿的Web系统升级与重构,目前在小满科技创业,从事SaaS服务技术建设。 大规模流量的网站架构,从来都是慢慢“成长”而来。而这个过程中,会遇到很多问题,在不断解决问题的过程中,Web系统变得越来越大。并且,新的挑战又往往出现在旧的解决方案之上。希望这篇文章能够为技术人员提供一
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:251kb
    • 提供者:weixin_38576922
  1. 抗住日均千亿级消息的实时计算引擎在贝壳的应用实践

  2. 贝壳找房目前有1000多人的产品技术团队。从实时数据应用角度,公司内主要应用的实时数据,一个是线上的日志,大概有两千多个线上的服务,每个服务又输出了很多的日志,日志数据是流式数据应用最多的。第二部分就是埋点,在APP、web端上报的经纪人作业情况和C端用户的行为,这部分通过前端的埋点技术上报。第三部分就是业务的数据,业务用kafka做消息队列产生的实时数据。1、流式计算平台平台目前主要建设SparkStreaming、Flink两种在实时计算中比较常见的计算引擎。平台化的背景就是早期如果公司内有
  3. 所属分类:其它

  1. 徐汉彬:亿级Web系统搭建—单机到分布式集群

  2. 当一个Web系统从日访问量10万逐步增长到1000万,甚至超过1亿的过程中,Web系统承受的压力会越来越大,在这个过程中,我们会遇到很多的问题。为了解决这些性能压力带来问题,我们需要在Web系统架构层面搭建多个层次的缓存机制。在不同的压力阶段,我们会遇到不同的问题,通过搭建不同的服务和架构来解决。Web负载均衡(LoadBalancing),简单地说就是给我们的服务器集群分配“工作任务”,而采用恰当的分配方式,对于保护处于后端的Web服务器来说,非常重要。负载均衡的策略有很多,我们从简单的讲起哈
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:404kb
    • 提供者:weixin_38731199
  1. 万亿级日志与行为数据存储查询技术剖析

  2. 近些年,大数据背后的价值也开始得到关注和重视,越来越多的企业开始保存和分析数据,希望从中挖掘大数据的价值。大数据产生的根本还是增量数据,单纯的用户数据不足以构成大数据,然而用户的行为或行为相关的日志的数据量,加之随着物联网的发力,产生的增量数据将不可预估,存储和查询增量数据尤为关键。所以,在笔者的工作经历中,本着以下的目标,寻找更优的大数据存储和查询方案:数据无损:数据分析挖掘都依赖于我们保存的数据,只有做到数据的无损,才有可能任意的定义指标,满足各种业务需求。保证数据实时性:数据的实时性越来越
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:242kb
    • 提供者:weixin_38685538
  1. 百亿级日志系统架构设计及优化

  2. 本文来自于51CTO技术栈,日志数据是最常见的一种海量数据,以拥有大量用户群体的电商平台为例,双11大促活动期间,它们可能每小时的日志数量达到百亿规模,海量的日志数据暴增,随之给技术团队带来严峻的挑战。本文将从海量日志系统在优化、部署、监控方向如何更适应业务的需求入手,重点从多种日志系统的架构设计对比;后续调优过程:横向扩展与纵向扩展,分集群,数据分治,重写数据链路等实际现象与问题展开。有过项目开发经验的朋友都知道:从平台的最初搭建到实现核心业务,都需要有日志平台为各种业务保驾护航。如上图所示,
  3. 所属分类:其它

  1. 10年大数据架构师:日访问百亿级,如何架构并优化日志系统?

  2. 日志数据是最常见的一种海量数据,以拥有大量用户群体的电商平台为例,双11大促活动期间,它们可能每小时的日志数量达到百亿规模,海量的日志数据暴增,随之给技术团队带来严峻的挑战。本文将从海量日志系统在优化、部署、监控方向如何更适应业务的需求入手,重点从多种日志系统的架构设计对比;后续调优过程:横向扩展与纵向扩展,分集群,数据分治,重写数据链路等实际现象与问题展开。有过项目开发经验的朋友都知道:从平台的最初搭建到实现核心业务,都需要有日志平台为各种业务保驾护航。如上图所示,对于一个简单的日志应用场景,
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:706kb
    • 提供者:weixin_38614417
  1. 亿级流量系统架构之如何设计承载百亿流量的高性能架构

  2. 我们面对的是日益增多和复杂的各种业务系统,我们面对的是不断增加的系统用户,我们面对的是即将迎来每天百亿级的高并发流量。给大家先说下当时的系统部署情况,数据库那块一共部署了8主8从,也就是16台数据库服务器,每个库都是部署在独立的数据库服务器上的,而且全部用的是物理机,机器的配置,如果没记错的话,应该是32核+128G+SSD固态硬盘。为啥要搞这么多物理机,而且全部都是高配置呢?不知道大家发现没有,目前为止,我们最大的依赖就是MySQL!之前给大家解释过,在当时的背景下,我们要对涌入的亿级海量数据
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:853kb
    • 提供者:weixin_38636763
  1. 58集团面向亿级用户IM长连接服务设计与实践

  2. 微聊,是58一款聊天工具,目前已经接入58的大部分产品。及时准确数据传输,是对一款聊天工具最基本的要求。长连接服务就是在客户端到服务端之间建立一条全双工的数据通路,实现客户端和服务之间逻辑收发数据,在线离线等功能。长连接服务在整个微聊系统中,位于客户端与后台逻辑之间;整个后台服务最重要的直接对外接口之一(另一个是短连接请求的nginx);长连接服务对外和对内的均采用tcp连接。长连接服务主要功能是收发数据,保持在线,使用的系统资源主要包括:CPU,内存,网卡;当连接非常活跃的时候,大量数据接收与
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:455kb
    • 提供者:weixin_38712874
  1. 亿级用户下的新浪微博平台架构

  2. 新浪微博在2014年3月公布的月活跃用户(MAU)已经达到1.43亿,2014年新年第一分钟发送的微博达808298条,如此巨大的用户规模和业务量,需要高可用(HA)、高并发访问、低延时的强大后台系统支撑。微博平台第一代架构为LAMP架构,数据库使用的是MyIsam,后台用的是php,缓存为Memcache。随着应用规模的增长,衍生出的第二代架构对业务功能进行了模块化、服务化和组件化,后台系统从php替换为Java,逐渐形成SOA架构,在很长一段时间支撑了微博平台的业务发展。在此基础上又经过长时
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:284kb
    • 提供者:weixin_38744207
  1. 亿级流量系统架构之如何设计承载百亿流量的高性能架构

  2. 我们面对的是日益增多和复杂的各种业务系统,我们面对的是不断增加的系统用户,我们面对的是即将迎来每天百亿级的高并发流量。给大家先说下当时的系统部署情况,数据库那块一共部署了8主8从,也就是16台数据库服务器,每个库都是部署在独立的数据库服务器上的,而且全部用的是物理机,机器的配置,如果没记错的话,应该是32核+128G+SSD固态硬盘。为啥要搞这么多物理机,而且全部都是高配置呢?不知道大家发现没有,目前为止,我们最大的依赖就是MySQL!之前给大家解释过,在当时的背景下,我们要对涌入的亿级海量数据
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:853kb
    • 提供者:weixin_38599430
  1. 58集团面向亿级用户IM长连接服务设计与实践

  2. 微聊,是58一款聊天工具,目前已经接入58的大部分产品。及时准确数据传输,是对一款聊天工具最基本的要求。长连接服务就是在客户端到服务端之间建立一条全双工的数据通路,实现客户端和服务之间逻辑收发数据,在线离线等功能。 长连接服务在整个微聊系统中,位于客户端与后台逻辑之间;整个后台服务最重要的直接对外接口之一(另一个是短连接请求的nginx);长连接服务对外和对内的均采用tcp连接。 长连接服务主要功能是收发
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:455kb
    • 提供者:weixin_38654855
« 12 3 4 5 6 7 8 »