您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统的架构和设计要点
  3. 所属分类:其它

    • 发布日期:2010-06-12
    • 文件大小:175104
    • 提供者:benny52317
  1. Hadoop分布式文件系统:架构和设计要点.pdf

  2. Hadoop分布式文件系统:架构和设计要点.pdf
  3. 所属分类:其它

    • 发布日期:2012-12-09
    • 文件大小:471040
    • 提供者:cuidalian
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统:架构和设计要点, 重点讲述Hadoop的体系架构,内部原理,及水平扩展,所注意事项,可谓是新手打开HADOOP大门的第一步
  3. 所属分类:其它

    • 发布日期:2013-04-24
    • 文件大小:471040
    • 提供者:ghigthn
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统:架构和设计要点。Hadoop 是一个能够对大量数据进行分布式处理的软件框架
  3. 所属分类:其它

    • 发布日期:2014-03-11
    • 文件大小:471040
    • 提供者:weichengxing168
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统:架构和设计要点中文翻译
  3. 所属分类:群集服务

    • 发布日期:2014-07-03
    • 文件大小:314368
    • 提供者:chfhy
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:162816
    • 提供者:weixin_38664989
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:162816
    • 提供者:weixin_38556822
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:162816
    • 提供者:weixin_38582793
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:162816
    • 提供者:weixin_38636671