您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop: The Definitive Guide

  2. 本书从Hadoop的缘起开始,由浅入深,结合理论和实践,全方位地介绍Hado叩这一高性能处理海量数据集的理想工具。全书共14章,3个附录,涉及的主题包括:Haddoop简介:MapReduce简介:Hadoop分布式文件系统;Hadoop的I/O、MapReduce应用程序开发;MapReduce的工作机制:MapReduce的类型和格式;MapReduce的特性:如何安装Hadoop集群,如何管理Hadoop;Pig简介:Hbase简介:ZooKeeper简介,最后还提供了丰富的案例分析。
  3. 所属分类:其它

    • 发布日期:2010-05-21
    • 文件大小:3145728
    • 提供者:shupili141005
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统的架构和设计要点
  3. 所属分类:其它

    • 发布日期:2010-06-12
    • 文件大小:175104
    • 提供者:benny52317
  1. Hadoop.The.Definitive.Guide

  2. 本书从Hadoop的缘起开始,由浅入深,结合理论和实践,全方位地介绍Hadoop这一高性能处理海量数据集的理想工具。全书共14章,3个附录,涉及的主题包括:Haddoop简介:MapReduce简介:Hadoop分布式文件系统;Hadoop的I/O、MapReduce应用程序开发;MapReduce的工作机制:MapReduce的类型和格式;MapReduce的特性:如何安装Hadoop集群,如何管理Hadoop;Pig简介:Hbase简介:ZooKeeper简介,最后还提供了丰富的案例分析。
  3. 所属分类:其它

    • 发布日期:2010-08-09
    • 文件大小:4194304
    • 提供者:cvq070
  1. hadoop-0.21.0.tar.gz

  2. Hadoop是一个分布式系统基础架构,由Apache基金会开发。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力高速运算和存储。简单地说来,Hadoop是一个可以更容易开发和运行处理大规模数据的软件平台。 Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有着高容错性(fault-tolerent)的特点,并且设计用来部署在低廉的(low-cost)硬件上。而且它提供高传输率(high thro
  3. 所属分类:其它

    • 发布日期:2011-09-10
    • 文件大小:74448896
    • 提供者:yousteely
  1. Hadoop中文指南

  2.  本书从hadoop的缘起开始,由浅入深,结合理论和实践,全方位地介绍hado叩这一高性能处理海量数据集的理想工具。全书共14章,3个附录,涉及的主题包括:haddoop简介:mapreduce简介:hadoop分布式文件系统;hadoop的i/o、mapreduce应用程序开发;mapreduce的工作机制:mapreduce的类型和格式;mapreduce的特性:如何安装hadoop集群,如何管理hadoop;pig简介:hbase简介:zookeeper简介,最后还提供了丰富的案例分析。
  3. 所属分类:Web开发

    • 发布日期:2011-10-10
    • 文件大小:41943040
    • 提供者:xie041
  1. Hadoop分布式文件系统:架构和设计要点.pdf

  2. Hadoop分布式文件系统:架构和设计要点.pdf
  3. 所属分类:其它

    • 发布日期:2012-12-09
    • 文件大小:471040
    • 提供者:cuidalian
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统:架构和设计要点, 重点讲述Hadoop的体系架构,内部原理,及水平扩展,所注意事项,可谓是新手打开HADOOP大门的第一步
  3. 所属分类:其它

    • 发布日期:2013-04-24
    • 文件大小:471040
    • 提供者:ghigthn
  1. Hadoop技术内幕:深入解析Hadoop+Common和HDFS架构设计与实现原理迷你书

  2. 《Hadoop技术内幕:深入解析Hadoop+Common和HDFS架构设计与实现原理》迷你书 “Hadoop技术内幕”共两册,分别从源代码的角度对“Common+HDFS”和MapReduce的架构设计和实现原理进行了极为详细的分析。《Hadoop技术内幕:深入解析Hadoop Common和HDFS架构设计与实现原理》由腾讯数据平台的资深Hadoop专家、X-RIME的作者亲自执笔,对Common和HDFS的源代码进行了分析,旨在为Hadoop的优化、定制和扩展提供原理性的指导。除此之外,
  3. 所属分类:Java

    • 发布日期:2013-05-17
    • 文件大小:4194304
    • 提供者:wangliliuban
  1. Hadoop技术内幕

  2. 《hadoop技术内幕:深入解析hadoop common和hdfs架构设计与实现原理》共9章,分为三部分:第一部分(第1章)主要介绍了hadoop源代码的获取和源代码阅读环境的搭建;第二部分(第2~5章)对hadoop公共工具common的架构设计和实现原理进行了深入分析,包含hadoop的配置信息处理、面向海量数据处理的序列化和压缩机制、hadoop的远程过程调用,以及满足hadoop上各类应用访问数据的hadoop抽象文件系统和部分具体文件系统等内容;第三部分(第6~9章)对hadoop
  3. 所属分类:Web开发

    • 发布日期:2013-07-20
    • 文件大小:4194304
    • 提供者:vincentlyf
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统:架构和设计要点。Hadoop 是一个能够对大量数据进行分布式处理的软件框架
  3. 所属分类:其它

    • 发布日期:2014-03-11
    • 文件大小:471040
    • 提供者:weichengxing168
  1. Hadoop资源合集

  2. Hadoop资源合集 包括: 1.Hadoop技术内幕:深入解析Hadoop Common和HDFS.pdf 2.Hadoop技术内幕:深入解析MapReduce架构设计i与实现原理》.pdf 3.HDFS——Hadoop分布式文件系统深度实践(配光盘).pdf 4.hadoop技术内幕:深入解析YARN架构设计与实现原理》.pdf
  3. 所属分类:Java

    • 发布日期:2014-04-27
    • 文件大小:27262976
    • 提供者:avastxa
  1. Hadoop分布式文件系统:架构和设计要点

  2. Hadoop分布式文件系统:架构和设计要点中文翻译
  3. 所属分类:群集服务

    • 发布日期:2014-07-03
    • 文件大小:314368
    • 提供者:chfhy
  1. Hadoop技术内幕 深入解析Hadoop Common和HDFS架构设计与实现原理.pdf

  2. 前 言 第一部分 环境准备 第1章 源代码环境准备 1.1 什么是Hadoop 1.1.1 Hadoop简史 1.1.2 Hadoop的优势 1.1.3 Hadoop生态系统 1.2 准备源代码阅读环境 1.2.1 安装与配置JDK 1.2.2 安装Eclipse 1.2.3 安装辅助工具Ant 1.2.4 安装类UNIX Shell环境Cygwin 1.3 准备Hadoop源代码 1.3.1 下载Hadoop 1.3.2 创建Eclipse项目 1.3.3 Hadoop源代码组织 1.4 小
  3. 所属分类:Java

    • 发布日期:2015-11-24
    • 文件大小:59768832
    • 提供者:yuan_xw
  1. Hadoop详细的理论基础

  2. 目录 一、Hadoop分布式文件系统HDFS 1.认识HDFS 2.HDFS优势 3.HDFS局限性 4.HDFS特性 二、HDFS核心设计 1.数据块 2.数据块复制 3.数据块副本的存放策略 4.机架感知 5.数据块的备份数 6.安全模式 7.负载均衡 8.心跳机制 三、HDFS体系结构 1.主从架构 2.核心组件功能 3.数据块损坏处理 一、Hadoop分布式文件系统HDFS 1.认识HDFS 1)HDFS基于流式数据,为处理超大型文件(PB级别)的需求而设计。 2)流式数据: 将数据序列
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:282624
    • 提供者:weixin_38630571
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:162816
    • 提供者:weixin_38664989
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:162816
    • 提供者:weixin_38556822
  1. Hadoop分布式文件系统:架构和设计

  2. Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodityhardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为ApacheNutch搜索引擎项目的基础架构而开发的。HDFS是Apache
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:207872
    • 提供者:weixin_38732842
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:162816
    • 提供者:weixin_38582793
  1. Hadoop分布式文件系统:架构和设计要点

  2. 一、前提和设计目标1、硬件错误是常态,而非异常情况,HDFS可能是有成百上千的server组成,任何一个组件都有可能一直失效,因此错误检测和快速、自动的恢复是HDFS的核心架构目标。2、跑在HDFS上的应用与一般的应用不同,它们主要是以流式读为主,做批量处理;比之关注数据访问的低延迟问题,更关键的在于数据访问的高吞吐量。3、HDFS以支持大数据集合为目标,一个存储在上面的典型文件大小一般都在千兆至T字节,一个单一HDFS实例应该能支撑数以千万计的文件。4、HDFS应用对文件要求的是write-o
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:162816
    • 提供者:weixin_38636671
  1. Hadoop分布式文件系统:架构和设计

  2. Hadoop分布式文件系统(HDFS)被设计成适合运行在通用硬件(commodity hardware)上的分布式文件系统。它和现有的分布式文件系统有很多共同点。但同时,它和其他的分布式文件系统的区别也是很明显的。HDFS是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的应用。HDFS放宽了一部分POSIX约束,来实现流式读取文件系统数据的目的。HDFS在最开始是作为Apache Nutch搜索引擎项目的基础架构而开发的。HDF
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:207872
    • 提供者:weixin_38628243
« 12 3 »