您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. MapReduce介绍

  2. 对mapreduce的基本工作原理,做了简单的介绍。
  3. 所属分类:其它

    • 发布日期:2011-06-23
    • 文件大小:1mb
    • 提供者:zhugongrui
  1. MapReduce工作原理

  2. MapReduce工作MapRedMapReduce工作原理uce工作原理原理
  3. 所属分类:系统集成

    • 发布日期:2011-10-19
    • 文件大小:333kb
    • 提供者:zjwqwe
  1. 云计算技术

  2. 云计算 mapreduce 工作原理,云计算 mapreduce
  3. 所属分类:专业指导

    • 发布日期:2012-04-09
    • 文件大小:736kb
    • 提供者:liyangnjupt
  1. Hadoop HDFS工作原理

  2. Hadoop、MapReduce和HDFS的工作原理 公司内部资料 供大家参考 呵呵
  3. 所属分类:数据库

    • 发布日期:2013-01-22
    • 文件大小:2mb
    • 提供者:ykq_001
  1. 王家林的云计算第十一讲Hadoop图文训练课程:MapReduce的原理机制和流程图剖析

  2. 王家林的“云计算分布式大数据Hadoop实战高手之路---从零开始”的第十一讲Hadoop图文训练课程:MapReduce的原理机制和流程图剖析. 此教程来自于王家林免费发布的3本Hadoop教程:云计算分布式大数据Hadoop实战高手之路(共3本书): 1, 王家林编写的“云计算分布式大数据Hadoop实战高手之路---从零开始”带领您无痛入门Hadoop并能够处理Hadoop工程师的日常编程工作,进入云计算大数据的美好世界。 2, 王家林编写的“云计算分布式大数据Hadoop实战高手之路-
  3. 所属分类:3G/移动开发

    • 发布日期:2013-06-21
    • 文件大小:57kb
    • 提供者:javaniceyou
  1. Hadoop介绍,HDFS和MapReduce工作原理

  2. Hadoop介绍 HDFS MapReduce 工作原理
  3. 所属分类:Java

    • 发布日期:2014-02-27
    • 文件大小:38mb
    • 提供者:sandj_13_14
  1. Hadoop介绍,HDFS和MapReduce工作原理

  2. 云计算相关,Hadoop介绍,HDFS和MapReduce工作原理
  3. 所属分类:虚拟化

    • 发布日期:2014-03-03
    • 文件大小:636kb
    • 提供者:u013791213
  1. MapReduce工作原理

  2. Hadoop还实现了MapReduce分布式计算模型。MapReduce将应用程序的工作分解成很多小的工作小块(small blocks of work)。HDFS为了做到可靠性(reliability)创建了多份数据块(data blocks)的复制(replicas),并将它们放置在服务器群的计算节点中(compute nodes),MapReduce就可以在它们所在的节点上处理这些数据了。
  3. 所属分类:IT管理

    • 发布日期:2014-03-24
    • 文件大小:736kb
    • 提供者:devboy
  1. 1,Hadoop介绍,HDFS和MapReduce工作原理.rar

  2. Hadoop介绍,HDFS和MapReduce工作原理.rar
  3. 所属分类:Java

    • 发布日期:2014-05-04
    • 文件大小:38mb
    • 提供者:angel_he
  1. 分布式存储系统介绍-Cloud_Storage

  2. 简单的介绍了分布式文件系统的基本知识,介绍了ceph、glusterfs和moosefs的一些应用场景和基本操作。 介绍了分布式文件系统常用的基本技术,如集中式元数据和一致性hash,介绍了数据备份和分块等方法。 分布式文件系统的访问方式,VFS工作原理等。
  3. 所属分类:讲义

  1. Hadoop介绍,HDFS和MapReduce工作原理

  2. Hadoop介绍,HDFS和MapReduce工作原理
  3. 所属分类:Java

  1. MAPREDUCE英文版

  2. google“三驾马车”之一,经典论文英文原版,有助于深入了解hadoop工作原理
  3. 所属分类:其它

    • 发布日期:2015-03-16
    • 文件大小:186kb
    • 提供者:sunweiwei5
  1. Chapter7-厦门大学-林子雨-大数据技术原理与应用-第七章-MapReduce

  2. 介绍MapReduce模型,阐述其具体工作流程,并以单词统计为实例介绍 MapReduce程序设计方法,同时,还介绍了MapReduce的具体应用,最后讲解MapReduce编程实践
  3. 所属分类:讲义

    • 发布日期:2015-06-29
    • 文件大小:2mb
    • 提供者:qq97294972
  1. Hadoop MapReduce原理

  2. 本文分别对传统MapReduce和YARN的体系结构、工作流程及故障处理等三个方面进行讲解,让你深入理解MapReduce的工作原理
  3. 所属分类:群集服务

    • 发布日期:2015-07-14
    • 文件大小:449kb
    • 提供者:zhangbaolin
  1. Hadoop技术内幕 深入理解MapReduce架构设计与实现原理.pdf

  2. Hadoop技术内幕:深入解析MapReduce架构设计与实现原理 目录 前言 第一部分 基础篇 第1章 阅读源代码前的准备 1.1 准备源代码学习环境 1.1.1 基础软件下载 1.1.2 如何准备Windows环境 1.1.3 如何准备Linux环境 1.2 获取Hadoop源代码 1.3 搭建Hadoop源代码阅读环境 1.3.1 创建Hadoop工程 1.3.2 Hadoop源代码阅读技巧 1.4 Hadoop源代码组织结构 1.5 Hadoop初体验 1.5.1 启动Hadoop 1
  3. 所属分类:Java

    • 发布日期:2015-11-24
    • 文件大小:46mb
    • 提供者:yuan_xw
  1. 基于自适应MapReduce模型的自动化运维平台设计与实现

  2. 宽带接入设备点多面广,维护任务重,急需利用先进的IT技术提高生产效率。为提升自动化运维水平,基于自适应的MapReduce并发计算软件模型,设计并实现了适应宽带接入设备维护特点的自动化运维平台。工作原理即在综合评估应用服务器的资源利用状况的基础上,自适应地分配合理的计算、网络资源,启动并发进程,高效支撑对网络设备的信息采集、数据分析、业务维护等日常运维管理工作。实践表明,该平台已在电信设备资源信息采集、冗余业务数据稽核与清理等多个电信网络运维管理的应用场景取得了良好效果。
  3. 所属分类:Hadoop

  1. mapreduce案例代码及案例涉及文件

  2. 了解map和reduce工作原理,以及排序,分组,分区设置,有详细的注释,方便查看学习,适合入门初学者练手
  3. 所属分类:Hadoop

    • 发布日期:2020-11-24
    • 文件大小:59kb
    • 提供者:qq_39331255
  1. Hadhoop框架学习(2)之MapReduce简述

  2. 目录Hadhoop框架学习(2)之MapReduce简述一、学习MapReduce的意义二、MapReduce的基本概念 Hadhoop框架学习(2)之MapReduce简述   本文主要理解下面这幅MapReduce工作的流程图 一、学习MapReduce的意义   参考资料里的一段话, “那为什么我们还要来学习mapreduce呢?首先它是大数据处理的最早解决方案或者说是鼻祖,而且是hive等技术的基础(Hive是将类sql语句最终转换成mapreduce程序来处理),学习它,有助于加深对
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:96kb
    • 提供者:weixin_38555229
  1. Spark工作原理

  2. ApacheSpark是一个围绕速度、易用性和复杂分析构建的大数据处理框架,最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一,与Hadoop和Storm等其他大数据和MapReduce技术相比,Spark有如下优势:1.运行速度快,Spark拥有DAG执行引擎,支持在内存中对数据进行迭代计算。官方提供的数据表明,如果数据由磁盘读取,速度是HadoopMapReduce的10倍以上,如果数据从内存中读取,速度可以高达100多倍。2.适用场景广泛,
  3. 所属分类:其它

  1. Spark工作原理

  2. ApacheSpark是一个围绕速度、易用性和复杂分析构建的大数据处理框架,最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一,与Hadoop和Storm等其他大数据和MapReduce技术相比,Spark有如下优势: 1.运行速度快,Spark拥有DAG执行引擎,支持在内存中对数据进行迭代计算。官方提供的数据表明,如果数据由磁盘读取,速度是Hadoop MapReduce的10倍以上,如果数据从内存中读取,速度可以高达100
  3. 所属分类:其它

« 12 3 »