您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop2.2.0集群安装

  2. Hadoop2.2.0完全分布式集群平台安装设置 HDFS HA架构: 1、先设定电脑的IP为静态地址: 2、设置各个主机的hostname 3、在所有电脑的/etc/hosts添加以下配置: 4、设置SSH无密码登陆 5、下载解压hadoop-2.2.0.tar.gz: 6、配置Hadoop的环境变量 7、编译Hadoop Native包 7.1、编译环境准备 7.2、依赖环境配置 7.3、编译 7.4、生成打包文件 8、修改Hadoop的配置文件 9、关闭防火墙 10、查看Hadoop是否
  3. 所属分类:硬件开发

    • 发布日期:2013-12-13
    • 文件大小:881kb
    • 提供者:u012742930
  1. hadoop2.3.0详细部署

  2. 本文详细描述了Hadoop2.3.0安装步骤。其中有转载于其他部分的内容。
  3. 所属分类:群集服务

    • 发布日期:2014-03-31
    • 文件大小:5kb
    • 提供者:liuxing801
  1. hadoop2.2.0 native lib 本地IO库 Linux SuSE 11 X86_64

  2. Hadoop2.2.0 native lib 直接替换掉 2.2.0 发布包里面的nativeIO ,配置好环境变量就可以了 东西虽然小,但是却费了不少功夫,主要是由于本地网络控制,不允许上网。安装各种软件就费了很大劲,软件之间的依赖也很让人头痛, 希望能帮到有需要的兄弟姐妹。。。! 包含的文件: ~/hadoop/hadoop-2.2.0/lib/native> ll 总计 1540 -rw-r--r-- 1 weblogic users 734402 04-15 10:22 libh
  3. 所属分类:其它

    • 发布日期:2014-04-15
    • 文件大小:495kb
    • 提供者:wsldbhw
  1. oozie 4.0.1 hadoop2.3.0 安装

  2. oozie 4.0.1 hadoop2.3.0 安装
  3. 所属分类:Java

  1. mahout0.9 支持hadoop2.2.0(3,共5个压缩包)

  2. mahout0.9仅支持hadoop1.x,编译好的这个包支持hadoop2.2.0.由于上传文件50M的限制,采用分卷压缩的形式,包括三个包:mahout-mahout-distribution-0.9.zip,distribution-0.9.z01,mahout-distribution-0.9.z02,mahout-distribution-0.9.z03,mahout-distribution-0.9.z04共5个包
  3. 所属分类:Java

    • 发布日期:2014-06-13
    • 文件大小:30mb
    • 提供者:lotus__jade
  1. hadoop2.3.0-64位编译完成包

  2. 资源如题,自己想办法编译的,亲测可用,因为等级低,所以分了三部分上传。(我不会分卷压缩tar.gz,所以压缩成了.zip,见谅哈)
  3. 所属分类:其它

    • 发布日期:2014-07-23
    • 文件大小:50mb
    • 提供者:u012620454
  1. hadoop2.3.0-64位编译完成包(3)

  2. 资源如题,自己编译的,亲测可用,分成了三部分,下载完成自行解压就好
  3. 所属分类:其它

    • 发布日期:2014-07-23
    • 文件大小:14mb
    • 提供者:u012620454
  1. 官网荡下的源码,自己亲手编译的hadoop2.3.0 64位,给大家分享下

  2. 官网荡下的源码,自己亲手编译的hadoop2.x 64位,给大家分享下 文件太大放的是百度网盘链接,目前有hadoop2.3.0,后面的版本我会陆续更新。
  3. 所属分类:Java

    • 发布日期:2014-08-05
    • 文件大小:31byte
    • 提供者:qiaomusheng
  1. hadoop2.3.0-eclipse-plugin

  2. hadoop2.3.0-eclipse-plugin htrace-core-3.0.4.jar有这个jar包。
  3. 所属分类:Java

    • 发布日期:2015-01-01
    • 文件大小:24mb
    • 提供者:jfc12345678
  1. hadoop2.3 native centos6.5 x64

  2. hadoop2.3 native centos6.5 x64
  3. 所属分类:Java

    • 发布日期:2015-01-06
    • 文件大小:3mb
    • 提供者:kingofase
  1. hadoop2.3 eclipse开发需要的jar包

  2. 这么好的东西就不用说了,开发hadoop2.3 的MapReduce程序时需要的jar包,很方便啦。
  3. 所属分类:其它

    • 发布日期:2015-08-18
    • 文件大小:22mb
    • 提供者:kkqzy
  1. 完全分布式Hadoop2.3安装与配置

  2. 完全分布式Hadoop2.3安装与配置;HDFS架构;Hadoop架构和组件
  3. 所属分类:群集服务

    • 发布日期:2015-11-03
    • 文件大小:1mb
    • 提供者:jxgzxg1992
  1. spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz 第二部分

  2. spark1.3.0在 hadoop2.5.0 cdh5.3.6下编译完的结果,由于文件过大,所以分为两部分上传,必须同时下载,原始的名称为:spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz
  3. 所属分类:spark

    • 发布日期:2018-05-04
    • 文件大小:84mb
    • 提供者:u014467408
  1. spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz 第一部分

  2. spark1.3.0在 hadoop2.5.0 cdh5.3.6下编译完的结果,由于文件过大,所以分为两部分上传,必须同时下载,原始的名称为:spark-1.3.0-bin-2.5.0-cdh5.3.6 .tgz
  3. 所属分类:spark

    • 发布日期:2018-05-04
    • 文件大小:200mb
    • 提供者:u014467408
  1. flink-1.3.0-bin-hadoop2-scala_2.10.tgz

  2. flink-1.3.0-bin-hadoop2-scala_2.10.tgzflink-1.3.0-bin-hadoop2-scala_2.10.tgz
  3. 所属分类:其它

  1. spark-3.0.0-bin-hadoop2.7.tgz

  2. spark-3.0.0-bin-hadoop2.7.tgz 官网下载不了的,需要资源的,可以到这里下载哦
  3. 所属分类:spark

    • 发布日期:2020-07-17
    • 文件大小:210mb
    • 提供者:lxl20052051
  1. spark-3.0.1-bin-hadoop2.7.tgz

  2. spark 3.0.1,基于 hadoop2.7;发布于 2020.09.02 下载于 https://spark.apache.org/downloads.html
  3. 所属分类:spark

    • 发布日期:2020-11-17
    • 文件大小:209mb
    • 提供者:lovechris00
  1. spark-2.3.0-bin-hadoop2.7版本.zip

  2. spark-2.3.0-bin-hadoop2.7版本.zip
  3. 所属分类:Linux

    • 发布日期:2021-03-25
    • 文件大小:215mb
    • 提供者:qq_45079566
  1. Hadoop2.2.0集群在RHEL6.2下的安装实战

  2. 本文介绍了一个Hadoop2.2.0集群的搭建过程,在2台4G内存的酷睿双核PC机上,使用VMWareWorkStation虚拟了4个RHEL6.2(1G内存、单核CPU、10G硬盘),总计用10个小时的时间,完成虚拟机制作和Hadoop建立过程,总体比较顺利。(1)第一个是:DataNode启动了(使用jps可以看到进程),但是在NameNode中看不到(192.168.1.10:50070),花费大约3个小时时间查问题,根据logs目录的日志“org.apache.hadoop.ipc.Cl
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:418kb
    • 提供者:weixin_38698018
  1. Hadoop2.2.0集群在RHEL6.2下的安装实战

  2. 本文介绍了一个Hadoop2.2.0集群的搭建过程,在2台4G内存的酷睿双核PC机上,使用VMWare WorkStation虚拟了4个RHEL6.2(1G内存、单核CPU、10G硬盘),总计用10个小时的时间,完成虚拟机制作和Hadoop建立过程,总体比较顺利。(1)第一个是:DataNode启动了(使用jps可以看到进程),但是在NameNode中看不到(192.168.1.10:50070),花费大约3个小时时间查问题,根据logs目录的日志“org.apache.hadoop.ipc.C
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:396kb
    • 提供者:weixin_38518722
« 12 3 4 5 6 7 8 9 10 ... 14 »