您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop集群搭建

  2. Hadoop集群搭建: 1.CentOS 6.7 minimal http://mirror.neu.edu.cn/centos/6.7/isos/x86_64/CentOS-6.7-x86_64-minimal.iso 2.Hadoop 2.6.3 http://mirrors.aliyun.com/apache/hadoop/common/hadoop-2.6.3/hadoop-2.6.3.tar.gz 3.Spark-1.5.2-bin-hadoop2.6.tgz http://www.
  3. 所属分类:Linux

    • 发布日期:2016-01-20
    • 文件大小:3mb
    • 提供者:forever_qdf
  1. spark环境安装(Hadoop HA+Hbase+phoneix+kafka+flume+zookeeper+spark+scala)

  2. 亲手在Centos7上安装,所用软件列表 apache-flume-1.8.0-bin.tar.gz apache-phoenix-4.13.0-HBase-1.3-bin.tar.gz hadoop-2.7.4.tar.gz hbase-1.3.1-bin.tar.gz jdk-8u144-linux-x64.tar.gz kafka_2.12-1.0.0.tgz scala-2.12.4.tar.gz scala-2.12.4.tgz spark-2.2.0-bin-hadoop2.7.t
  3. 所属分类:spark

    • 发布日期:2017-12-06
    • 文件大小:1mb
    • 提供者:andnnl
  1. spark-2.4.3-bin-hadoop2.7.tgz

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
  3. 所属分类:spark

    • 发布日期:2019-06-13
    • 文件大小:219mb
    • 提供者:qq_41022965
  1. spark-2.3.4-bin-hadoop2.7.tgz

  2. pyspark本地的环境配置包,spark-2.3.4-bin-hadoop2.7.tgz:spark-2.3.4-bin-hadoop2.7.tgz
  3. 所属分类:spark

    • 发布日期:2020-03-06
    • 文件大小:216mb
    • 提供者:NeilGY
  1. spark-2.1.0-bin-2.6.0-cdh5.7.0.tgz

  2. 在centos7中编译成功,废了九牛二虎之力,里面加入了阿里云的maven仓库,无需向别人一样需要编译好几天。jar包下载特别快,编译环境需要maven3.3.9,scala2.10,高版本反而编译不成功,全是坑,好在编译成功了
  3. 所属分类:spark

    • 发布日期:2020-02-19
    • 文件大小:181mb
    • 提供者:ZuoFengZuoYu
  1. spark-2.3.0-bin-hadoop277-without-hive.tgz

  2. spark2.3.0 without hive 编译版本,用于Hive on Spark 环境搭建 ./dev/make-distribution.sh --name "hadoop277-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided,orc-provided" -Dhadoop.version=2.7.7
  3. 所属分类:spark

    • 发布日期:2020-01-14
    • 文件大小:127mb
    • 提供者:ghl0451
  1. spark-2.4.0-bin-hadoop-2.7.3-hive.tgz

  2. 基于Hadoop-2.7,手动源码编译的Spark-2.4,支持hive,
  3. 所属分类:spark

    • 发布日期:2019-03-04
    • 文件大小:120byte
    • 提供者:u011436316
  1. spark-2.3.2-bin-2.7.2.tgz

  2. spark 2.3.2 hadoop 2.7.2 编译的 VERSION=2.3.2 SCALA_VERSION=2.12.7 SPARK_HADOOP_VERSION=2.7.2 SPARK_HIVE=1
  3. 所属分类:spark

    • 发布日期:2020-07-28
    • 文件大小:197mb
    • 提供者:weixin_39139505
  1. Spark的安装(Standalone模式,高可用模式,基于Yarn模式)

  2. 目录 spark的Standalone模式安装  一、安装流程 1、将spark-2.2.0-bin-hadoop2.7.tgz  上传到 /usr/local/spark/ 下,然后解压 2、进入到conf中修改名字 改为  .sh 结尾的 3、编辑 spark-env.sh 4、修改slaves 的名字  并且编辑他 5、发送到其他两台虚拟机上 6、修改ect/proflie下面的配置环境 7、到spark的sbin目录下 修改启动命令 8、启动之后的jps数目 二、检测是否安装成功 1、进
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:300kb
    • 提供者:weixin_38635449
  1. windows安装spark2软件包.zip

  2. windows安装spark2软件包 包括: 1.spark-2.3.0-bin-hadoop2.7.tgz spark的压缩包 2.scala-2.11.8.zip scala的压缩包 3.hadoop-2.7.1.tar.gz 基础hadoop包 4.apache-maven-3.6.3-bin.zip maven压缩包 5.winutils-master.zip 解决windows下spark的问题(可以不用)
  3. 所属分类:spark

    • 发布日期:2021-01-15
    • 文件大小:459mb
    • 提供者:pengpenhhh