您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop集群搭建

  2. Hadoop集群搭建: 1.CentOS 6.7 minimal http://mirror.neu.edu.cn/centos/6.7/isos/x86_64/CentOS-6.7-x86_64-minimal.iso 2.Hadoop 2.6.3 http://mirrors.aliyun.com/apache/hadoop/common/hadoop-2.6.3/hadoop-2.6.3.tar.gz 3.Spark-1.5.2-bin-hadoop2.6.tgz http://www.
  3. 所属分类:Linux

    • 发布日期:2016-01-20
    • 文件大小:3145728
    • 提供者:forever_qdf
  1. spark环境安装(Hadoop HA+Hbase+phoneix+kafka+flume+zookeeper+spark+scala)

  2. 亲手在Centos7上安装,所用软件列表 apache-flume-1.8.0-bin.tar.gz apache-phoenix-4.13.0-HBase-1.3-bin.tar.gz hadoop-2.7.4.tar.gz hbase-1.3.1-bin.tar.gz jdk-8u144-linux-x64.tar.gz kafka_2.12-1.0.0.tgz scala-2.12.4.tar.gz scala-2.12.4.tgz spark-2.2.0-bin-hadoop2.7.t
  3. 所属分类:spark

    • 发布日期:2017-12-06
    • 文件大小:1048576
    • 提供者:andnnl
  1. spark-2.4.3-bin-hadoop2.7.tgz

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
  3. 所属分类:spark

    • 发布日期:2019-06-13
    • 文件大小:229638144
    • 提供者:qq_41022965
  1. hadoop集群搭建所需软件包.txt

  2. Hadoop及其生态圈搭建所需的一整套安装包,包括,zookeeper-3.4.13.tar.gz,spark-2.4.3-bin-hadoop2.7.tgz,scala-2.11.8.tgz,Python-3.6.4.tgz,mysql-connector-java-5.1.34.jar,kafka_2.11-2.1.0.tgz,jdk-8u144-linux-x64.tar.gz,hbase-2.1.3-bin.tar.gz,hadoop-3.1.2.tar.gz,hadoop-2.7.4
  3. 所属分类:Hadoop

    • 发布日期:2019-07-30
    • 文件大小:52
    • 提供者:wolf_333
  1. spark-2.3.4-bin-hadoop2.7.tgz

  2. pyspark本地的环境配置包,spark-2.3.4-bin-hadoop2.7.tgz:spark-2.3.4-bin-hadoop2.7.tgz
  3. 所属分类:spark

    • 发布日期:2020-03-06
    • 文件大小:226492416
    • 提供者:NeilGY
  1. spark-2.1.0-bin-2.6.0-cdh5.7.0.tgz

  2. 在centos7中编译成功,废了九牛二虎之力,里面加入了阿里云的maven仓库,无需向别人一样需要编译好几天。jar包下载特别快,编译环境需要maven3.3.9,scala2.10,高版本反而编译不成功,全是坑,好在编译成功了
  3. 所属分类:spark

    • 发布日期:2020-02-19
    • 文件大小:189792256
    • 提供者:ZuoFengZuoYu
  1. spark-2.3.0-bin-hadoop277-without-hive.tgz

  2. spark2.3.0 without hive 编译版本,用于Hive on Spark 环境搭建 ./dev/make-distribution.sh --name "hadoop277-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided,orc-provided" -Dhadoop.version=2.7.7
  3. 所属分类:spark

    • 发布日期:2020-01-14
    • 文件大小:133169152
    • 提供者:ghl0451
  1. Linux的spark-2.3.3-bin-hadoop2.7.tgz

  2. spark的安装包,Linux下使用,需要欢迎下载,spark-2.3.3-bin-hadoop2.7
  3. 所属分类:spark

    • 发布日期:2019-07-07
    • 文件大小:225443840
    • 提供者:weixin_42871374
  1. spark-2.4.0-bin-hadoop-2.7.3-hive.tgz

  2. 基于Hadoop-2.7,手动源码编译的Spark-2.4,支持hive,
  3. 所属分类:spark

    • 发布日期:2019-03-04
    • 文件大小:120
    • 提供者:u011436316
  1. spark-2.3.2-bin-2.7.2.tgz

  2. spark 2.3.2 hadoop 2.7.2 编译的 VERSION=2.3.2 SCALA_VERSION=2.12.7 SPARK_HADOOP_VERSION=2.7.2 SPARK_HIVE=1
  3. 所属分类:spark

    • 发布日期:2020-07-28
    • 文件大小:206569472
    • 提供者:weixin_39139505
  1. spark-3.0.0-bin-hadoop2.7-hive1.2.tgz

  2. spark安装包,spark 官网下载的,46%的已解决的问题都是是针对Spark SQL的,包括结构化流和MLlib,以及高层API,包括SQL和DataFrames。在经过了大量优化后,Spark 3.0的性能比Spark 2.4快了大约2倍
  3. 所属分类:spark

    • 发布日期:2020-08-05
    • 文件大小:219152384
    • 提供者:u010991835
  1. Spark的安装(Standalone模式,高可用模式,基于Yarn模式)

  2. 目录 spark的Standalone模式安装  一、安装流程 1、将spark-2.2.0-bin-hadoop2.7.tgz  上传到 /usr/local/spark/ 下,然后解压 2、进入到conf中修改名字 改为  .sh 结尾的 3、编辑 spark-env.sh 4、修改slaves 的名字  并且编辑他 5、发送到其他两台虚拟机上 6、修改ect/proflie下面的配置环境 7、到spark的sbin目录下 修改启动命令 8、启动之后的jps数目 二、检测是否安装成功 1、进
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:307200
    • 提供者:weixin_38635449
  1. windows安装spark2软件包.zip

  2. windows安装spark2软件包 包括: 1.spark-2.3.0-bin-hadoop2.7.tgz spark的压缩包 2.scala-2.11.8.zip scala的压缩包 3.hadoop-2.7.1.tar.gz 基础hadoop包 4.apache-maven-3.6.3-bin.zip maven压缩包 5.winutils-master.zip 解决windows下spark的问题(可以不用)
  3. 所属分类:spark

    • 发布日期:2021-01-15
    • 文件大小:481296384
    • 提供者:pengpenhhh