您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop2.2.0集群安装

  2. Hadoop2.2.0完全分布式集群平台安装设置 HDFS HA架构: 1、先设定电脑的IP为静态地址: 2、设置各个主机的hostname 3、在所有电脑的/etc/hosts添加以下配置: 4、设置SSH无密码登陆 5、下载解压hadoop-2.2.0.tar.gz: 6、配置Hadoop的环境变量 7、编译Hadoop Native包 7.1、编译环境准备 7.2、依赖环境配置 7.3、编译 7.4、生成打包文件 8、修改Hadoop的配置文件 9、关闭防火墙 10、查看Hadoop是否
  3. 所属分类:硬件开发

    • 发布日期:2013-12-13
    • 文件大小:881kb
    • 提供者:u012742930
  1. hadoop2.7.1

  2. 该压缩包包含了spark所需要的hadoop文件。配置Spark环境其实无需安装完整的Hadoop,但是Spark是基于Hadoop的一些文件而运行的,所以需要Hadoop中的hadoop.dll,winutils.exe等。
  3. 所属分类:Java

    • 发布日期:2017-04-23
    • 文件大小:782kb
    • 提供者:callmemr_hu
  1. hadoop2.7.1tar包.zip

  2. hadoop2.7.1tar包.zip,下载后解压即可用hadoop2.7.1tar包.zip,下载后解压即可用
  3. 所属分类:Hadoop

    • 发布日期:2020-01-09
    • 文件大小:200mb
    • 提供者:qq_38650808
  1. windows安装spark2软件包.zip

  2. windows安装spark2软件包 包括: 1.spark-2.3.0-bin-hadoop2.7.tgz spark的压缩包 2.scala-2.11.8.zip scala的压缩包 3.hadoop-2.7.1.tar.gz 基础hadoop包 4.apache-maven-3.6.3-bin.zip maven压缩包 5.winutils-master.zip 解决windows下spark的问题(可以不用)
  3. 所属分类:spark

    • 发布日期:2021-01-15
    • 文件大小:459mb
    • 提供者:pengpenhhh
  1. 使用docker部署hadoop集群的详细教程

  2. 最近要在公司里搭建一个hadoop测试集群,于是采用docker来快速部署hadoop集群。 0. 写在前面 网上也已经有很多教程了,但是其中都有不少坑,在此记录一下自己安装的过程。 目标:使用docker搭建一个一主两从三台机器的hadoop2.7.7版本的集群 准备: 首先要有一台内存8G以上的centos7机器,我用的是阿里云主机。 其次将jdk和hadoop包上传到服务器中。 我安装的是hadoop2.7.7。包给大家准备好了,链接:https://pan.baidu.com/s/15n
  3. 所属分类:其它

    • 发布日期:2021-01-09
    • 文件大小:74kb
    • 提供者:weixin_38734200
  1. spark-源码

  2. 阿帕奇火花 下载Spark 本地版本: 日期:2021年3月 Spark版本3.1.1; 程序包类型“为Hadoop 2.7预先构建”; openjdk 15.0.2; python 3.9.2和pyspark; PySpark外壳 在Linux / OS X上启动PySpark $HOME/spark-3.1.1-bin-hadoop2.7/bin/pyspark 或使用pip安装并启动pyspark pip install pyspark pyspark 理论 参考:《火花在行动》第
  3. 所属分类:其它