您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Hadoop生态圈搭建

  2. 在Ubuntu系统下安装Hadoop圈中的部分软件。 VMWare Ubuntu SSH JDK Hadoop MySQL Hive Hbase Mahout Sqoop Spark Flume Kafka ElasticSearch Redis Phoenix
  3. 所属分类:其它

    • 发布日期:2016-10-09
    • 文件大小:1mb
    • 提供者:u013256012
  1. Spark入门实战系列

  2. Spark生态圈的pdf资料。适合入门级别
  3. 所属分类:spark

    • 发布日期:2017-06-02
    • 文件大小:32mb
    • 提供者:chinayuan
  1. Spark及其生态圈简介

  2. .Spark及其生态圈简介
  3. 所属分类:Java

    • 发布日期:2017-07-11
    • 文件大小:1mb
    • 提供者:l691635239
  1. Spark简介以及其生态圈

  2. Spark简介以及其生态圈。Spark运行架构原理,让大家快速的理解与掌握Spark
  3. 所属分类:spark

    • 发布日期:2018-03-16
    • 文件大小:2mb
    • 提供者:cai807671248
  1. Spark入门(完整版)

  2. Spark入门完整版 PDF版,从生态圈 部署安装 编程模型 运行框架 stream sql mllib graphx tachyon安装部署介绍
  3. 所属分类:spark

    • 发布日期:2018-04-03
    • 文件大小:32mb
    • 提供者:fmyhust
  1. 2.Spark编译与部署(下)--Spark编译安装.pdf

  2. 1.Spark及其生态圈简介.pdf 2.Spark编译与部署(上)--基础环境搭建.pdf 2.Spark编译与部署(下)--Spark编译安装.pdf 2.Spark编译与部署(中)--Hadoop编译安装.pdf 3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.Spark运行架构.pdf 5.Hive(上)--Hive介绍及部署.pdf 5.Hive(下)--Hive实战.pdf 6.SparkSQL
  3. 所属分类:spark

    • 发布日期:2018-04-04
    • 文件大小:1mb
    • 提供者:u010195673
  1. 6.SparkSQL(下)--Spark实战应用.pdf

  2. 1.Spark及其生态圈简介.pdf 2.Spark编译与部署(上)--基础环境搭建.pdf 2.Spark编译与部署(下)--Spark编译安装.pdf 2.Spark编译与部署(中)--Hadoop编译安装.pdf 3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.Spark运行架构.pdf 5.Hive(上)--Hive介绍及部署.pdf 5.Hive(下)--Hive实战.pdf 6.SparkSQL
  3. 所属分类:spark

    • 发布日期:2018-04-04
    • 文件大小:3mb
    • 提供者:u010195673
  1. 图解Spark++核心技术与案例实战

  2. 1) 大数据爱好者 随着大数据时代的来临,无论传统行业、IT行业以及互联网等行业都将涉及到大数据技术,本书能够帮助这些行业的大数据爱好者了解Spark生态圈和发展演进趋势。通过本书可以了解到Spark特点和使用的场景,如果希望继续深入学习Spark知识,该书也是很好的入门选择。 (2) Spark开发人员 如果要进行Spark应用的开发,仅仅掌握Spark基本使用方法是不够的,还需深入了解Spark的设计原理、架构和运行机制。在本书中将深入浅出地讲解Spark的编程模型、作业运行机制、存储原理
  3. 所属分类:其它

    • 发布日期:2018-04-25
    • 文件大小:67mb
    • 提供者:hmliy_hao
  1. Hadoop生态圈常用软件打包rpm spec描述文件

  2. Hadoop生态圈常用软件打包rpm spec描述文件,包括 Hadoop,spark, alluxio,spark,ranger等
  3. 所属分类:Hadoop

  1. spark,hadoop生态圈总结

  2. 详细描述了spark,hadoop生态圈的各个组建,能充分了解各个组建的原理以及使用
  3. 所属分类:spark

    • 发布日期:2018-06-04
    • 文件大小:1mb
    • 提供者:u013385018
  1. Spark 入门实战系列

  2. Spark 入门实战系列,适合初学者,文档包括十部分内容,质量很好,为了感谢文档作者,也为了帮助更多的人入门,传播作者的心血,特此友情转贴: 1.Spark及其生态圈简介.pdf 2.Spark编译与部署(上)--基础环境搭建.pdf 2.Spark编译与部署(下)--Spark编译安装.pdf 2.Spark编译与部署(中)--Hadoop编译安装.pdf 3.Spark编程模型(上)--概念及SparkShell实战.pdf 3.Spark编程模型(下)--IDEA搭建及实战.pdf 4.
  3. 所属分类:spark

    • 发布日期:2018-01-18
    • 文件大小:32mb
    • 提供者:zy205
  1. hadoop 生态圈集群搭建

  2. hadoop 2.7.5 集群搭建 spark 2.2.1 集群搭建,配置scala编译环境 hive on spark 安装 hbase 搭建
  3. 所属分类:Hadoop

    • 发布日期:2018-01-22
    • 文件大小:346kb
    • 提供者:jslijb
  1. Spark生态圈介绍

  2. Spark是加州大学伯克利分校AMP实验室(Algorithms, Machines, and People Lab)开发通用内存并行计算框架
  3. 所属分类:spark

    • 发布日期:2018-02-09
    • 文件大小:241kb
    • 提供者:guodong_1989
  1. Centos 7安装配置Hadoop生态圈CDH5版本

  2. Centos 7安装配置Hadoop生态圈CDH5版本 其中包括hadoop hbase hive spark 等组件安装
  3. 所属分类:Hadoop

    • 发布日期:2019-03-13
    • 文件大小:8mb
    • 提供者:zhangshnjiang
  1. Spark生态圈简介

  2. Spark 生态圈是加州大学伯克利分校的 AMP 实验室打造的,是一个力图在算法(Algorithms)、机器(Machines)、人(People)之间通过大规模集成来展现大数据应用的平台。 AMP 实验室运用大数据、云计算、通信等各种资源及各种灵活的技术方案,对海量不透明的数据进行甄别并转化为有用的信息,以供人们更好地理解世界。该生态圈已经涉及机器学习、数据挖掘、数据库、信息检索、自然语言处理和语音识别等多个领域。 如图 1 所示,Spark 生态圈以 Spark Core 为核心,从 HD
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:93kb
    • 提供者:weixin_38596117
  1. Spark生态系统解析及基于Redis的开源分布式服务Codis

  2. 1月24日,一场基于Spark和Redis组成的分布式系统实践分享由Spark资深布道者陈超和豌豆荚资深系统架构师刘奇联手打造。在分享中,陈超首先简短的介绍了Spark社区在2014年的发展:目前Spark的发布版本是1.2,整个2014年Spark共发布了3个主要版本——1.0、1.1、1.2。随后,陈超对Spark生态圈进行了详细的分析:Spark是一个非常快,并且普适性非常强的一个大数据处理引擎。谈到Spark,首先就是一些常见特性:速度快、易用、通用和兼容Hadoop。首先通用,Spar
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:509kb
    • 提供者:weixin_38589795
  1. Spark生态系统组件

  2. 言:随着大数据技术的发展,实时流计算、机器学习、图计算等领域成为较热的研究方向,而Spark作为大数据处理的“利器”有着较为成熟的生态圈,能够一站式解决类似场景的问题。那么Spark生态系统中有哪些组件你知道吗?下面让我们跟着本文一同了解下这些不可或缺的组件。本文选自《图解Spark:核心技术与案例实战》。Spark生态系统以SparkCore为核心,能够读取传统文件(如文本文件)、HDFS、AmazonS3、Alluxio和NoSQL等数据源,利用Standalone、YARN和Mesos等资
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:346kb
    • 提供者:weixin_38667849
  1. Spark生态系统组件

  2. 言:随着大数据技术的发展,实时流计算、机器学习、图计算等领域成为较热的研究方向,而Spark作为大数据处理的“利器”有着较为成熟的生态圈,能够一站式解决类似场景的问题。那么Spark生态系统中有哪些组件你知道吗?下面让我们跟着本文一同了解下 这些不可或缺的组件。本文选自《图解Spark:核心技术与案例实战》。Spark生态系统以SparkCore为核心,能够读取传统文件(如文本文件)、HDFS、Amazon S3、Alluxio和NoSQL等数据源,利用Standalone
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:346kb
    • 提供者:weixin_38746918
  1. Spark生态系统解析及基于Redis的开源分布式服务Codis

  2. 1月24日,一场基于Spark和Redis组成的分布式系统实践分享由Spark资深布道者陈超和豌豆荚资深系统架构师刘奇联手打造。在分享中,陈超首先简短的介绍了Spark社区在2014年的发展:目前Spark的发布版本是1.2,整个2014年Spark共发布了3个主要版本——1.0、1.1、1.2。随后,陈超对Spark生态圈进行了详细的分析:Spark是一个非常快,并且普适性非常强的一个大数据处理引擎。谈到Spark,首先就是一些常见特性:速度快、易用、通用和兼容Hadoop。首先通用,Spar
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:509kb
    • 提供者:weixin_38600696
  1. hadoop大数据生态圈组件

  2. hadoop大数据组件,包括hadoop,kafka,flume,hbase,hive,zookeeper,spark。可以满足基本使用需求。
  3. 所属分类:互联网

    • 发布日期:2021-01-20
    • 文件大小:834mb
    • 提供者:qq_36187564
« 12 3 »