您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Spark原著中文版

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。 Spark 是一种与 Hadoop
  3. 所属分类:spark

    • 发布日期:2018-04-30
    • 文件大小:4194304
    • 提供者:jyh2005
  1. Spark 2.x Cookbook 高清原版 pdf

  2. spark 2.0;spark;大数据;分布式计算框架;高清原版pdf
  3. 所属分类:spark

    • 发布日期:2018-05-08
    • 文件大小:14680064
    • 提供者:eric_saer2013
  1. 大数据Spark企业级实战

  2.  《大数据Spark企业级实战》详细解析了企业级Spark开发所需的几乎所有技术内容,涵盖Spark的架构设计、Spark的集群搭建、Spark内核的解析、Spark SQL、MLLib、GraphX、Spark Streaming、Tachyon、SparkR、Spark多语言编程、Spark常见问题及调优等,并且结合Spark源码细致的解析了Spark内核和四大子框架,最后在附录中提供了的Spark的开发语言Scala快速入门实战内容,学习完此书即可胜任绝大多数的企业级Spark开发需要。
  3. 所属分类:spark

    • 发布日期:2018-05-19
    • 文件大小:116391936
    • 提供者:qq_36154674
  1. 深入理解Spark 核心思想与源码分析

  2. 深入理解Spark 核心思想与源码分析 ,耿嘉安完整版,大数据spark开发必备,你值得拥有。清晰完整版 《深入理解SPARK:核心思想与源码分析》结合大量图和示例,对Spark的架构、部署模式和工作模块的设计理念、实现源码与使用技巧进行了深入的剖析与解读。, 《深入理解SPARK:核心思想与源码分析》一书对Spark1.2.0版本的源代码进行了全面而深入的分析,旨在为Spark的优化、定制和扩展提供原理性的指导。阿里巴巴集团专家鼎力推荐、阿里巴巴资深Java开发和大数据专家撰写。, 本书分为
  3. 所属分类:spark

    • 发布日期:2018-05-22
    • 文件大小:39845888
    • 提供者:jyh2005
  1. Spark实战.docx

  2. 1. Spark是特性  高可伸缩性  高容错  于内存计算 2. Spark的生态体系(BDAS,中文:伯利克分析栈)  MapReduce属于Hadoop生态体系之一,Spark则属于BDAS生态体系之一  Hadoop包含了MapReduce、HDFS、HBase、Hive、Zookeeper、Pig、Sqoop等  BDAS包含了Spark、Shark(相当于Hive)、BlinkDB、Spark Streaming(消息实时处理框架,类似Storm)等等 3. Spark
  3. 所属分类:spark

    • 发布日期:2018-06-01
    • 文件大小:508928
    • 提供者:weixin_42349399
  1. Python语言使用Spark集群

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架。可以通过Python构建Spark任务。
  3. 所属分类:spark

    • 发布日期:2018-06-06
    • 文件大小:4194304
    • 提供者:weixin_37686376
  1. 大数据Spark企业级实战版 - 王家林

  2. 《大数据Spark企业级实战》详细解析了企业级Spark开发所需的几乎所有技术内容,涵盖Spark的架构设计、Spark的集群搭建、Spark内核的解析、Spark SQL、MLLib、GraphX、Spark Streaming、Tachyon、SparkR、Spark多语言编程、Spark常见问题及调优等,并且结合Spark源码细致的解析了Spark内核和四大子框架,最后在附录中提供了的Spark的开发语言Scala快速入门实战内容,学习完此书即可胜任绝大多数的企业级Spark开发需要。
  3. 所属分类:spark

    • 发布日期:2018-06-06
    • 文件大小:115343360
    • 提供者:wyl07122028
  1. 内存计算框架Spark实战

  2. spark集群模式,资源调度由自己实现。分布式模式节点,资源调度掌握整个集群的资源。
  3. 所属分类:Java

    • 发布日期:2018-06-11
    • 文件大小:3145728
    • 提供者:bellboy
  1. spark及stream任务简单实现框架及使用实例

  2. spark及stream任务实现框架及使用实例,结果存入mysql数据库,包含了一套最简单的实现框架,方便添加各种简单的任务
  3. 所属分类:spark

    • 发布日期:2018-06-21
    • 文件大小:37888
    • 提供者:chunzhenzyd
  1. 基于Spark框架的聚类算法研究

  2. 大数据的挖掘是当今的研究热点,也有着巨大的商业价值。新型框架Spark部署在Hadoop平台上,它的机器学习算法几乎可以完全替代传统的Mahout Map Reduce的编程模式,但由于Spark的内存模型特点,执行速度快。该文研究了Spark中的机器学习中的聚类算法KMeans,先分析了算法思想,再通过实验分析其应用的方法,然后通过实验结果分析其应用场景和不足。
  3. 所属分类:spark

    • 发布日期:2018-06-22
    • 文件大小:1048576
    • 提供者:qq_28339273
  1. 并行计算框架Spark的自适应缓存管理策略

  2. 并行计算框架Spark缺乏有效缓存选择机制,不能自动识别并缓存高重用度数据;缓存替换算法采用LRU,度量方法不够细致,影响任务的执行效率.本文提出一种Spark框架自适应缓存管理策略(Self-Adaptive Cache Management,SACM),包括缓存自动选择算法(Selection)、并行缓存清理算法(Parallel Cache Cleanup,PCC)和权重缓存替换算法(Lowest Weight Replacement,LWR).其中,缓存自动选择算法通过分析任务的DAG
  3. 所属分类:spark

    • 发布日期:2018-06-22
    • 文件大小:1048576
    • 提供者:qq_28339273
  1. 基于Spark的大数据挖掘技术的研究

  2. Spark在实际的工业生产和实践中已经获得了广泛的应用,但是由于其诞生的时间较晚,版本更新速度慢。现阶段,使用Spark框架在某些具体的大数据场景中能对其挖掘,就要结合原有的模块改写部分功能,发挥其应有的作用。解决大数据挖掘问题的同时,Spark框架由于功能性不足,如进行机器学习库的时候的MLlib里面解决关联新问题的分布式机器学习算法还有不足之处。故此,该文就Spark大数据挖掘技术开展深入的研究,希望能为该领域研究提供参考。
  3. 所属分类:spark

    • 发布日期:2018-06-22
    • 文件大小:1048576
    • 提供者:qq_28339273
  1. Flink,Storm,Spark Streaming三种流框架的对比分析

  2. Flink,Storm,Spark Streaming三种流框架的对比分析。比较清晰明确
  3. 所属分类:Storm

    • 发布日期:2018-06-24
    • 文件大小:2097152
    • 提供者:zexn113
  1. Apache Spark

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架
  3. 所属分类:spark

    • 发布日期:2018-06-28
    • 文件大小:145752064
    • 提供者:weixin_32897647
  1. spark并行计算论文集合

  2. 1.一种基于Spark和聚类分析的辨识电力系统不良数据新方法 2.基于Spark云计算平台的改进K近邻算法研究 3.基于Spark的蚁群优化算法 4.基于Spark的大数据清洗框架设计与实现 5.基于Spark的大规模分布式矩阵运算算法研究与实现 共十几篇论文.....
  3. 所属分类:spark

    • 发布日期:2018-07-11
    • 文件大小:39845888
    • 提供者:houjoe
  1. Spark快速数据处理

  2. Spark是一个开源的通用并行分布式计算框架,由加州大学伯克利分校的AMP实验室开发,支持内存计算、多迭代批量处理、即席查询、流处理和图计算等多种范式。Spark内存计算框架适合各种迭代算法和交互式数据分析,能够提升大数据处理的实时性和准确性,现已逐渐获得很多企业的支持,如阿里巴巴、百度、网易、英特尔等公司。 《Spark快速数据处理》系统讲解Spark的使用方法,包括如何在多种机器上安装Spark,如何配置一个Spark集群,如何在交互模式下运行第一个Spark作业,如何在Spark集群上构
  3. 所属分类:spark

    • 发布日期:2018-07-17
    • 文件大小:13631488
    • 提供者:r115277
  1. Spark亚太研究院-Spark实战高手之路

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。 Spark 是一种与 Hadoop
  3. 所属分类:spark

  1. Spark大型集群上的快速和通用数据处理架构

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。 Spark 是一种与 Hadoop
  3. 所属分类:spark

  1. Spark官方中文文档

  2. Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。 Spark 是一种与 Hadoop
  3. 所属分类:spark

  1. 数据算法:Hadoop、Spark大数据处理技巧

  2. 如果你准备深入研究MapReduce框架来处理大数据集,本书非常实用,通过提供丰富的算法和工具,它会循序渐进地带你探索MapReduce世界,用Apache Hadoop或Apache Spark构建分布式MapReduce应用时通常都需要用到这些算法和工具。每一章分别提供一个实例来解决一个大规模计算问题,如构建推荐系统。你会了解如何用代码实现适当的MapReduce解决方案,而且可以在你的项目中具体应用这些解决方案。
  3. 所属分类:其它

    • 发布日期:2018-08-02
    • 文件大小:24117248
    • 提供者:qm13416479599
« 1 2 3 45 6 7 8 9 10 ... 27 »