您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. MapR技术分析文档

  2. MapR技术分析文档,用于详细介绍MapR技术的使用、与MapReduce的不同等
  3. 所属分类:其它

    • 发布日期:2013-11-03
    • 文件大小:291kb
    • 提供者:u012710670
  1. 你需要Spark的10个理由

  2. 你需要Spark的十大理由: 1,Spark是可以革命Hadoop的目前唯一替代者,能够做Hadoop做的一切事情,同时速度比Hadoop快了100倍以上: Logistic regression in Hadoop and Spark 可以看出在Spark特别擅长的领域其速度比Hadoop快120倍以上! 2,原先支持Hadoop的四大商业机构纷纷宣布支持Spark,包含知名Hadoop解决方案供应商Cloudera和知名的Hadoop供应商MapR; 3,Spark是继Hadoop之后,成
  3. 所属分类:虚拟化

    • 发布日期:2014-09-22
    • 文件大小:27kb
    • 提供者:javaniceyou
  1. Hadoop原理——让你快速理解掌握Hadoop

  2. 为何Hadoop是分布式大数据处理的未来?如何掌握Hadoop? Hadoop的历史  始于2002年的apache项目Nutch  2003年Google发表了关于GFS的论文  2004年Nutch的开发者开发了NDFS  2004年Google发表了关于MapReduce的论文  2005年MapR被引入了NDFS  2006年改名为Hadoop,NDFS的创始人加入Yahoo,Yahoo成立了一个专门的小 组发展Hadoop
  3. 所属分类:讲义

    • 发布日期:2015-01-22
    • 文件大小:1mb
    • 提供者:yfy236
  1. 大数据入门ppt

  2. 关于大数据,大数据,Hadoop,Zookeeper,HBase,Hive,Impala,Kafka,Storm,Spark,Hue,Fiume NG,OoZie,Sqoop,Pig,Cloudera,Hortonworks,MapR,Google入门的ppt
  3. 所属分类:其它

    • 发布日期:2016-02-09
    • 文件大小:9mb
    • 提供者:csdndn
  1. Programming Hive

  2. Programming Hive introduces Hive, an essential tool in the Hadoop ecosystem that provides an SQL (Structured Query Language) dialect for querying data stored in the Hadoop Distributed Filesystem (HDFS), other filesystems that integrate with Hadoop,
  3. 所属分类:Hive

    • 发布日期:2017-06-16
    • 文件大小:3mb
    • 提供者:feistel
  1. Streaming Architecture - New Designs Using Apache Kafka and MapR Streams

  2. Streaming Architecture - New Designs Using Apache Kafka and MapR Streams
  3. 所属分类:kafka

    • 发布日期:2017-08-27
    • 文件大小:12mb
    • 提供者:scape1989
  1. Streaming Architecture - New Designs Using Apache Kafka and MapR Streams.pdf

  2. 流式架构:Kafka与MapR Streams数据流处理 Streaming Architecture - New Designs Using Apache Kafka and MapR Streams.pdf 英文原版
  3. 所属分类:kafka

    • 发布日期:2017-10-22
    • 文件大小:12mb
    • 提供者:mengkill
  1. 01_Spark基础(spark概述、spark集群安装)

  2. Spark是一种快速、通用、可扩展的大数据分析引擎,2009年诞生于加州大学伯克利分校AMPLab,2010年开源,2013年6月成为Apache孵化项目,2014年2月成为Apache顶级项目。目前,Spark生态系统已经发展成为一个包含多个子项目的集合,其中包含SparkSQL、Spark Streaming、GraphX、MLlib等子项目,Spark是基于内存计算的大数据并行计算框架。Spark基于内存计算,提高了在大数据环境下数据处理的实时性,同时保证了高容错性和高可伸缩性,允许用户
  3. 所属分类:spark

    • 发布日期:2018-08-28
    • 文件大小:477kb
    • 提供者:u010749802
  1. Streaming Architecture New Designs Using Apache Kafka and MapR Streams

  2. Streaming Architecture New Designs Using Apache Kafka and MapR Streams
  3. 所属分类:专业指导

    • 发布日期:2018-09-14
    • 文件大小:11mb
    • 提供者:xingzh_up
  1. 《流式架构:Kafka与MapR Streams数据流处理》

  2. 流式架构:Kafka与MapR Streams数据流处理 中文版 目录: 1. 为什么使用流 2.流式架构 3.流架构:微服务的理想平台 4.使用kafka进行流传输 5.MapR Streams 6 基于流数据的欺诈检测 7.地理分布式数据流 8.总结
  3. 所属分类:kafka

    • 发布日期:2019-07-16
    • 文件大小:45mb
    • 提供者:mutan101009
  1. HowSparkisEnablingtheNewWaveofConvergedApplications.pdf

  2. 在SPARK SUMMIT 2017上,Tugdual Grall MapR Technologies分享了题为《How Spark is Enabling the New Wave of Converged Applications》,就Spark on Non-Converged Platform等方面的内容做了深入的分析。
  3. 所属分类:其它

    • 发布日期:2019-08-29
    • 文件大小:572kb
    • 提供者:weixin_38744153
  1. cluster-validation, 用于验证集群是否已经准备好用于 MapR Hadoop安装的脚本.zip

  2. cluster-validation, 用于验证集群是否已经准备好用于 MapR Hadoop安装的脚本 群集验证在安装MapR之前,验证MapR将依赖的硬件和软件是非常有价值的。 这样做将验证像磁盘和dimm这样的项目是否按预期执行,并具有已知的基准度量。 这样做还会验证许多基本的操作系统配置和包处于所需状态,并且该状态也记录在输出日志中。
  3. 所属分类:其它

  1. CDH-5.10.2集群的搭建.pdf

  2. 使用原生的ApacheHadoop,有以下痛点需要解决: 1、集群规模很庞大时搭建Hadoop集群复杂度越来越高,工作量很大 2、规模很大的集群下升级Hadoop版本很费时费力 3、需要自己保证版本兼容,比如升级Hadoop版本后需要自己保证与Hive、Hbase等的兼容 4、安全性很低 Apache官方和一些第三方就发布了一些Hadoop发行版本来解决此类问题。一些有名的发行版本列举如下: • Apache Hadoop • Cloudera’s Distribution Inc
  3. 所属分类:Hadoop

    • 发布日期:2020-02-15
    • 文件大小:2mb
    • 提供者:lihujun002
  1. maprfs-5.2.1-mapr.jar

  2. 在windows上编译flink过程中所需要的jar包,可以下载然后手动加载到maven仓库中,下载的请看好jar包版本。
  3. 所属分类:flink

    • 发布日期:2020-01-10
    • 文件大小:47mb
    • 提供者:qq_18506419
  1. TRANSFORMATIONS AND ACTIONS .pdf

  2. python及scala代码实现的spark算子及图解,能帮助你形象化的理解算子的意义sdatabricks Song Recommendations yor making big data simple oA-.ctextfile!sn: / /M_1_DCKET fiumI Py SLaI k syt -Ipur L Ruw det tul Lypase Founded in late 2013 1l, key, Loud ess,Btisic tron songs TABLESANPLE(
  3. 所属分类:spark

    • 发布日期:2019-08-30
    • 文件大小:3mb
    • 提供者:zizhuangzhuang
  1. MapReduce with MongoDB

  2. MapReduce 是 Google 在 2004 年发布的一个软件框架,用于支持大规模数据的分布式计算。 MongoDB 是一个开源的面向文档的 NoSQL 数据库系统,使用 C++ 编写。f Small Books",[ name: Understanding JAva", name: Understanding jSoN") Iname: Understanding Axis2"]) 7.编写 Reduce函数 var function (key Va⊥Jes var sum values
  3. 所属分类:Hadoop

    • 发布日期:2019-07-02
    • 文件大小:323kb
    • 提供者:abacaba
  1. sdc-mapr-k8s:该项目使用MapR v6.1客户端和Kubernetes部署支持构建StreamSets Data Collector(SDC)的自定义Docker映像-源码

  2. sdc-mapr-k8s 该项目使用MapR v6.1客户端和Kubernetes部署支持构建StreamSets数据收集器(SDC)的自定义Docker映像。 配置和构建映像 切换到sdc-mapr-docker目录。 编辑build.sh并进行以下更改: 设置图像名称 编辑在SDC_STAGE_LIBS设置的阶段库列表。确保包括streamsets-datacollector-mapr_6_1-lib和streamsets-datacollector-mapr_6_1-mep6-lib阶段库
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:658kb
    • 提供者:weixin_42175776
  1. 取代而非补充,Spark Summit2014精彩回顾

  2. Apache Spark开源生态系统在2014上半年大幅增长,已迅速成为大数据领域中最活跃的开源项目,HDFS位列第二,其代码变动次数(commits)和行数仅仅有Spark的一半:随着1.0版本于5月30日推出,Spark提供了一个稳定的API,开发人员可以依靠它来保证代码的兼容性。所有主流的Hadoop发行商,包括Hortonworks、IBM、Cloudera、MapR和Pivotal都提供了Spark的包装和技术支持。伴随着Spark平台的发展,Spark Summit2014于6月30
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:213kb
    • 提供者:weixin_38502290
  1. Spark技术解析及在百度开放云BMR应用实践

  2. 2015年1月10日,一场基于Spark的高性能应用实践盛宴由Databricks软件工程师连城、百度高级工程师甄鹏、百度架构师孙垚光、百度美国研发中心高级架构师刘少山四位专家联手打造。2014年,Spark开源生态系统得到了大幅增长,已成为大数据领域最人气的开源项目之一,活跃在Hortonworks、IBM、Cloudera、MapR和Pivotal等众多知名大数据公司,更拥有SparkSQL、SparkStreaming、MLlib、GraphX等多个相关项目。同时值得一提的是,Spark贡
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:740kb
    • 提供者:weixin_38672794
  1. 基于MapR的IPTV用户收视行为分析的方案与实践

  2. 互动电视业务开放平台是运营商的互联网+IPTV转型实践,是用户、终端、内容、商家等之间相互连接的枢纽。平台目前拥有百万级的活跃用户,每天产生接近1 TB的用户收视行为、系统运行日志等数据,这些数据可用于业务运营分析、用户画像、系统运维分析等。MapR是适合此类分析的大数据处理框架之一,结合实际需求介绍MapR的主要特点、核心组件,阐述基于MapR的分析系统的架构设计及应用效果。
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:825kb
    • 提供者:weixin_38638309
« 12 »