您好,欢迎光临本网站![请登录][注册会员]  

大数据下载,Hadoop下载列表 第54页

« 1 2 ... 49 50 51 52 53 5455 56 57 58 59 ... 465 »

[Hadoop] hadoop-eclipse-plugin-2.7.7.jar

说明:hadoop2.7.7的eclipse2019-3版本的插件,仅适用于eclipse官网的2019-3对应版本,其他版本eclipse没试过不过应该不能用,有需要的可以下载
<hdy12138> 在 上传 | 大小:34603008

[Hadoop] Ganglia搭建

说明:Ganglia作为一款最常用的Linux环境中的监控软件,它擅长的的是从节点中按照用户的需求以较低的代价采集数据。但是Ganglia在预警以及发生事件 后通知用户上并不擅长。最新的Ganglia已经有了部分这方面的功能。可我们为什么不找一个更擅长此道的人去做呢?Unix上的一个核心思想也是不要 大而全的软件,通过把各种在某些方面擅长的软件组合起来来完成更多的工作。Nagios,就是一款精于预警、通知的软件。通过将Ganglia和Nagios组 合起来,把Ganglia采集的数据作为Nagios的
<abacaba> 在 上传 | 大小:421888

[Hadoop] Ganglia集成Nagios组合监视企业集群并设置邮件报警

说明:Ganglia作为一款最常用的Linux环境中的监控软件,它擅长的的是从节点中按照用户的需求以较低的代价采集数据。但是Ganglia在预警以及发生事件 后通知用户上并不擅长。最新的Ganglia已经有了部分这方面的功能。可我们为什么不找一个更擅长此道的人去做呢?Unix上的一个核心思想也是不要 大而全的软件,通过把各种在某些方面擅长的软件组合起来来完成更多的工作。Nagios,就是一款精于预警、通知的软件。通过将Ganglia和Nagios组 合起来,把Ganglia采集的数据作为Nagios的
<abacaba> 在 上传 | 大小:500736

[Hadoop] Hadoop Shell命令

说明:调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。 所有的的FS shell命令使用URI路 径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件 系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的 默认scheme。一个HDFS文件或目录比如/parent/child可以表示成 hdfs://namenode:namenodep
<abacaba> 在 上传 | 大小:281600

[Hadoop] Hadoop常用命令.pdf

说明:1.运行MapReduce程序 > hadoop jar test-1.0-SNAPSHOT-jar-with-dependencies.jar /user/test/input /user/test/out 2.运行Jar包指定类中的主函数 > java -cp test-1.0-SNAPSHOT-jar-with-dependencies.jar com.test.main.MainTest
<abacaba> 在 上传 | 大小:38912

[Hadoop] HDFS集群搭建

说明:HDFS是Hadoop分布式计算的存储基础。HDFS具有高容错性,可以部署在通用硬件设备上,适合数据密集型应用,并且提供对数据读写的高吞 吐量。HDFS能 够提供对数据的可扩展访问,通过简单地往集群里添加节点就可以解决大量客户端同时访问的问题。HDFS支持传统的层次文件组织结构,同现 有的一些文件系 统类似,如可以对文件进行创建、删除、重命名等操作。 cname>hadoop. proxyuser. htpfs hosts</name: * /property> hadoo
<abacaba> 在 上传 | 大小:527360

[Hadoop] HDFS的Trash回收站功能的配置和使用

说明:HDFS是Hadoop分布式计算的存储基础。HDFS具有高容错性,可以部署在通用硬件设备上,适合数据密集型应用,并且提供对数据读写的高吞 吐量。HDFS能 够提供对数据的可扩展访问,通过简单地往集群里添加节点就可以解决大量客户端同时访问的问题。HDFS支持传统的层次文件组织结构,同现 有的一些文件系 统类似,如可以对文件进行创建、删除、重命名等操作。
<abacaba> 在 上传 | 大小:421888

[Hadoop] HDFS Comics HDFS 漫画

说明:HDFS是Hadoop分布式计算的存储基础。HDFS具有高容错性,可以部署在通用硬件设备上,适合数据密集型应用,并且提供对数据读写的高吞 吐量。HDFS能 够提供对数据的可扩展访问,通过简单地往集群里添加节点就可以解决大量客户端同时访问的问题。HDFS支持传统的层次文件组织结构,同现 有的一些文件系 统类似,如可以对文件进行创建、删除、重命名等操作。FAULT TOLERANCE IN HDFS. PART I: TYPES OF FAULTS AND THEIR DETECTION FAULT
<abacaba> 在 上传 | 大小:3145728

[Hadoop] Hadoop接口与SnappyData数据处理调度配置.docx

说明:本文档简单阐述了SnappyData做为数据仓库,结合hue及hadoop大数据平台,配置相关调度及简单ssh命令语法。
<xc1989xc> 在 上传 | 大小:843776

[Hadoop] hadoop搭建 2.6.5版本 高可用搭建 hadoopha文件

说明:参照https://blog.csdn.net/hliq5399/article/details/78193113搭建 hadoop搭建 2.6.5版本 高可用搭建 hadoopha文件 可用于检查 或直接复制粘贴拿来用,需要注意的是,环境变量需要检查和配置。
<sinat_31857633> 在 上传 | 大小:200278016

[Hadoop] MapReduce with MongoDB

说明:MapReduce 是 Google 在 2004 年发布的一个软件框架,用于支持大规模数据的分布式计算。 MongoDB 是一个开源的面向文档的 NoSQL 数据库系统,使用 C++ 编写。f Small Books",[ name: Understanding JAva", name: Understanding jSoN") Iname: Understanding Axis2"]) 7.编写 Reduce函数 var function (key Va⊥Jes var sum values
<abacaba> 在 上传 | 大小:330752

[Hadoop] Mapreduce经验

说明:MapReduce最早是由Google提出的用于一种分布式架构中的计算海量数据集的编程模型,它起源于函数式程程序的map 和reduce两个函数,但它们在MapReduce模型中的应用和原来的使用上的大相径庭。在MapReduce模型中,用户指定一 个Map(映射)函数,通过这个Map函数处理键值(Key­Value)对,产生一系列的中间键值对,并且使用一个Reduce(化 简/规约)函数来合并具有相同键(Key)的中间键值对中的值(Value)。
<abacaba> 在 上传 | 大小:583680
« 1 2 ... 49 50 51 52 53 5455 56 57 58 59 ... 465 »