您好,欢迎光临本网站![请登录][注册会员]  

大数据下载列表 第466页

« 1 2 ... .61 .62 .63 .64 .65 466.67 .68 .69 .70 .71 ... 1412 »

[spark] 2-3-Spark+Streaming.pdf

说明: spark程序是使用一个spark应用实例一次性对一批历史数据进行处理,spark streaming是将持续不断输入的数据流转换成多个batch分片,使用一批spark应用实例进行处理。
<weixin_44069092> 上传 | 大小:6mb

[Hive] 1-4-Hive+and+Impala.pdf

说明: Impala 与Hive都是构建在Hadoop之上的数据查询工具各有不同的侧重适应面,但从客户端使用来看Impala与Hive有很多的共同之处,如数据表元数 据、ODBC/JDBC驱动、SQL语法、灵活的文件格式、存储资源池等。Impala与Hive在Hadoop中的关系如图 2所示。Hive适合于长时间的批处理查询分析,而Impala适合于实时交互式SQL查询,Impala给数据分析人员提供了快速实验、验证想法的大数 据分析工具。可以先使用hive进行数据转换处理,之后使用Impala在Hi
<weixin_44069092> 上传 | 大小:30mb

[Hbase] 2-1-HBase.pdf

说明: HBase是建立在Hadoop文件系统之上的分布式面向列的数据库。它是一个开源项目,是横向扩展的。 HBase是一个数据模型,类似于谷歌的大表设计,可以提供快速随机访问海量结构化数据。它利用了Hadoop的文件系统(HDFS)提供的容错能力。 它是Hadoop的生态系统,提供对数据的随机实时读/写访问,是Hadoop文件系统的一部分。 人们可以直接或通过HBase的存储HDFS数据。使用HBase在HDFS读取消费/随机访问数据。 HBase在Hadoop的文件系统之上,并提供了读写访问。
<weixin_44069092> 上传 | 大小:10mb

[算法与数据结构] 移动群智感知多任务参与者优选方法研究_刘琰.pdf

说明: 主要研究面向移动群智感知的任务分发方法,提出了一种新的参与者选择:面向多任务并发的参与 者优选.不同于其他参与者选择,文中选择出的参与者不再局限于只能完成一个任务,每个参与者可以在规定时间 内尽可能的完成多个任务,由此降低群智平台的成本 . 并提出 MultiTasker 方法,其目标是选择出最佳的参与者集 合,使参与者完成任务所移动的总距离最短以降低成本,并且完成任务的参与者人数最少以优化用户资源 . 为了实 现这个目标,文中设计了 3 种算法: T - Random 、 T - Most
<weixin_42110203> 上传 | 大小:3mb

[算法与数据结构] BAS_exampleV2.m

说明: 天牛须算法例程,寻找全局最优解,可运行出结果,根据需要可进行调整
<wang19980617> 上传 | 大小:2kb

[算法与数据结构] 成都建筑数据.rar

说明: 此为软件抓取的成都建筑数据,可以做相关分析
<qq_36403403> 上传 | 大小:14mb

[Hadoop] grafanarel.s3.amazonaws.com-grafana-2.6.0-linux64.tgz

说明: ambari编译依赖的grafana,一般找不到,大家懂得;Could not find artifact org.apache.phoenix:phoenix-core:jar:4.4.0.2.3.4.0-3347,或者hbase、grafana、hadoop 和官方的其实是一样的,放心下载, 原名称是grafana-2.6.0.linux-x64.tar.gz,改下包名即可
<wjy1208> 上传 | 大小:22mb

[spark] HPL-SPARQL.pdf

说明: 该文档为英文文档,详细介绍了SPARQL的关系代数,有具体的实例供参考和验证。
<weixin_42209572> 上传 | 大小:468kb

[Hive] hive-hbase-handler-1.2.2

说明: Hive-1.2.1与HBase-1.3.1兼容处理的jar包 hive-hbase-handler-1.2.2.jar
<yankai1101> 上传 | 大小:105kb

[Hadoop] 智慧城市-某大集团大数据平台整体解决方案

说明: 某集团针对智慧城市编写的解决方案,内容很齐全完整,
<s3108002593> 上传 | 大小:18mb

[Hive] 解决hive报hdfs exceeded directory item limit错误

说明: hive报hdfs exceeded directory item limit错误,是由于每次任务失败或者异常退出会造成存在HDFS上的临时目录不自动删除,HDFS目录文件数达到上限,可以脚本清理旧的无用目录解决
<weixin_43861380> 上传 | 大小:16kb

[Hadoop] 关于Yarn的学习

说明: 关于Yarn的学习,hadoop2.0 yarn的有关知识。理论、工作原理、参数调优等。
<gaoguiqiang0> 上传 | 大小:562kb
« 1 2 ... .61 .62 .63 .64 .65 466.67 .68 .69 .70 .71 ... 1412 »