您好,欢迎光临本网站![请登录][注册会员]  

大数据下载,spark下载列表 第59页

« 1 2 ... 54 55 56 57 58 5960 61 62 63 64 ... 198 »

[spark] Flume的UDP源 com.whitepages.flume.plugins.source.udp.UDPSource

说明: 由于Flume的netcatudp为sources,avro为sink时,udp数据发送会报null of map in field headers of org.apache.flume.source.avro.AvroFlumeEvent of array。但是此类解决了这个问题。只需要将此类放在Flume安装的lib目录下,然后sources的type写com.whitepages.flume.plugins.source.udp.UDPSource即可使用
<qq_22310551> 上传 | 大小:9kb

[spark] 车流量监控项目

说明: 包含车流量监控项目的过程解析、以及sql。还有源代码。项目中的libs目录下缺一个包spark-assembly-1.6.0-hadoop2.4.0,可自行下载
<weixin_43637653> 上传 | 大小:131mb

[spark] 大数据DMP项目

说明: DMP项目的项目需求、介绍,计算逻辑,以及开发代码和源数据等,
<weixin_43637653> 上传 | 大小:185mb

[spark] jieba分词器包含关键词提取(java版)

说明: jieba分词器包含关键词提取(java版,可以使用scala调用)
<u010010664> 上传 | 大小:7mb

[spark] 大数据笔记

说明: 随堂笔记 跨平台 注释 关键字 常量 变量 数据类型 标识符 命名规则 运算符
<lanbing0207> 上传 | 大小:21kb

[spark] scala编程实战

说明: scala学习指南,基础知识,帮助大家学习大数据开发很有帮助
<wangxiaoming234> 上传 | 大小:65mb

[spark] spark-2.2.2安装流程

说明: ClusterManager:在Standalone模式中即为Master(主节点),控制整个集群,监控Worker。在YARN模式中为资源管理器。 Worker:从节点,负责控制计算节点,启动Executor。在YARN模式中为NodeManager,负责计算节点的控制。 Driver:运行Application的main()函数并创建SparkContext。 Executor:执行器,在worker node上执行任务的组件、用于启动线程池运行任务。每个Application拥有独立的一
<rainbowfirst> 上传 | 大小:6kb

[spark] 38_Scala函数式编程

说明: 目前很多大数据组件都是用scala开发,包括Spark, Kafka, Flink,scala的函数式编程思想能够带来比java更高的效率,同时其可读性及难度升高,文档由浅入深介绍Scala的语法、特性等;
<yezonggang> 上传 | 大小:1mb

[spark] 中国省级行政区划-Krasovsky-Albers

说明: 中国省级行政区划-Krasovsky-Albers,包含dbf prj sbn sbx shp xml shx文件格式的地图
<yatouzhengfan> 上传 | 大小:2mb

[spark] 应届求职经验

说明: 2019大数据公司面试真题,个人面试经验,有想从事大数据开发或者对大数据感兴趣的可以作为参考。
<z_date> 上传 | 大小:59kb

[spark] Transforming Big Data with Spark and Shark

说明: Transforming Big Data with Spark and Shark,intel内部讲义
<zr1800> 上传 | 大小:18mb

[spark] Real-Time Analytical Processing _RTAP_ using Spark and Shark Presentation

说明: Real-Time Analytical Processing _RTAP_ using Spark and Shark Presentation
<zr1800> 上传 | 大小:810kb
« 1 2 ... 54 55 56 57 58 5960 61 62 63 64 ... 198 »