您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Spark_compile:通过maven编译之后的Spark原始码-源码通

  2. 阿帕奇火花 Spark是用于大数据的快速通用集群计算系统。 它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和DataFrames的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的Spark Streaming。 在线文件 您可以在和上找到最新的Spark文档,包括编程指南。 此自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:16mb
    • 提供者:weixin_42121058
  1. spark-3.0.1:Spark-3.0.1源码-源码

  2. 阿帕奇火花 Spark是用于大规模数据处理的统一分析引擎。 它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和DataFrames的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的结构化流。 在线文件 您可以在找到最新的Spark文档,包括编程指南。 此自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建Spark及其示例程序,请
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:29mb
    • 提供者:weixin_42151772
  1. spark-2.4.7:spark-2.4.7源码-源码

  2. 阿帕奇火花 Spark是用于大数据的快速通用集群计算系统。 它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和DataFrames的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的Spark Streaming。 在线文件 您可以在找到最新的Spark文档,包括编程指南。 此自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建Sp
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:22mb
    • 提供者:weixin_42178688
  1. spark-1.3.0:原始码分析与修改[spark-parent_2.10]-源码

  2. 阿帕奇火花 Spark是用于大数据的快速通用集群计算系统。 它提供了Scala,Java和Python中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和结构化数据处理的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的Spark Streaming。 在线文件 您可以在和上找到最新的Spark文档,包括编程指南。 此自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建Spark
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:13mb
    • 提供者:weixin_42151599
  1. spark1.52:Spark源代码中文注释-源码

  2. 阿帕奇火花 Spark是用于大数据的快速通用集群计算系统。 它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和DataFrames的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的Spark Streaming。 在线文件 您可以在和上找到最新的Spark文档,包括编程指南。 此自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:322mb
    • 提供者:weixin_42153793
  1. Projects-with-Spark-源码

  2. 火花项目 使用Python中的Apache Spark进行大数据 概述 此存储库包含一些有用的代码,这些代码是我在Udemy上有关Apache Spark的课程中的一些活动和练习的一部分。 我在非分布式环境中具有处理所有这些方面的经验(广度优先搜索和流数据除外)。 使用spark RDD和数据框框架将这些方法应用于大型数据集(甚至在我的个人计算机上)真的很有趣。 了解广度优先搜索算法并将其应用于在(伪)社交媒体图中找到分离度的过程非常令人着迷。 除此之外,我还尝试处理与Apache Spark提
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:23kb
    • 提供者:weixin_42117116
  1. spark-goods:spark流式计算电商商品关注度+推荐系统关联系统-源码

  2. 火花物品 spark流式计算电商商品关注度+推荐系统/关联系统 火花:2.6.5 Hadoop:2.6.0 Scala:2.11.8 开发方式:maven(java + scala) 前端:boostrap + springboot + echarts spark-goods:后台springboot1:前端
  3. 所属分类:其它

  1. logcount:基于火花流和kafka,hbase的日志统计分析系统-源码

  2. 日志分析系统 系统架构 本使用kafka,spark,hbase开发日志分析系统。 软件模块 Kafka:作为日志事件的消息系统,具有多样性,可划分,可重复的消息服务功能。 Spark:使用火花流功能,实时分析消息系统中的数据,完成计算分析工作。 Hbase:做为预先存储,存储spark计算结构,供其他系统进行调用 环境部署 软件版本 hadoop版本:Hadoop相关软件如zookeeper,hadoop,hbase,使用的是cloudera的cdh 5.2.0版本。 卡夫卡:2.9.2
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:215kb
    • 提供者:weixin_42128558
  1. 浇口:火花+流口水-源码

  2. 浇口:火花+流口水
  3. 所属分类:其它

    • 发布日期:2021-02-26
    • 文件大小:27kb
    • 提供者:weixin_42099302
  1. 傻猫火花-源码

  2. 傻猫火花 去做 添加单元测试 支持Spark SQL 支持火花流 运行命令 sbt创想 sbt蚀 如何运行项目 在本地开发 sbt“运行com.sillycat.spark.app.CountLinesOfKeywordApp” sbt“运行com.sillycat.spark.app.CountDeviceSqlApp” sbt“运行com.sillycat.spark.app.AttributesStreamingApp” 生成二进制文件 sbt clean update编译程序集
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:15kb
    • 提供者:weixin_42119866
  1. 机器学习工具箱:通过旧金山的一些社区聚会,学习机器学习的80小时课程-源码

  2. 机器学习工具箱 通过旧金山的一些社区聚会进行80个小时的机器学习课程 高级Spark和TensorFlow聚会 8月20日网络研讨会 工具 流水线AI 库伯流 TensorFlow Extended(TFX) 空气流动 显卡 热塑性聚氨酯 火花ML TensorFlow AI Kubernetes Scikit学习 火炬 流水线 ML / DL项目集群Holberton 8月27日将是一个项目集群,与会者将有时间从事项目工作 工具 fast.ai.home: : fast.
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:15kb
    • 提供者:weixin_42138408
  1. eurobonds_liquidity-源码

  2. akka http作业:трансляцияhttp-батчейвпотоквKafka Spark批处理作业:расчётметрикликвидностидляроссийских(+СНГ)еврооблигаций 欧元债券报价流上的火花流:通过流动性指标丰富 Какзапуститьикакпосмотреть 创建泊坞窗网络: make 运输者:запускаемприложениядляобеспеченияданныхнавход: ИзменитьENV CBONDS_
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:149kb
    • 提供者:weixin_42162978
  1. 将数据流式传输到附近的管道中,实时使用Kafka-Spark:目标是能够在平台上拥有数据以运行流式数据管道。 在此,我们将CSV文件的内容生成给Kafka主题,使用来自Kafka主题的消息-源码

  2. 使用卡夫卡火花将数据流传输到附近的管道中 #运行KafkaProject文件 我们每天都获得STM的信息,并且需要运行ETL管道来丰富数据,以便实时进行报告和分析。 数据一分为二 一组构建维度的表格(批处理样式) 为了进行分析和报告(流)而需要丰富的行程为了能够在Spark Streaming等平台上运行流分析,我们需要在Kafka等流平台上拥有记录。 使用kafka-console-producer将trips.txt文件生成到Kafka。 每行是一条消息。 将行程主题消费到您的应用程序中
  3. 所属分类:其它

  1. DS-Def-源码

  2. 告诉我有关数据科学的信息 给我一个关于数据科学有趣的东西的简短解释 提供一些有助于理解的解释链接 火花很酷 Spark围绕Spark Core构建,Spark Core是驱动调度,优化和RDD抽象的引擎,并将Spark连接到正确的文件系统(HDFS,S3,RDBM或Elasticsearch)。 有几个库可在Spark Core之上运行,包括Spark SQL(可让您在分布式数据集上运行类似SQL的命令),MLLib(用于机器学习),GraphX(用于图问题)以及流(可输入连续流)日志数据。 关
  3. 所属分类:其它

  1. 火花化:e-源码

  2. #Sparkify项目描述 Sparkify是Udacity创建的一个虚构的音乐流媒体平台,这个数据集包含了两个月的Sparkify用户行为日志。日志包含关于用户的一些基本信息以及关于双向操作的信息。一个用户可以包含多个更高。在数据中,确定用户是否流失,通过重定向账号的行为可以被区别出来。 Sparkify数据集 在这个项目中,我们得到了这个平台的日志数据。迷你,中型和大型数据集(仅在AWS公开)都可以使用。我使用了中等规模的数据,数据集medium_sparkify_event_data.js
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:84kb
    • 提供者:weixin_42107374
  1. Learn_bigdata-源码

  2. Apache Spark Spark是用于大规模数据处理的统一分析引擎。 它提供了Scala,Java,Python和R中的高级API,以及优化的引擎,该引擎支持用于数据分析的通用计算图。 它还支持丰富的高级工具集,包括用于SQL和DataFrames的Spark SQL,用于机器学习的MLlib,用于图形处理的GraphX和用于流处理的结构化流。 在线文件 您可以在找到最新的Spark文档,包括编程指南。 该自述文件仅包含基本的安装说明。 建筑火花 Spark是使用构建的。 要构建Spark
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:15kb
    • 提供者:weixin_42134038
  1. sparkflow:易于使用的库将Tensorflow带入Apache Spark-源码

  2. 火花流 这是TensorFlow在Spark上的实现。 该库的目标是在Spark上使用TensorFlow提供一个简单易懂的界面。 借助SparkFlow,您可以轻松地将您的深度学习模型与ML Spark Pipeline集成。 在下面,SparkFlow使用参数服务器以分布式方式训练TensorFlow网络。 通过api,用户可以指定训练方式,无论是Hogwild还是带锁定的异步方式。 我为什么要用这个? 虽然还有其他库在Apache Spark上使用TensorFlow,但SparkFlo
  3. 所属分类:其它

  1. BigData-Notes:大数据入门指南-源码

  2. 大数据注释 大数据入门指南 如果需要离线阅读,可以在公众号上发送“ bigdata”获取《大数据入门指南》离线阅读版! :black_nib:前言 一,Hadoop 二,蜂巢 三,火花 Spark Core: Spark SQL: 火花流: 四,暴风雨 五,Flink 六,HBase 七,卡夫卡 八,动物园管理员 九,水槽 十,Sqoop 十一,阿兹卡班 十二,Scala 十三,公共内容 :bookmark_tabs:后记
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:20mb
    • 提供者:weixin_42157188
  1. spark-streaming-twitter:构建管道以使用Spark和Mongodb处理实时数据-源码

  2. 火花流推特 构建管道以使用Spark和Mongodb处理实时数据。 Twitter实时数据使用API​​提取,然后使用Apache-Spark处理。 “ tweepy” API从Twitter中提取数据,该数据存储为JSON对象。 该JSON对象包含tweet,用户详细信息,re-tweets,tweets的ip地址,地理坐标等。但是对于我们的处理,我们仅考虑实际的tweet(由用户发布或转发),以及时间戳它被创造了。 然后,此数据在MongoDb中暂存,并在运行时完成一些处理。 数据流过程:
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:140kb
    • 提供者:weixin_42118011
  1. sylph:大数据流计算平台-源码

  2. 西尔夫 欢迎来到希尔夫! Sylph是流作业管理器。 Sylph使用SQL查询来描述计算并绑定多个源(输入)/接收器(输出)以可视化方式开发和部署流应用程序。 通过Web IDE,可以随时轻松地开发,部署,监视流应用程序并分析流应用程序行为。 Sylph具有丰富的源/接收器支持和灵活的扩展,可以直观地开发和部署流分析应用程序以及可视化的流应用程序生命周期管理。 Sylph的核心是通过工作流描述来构建分布式应用程序。 支持 火花流(Spark1.x) 结构化流(Spark2.x) Fl
  3. 所属分类:其它

« 12 »