您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 漫谈大数据第四期-storm

  2. Twitter将Storm正式开源了,这是一个分布式的、容错的实时计算系统,它被托管在GitHub上,遵循 Eclipse Public License 1.0。Storm是由BackType开发的实时处理系统,BackType现在已在Twitter麾下。GitHub上的最新版本是Storm 0.8.0,基本是用Clojure写的。 Storm为分布式实时计算提供了一组通用原语,可被用于“流处理”之中,实时处理消息并更新数据库。这是管理队列及工作者集群的另一种方式。 Storm也可被用于“连续
  3. 所属分类:Java

  1. centos7 pyhive连接hive(基于kerberos安全验证)

  2. centos7 pyhive连接hive(基于kerberos)。由于基于kerberos校验的hive服务器通过python连接的过程很麻烦,故整理文档。
  3. 所属分类:Hive

    • 发布日期:2018-07-23
    • 文件大小:14kb
    • 提供者:u013362877
  1. 白皮书-Tableau企业级应用平台

  2. Tableau企业级应用平台的白皮书,供大家学习,希望有需要的朋友都能将Tableau应用到公司。新一代商业智能软件使需要的人可以掌握数据。对于商业用户或为其提供支持的团队, 缓慢、死板的系统已不敷使用。竟争压力和新的数据源在不断形成新的要求。用户要求能够 快速且方便地回答其问题。这是很棒的事情 Tableau software的创立理念在于,数据分析和后续报告不应是孤立的活动,而是应集成为 单一的可视化分析过程一该过程使用户可按照其思路快速査看其数据中的模式并动态切换视 图。 Tableau将
  3. 所属分类:管理软件

    • 发布日期:2019-10-31
    • 文件大小:2mb
    • 提供者:qinqichang
  1. Airflow使用指南【About云整理】.pdf

  2. About云整理的Airflow使用指南 1. 如何安装和配置 Airflow? 2. 如何通过 Airflow UI 监控 data pipeline (管道)并对其进行故障排除 3. 什么是 Airflow Platform ? 4. Airflow 是如何进行数据分析,追踪数据,调试数据流的? 5. Airflow 命令行接口的基本操作有哪些?www.aboutyun.com活到老学到老 以下是一些将触发一些任务实例的命令。在运行以下命令时,您应该能够在 example bash
  3. 所属分类:Hadoop

    • 发布日期:2019-06-30
    • 文件大小:2mb
    • 提供者:bj278595437
  1. 云粘合平台漫谈及代码理解初步例子

  2. NULL 博文链接:https://lokki.iteye.com/blog/1041255大规模自动化服务,及以上以下的一些名词,但大多数都只实现了简单的服务和功能部件,也未能很 好地"动态化、按需化、快速化”。而在互联网服务新阶段,云计算基础设施里,分布式海量储存、 cache、 KeyValue、 KeyList、非关系式储存、 MapReduce、 Loadbalance、CDN、 ondemand等,这些名 词是常见和普及化的。用后面介绍的名词来说要有专业方向云技术部件” “SLA服务
  3. 所属分类:其它

    • 发布日期:2019-03-23
    • 文件大小:731kb
    • 提供者:weixin_38669628
  1. Python连接Hadoop数据中遇到的各种坑(汇总)

  2. 主要介绍了Python连接Hadoop数据中遇到的各种坑,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:80kb
    • 提供者:weixin_38653385
  1. Python连接HDFS实现文件上传下载及Pandas转换文本文件到CSV操作

  2. 1. 目标 通过hadoop hive或spark等数据计算框架完成数据清洗后的数据在HDFS上 爬虫和机器学习在Python中容易实现 在Linux环境下编写Python没有pyCharm便利 需要建立Python与HDFS的读写通道 2. 实现 安装Python模块pyhdfs 版本:Python3.6, hadoop 2.9 读文件代码如下 from pyhdfs import HdfsClient client=HdfsClient(hosts='ghym:50070')#hdfs地址
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:74kb
    • 提供者:weixin_38628150
  1. Python连接Hadoop数据中遇到的各种坑(汇总)

  2. 最近准备使用Python+Hadoop+Pandas进行一些深度的分析与机器学习相关工作。(当然随着学习过程的进展,现在准备使用Python+Spark+Hadoop这样一套体系来搭建后续的工作环境),当然这是后话。 但是这项工作首要条件就是将Python与Hadoop进行打通,本来认为很容易的一项工作,没有想到竟然遇到各种坑,花费了整整半天时间。后来也在网上看到大家在咨询相同的问题,但是真正解决这个问题的帖子又几乎没有,所以现在将Python连接Hadoop数据库过程中遇到的各种坑进行一个汇总
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:78kb
    • 提供者:weixin_38722317
  1. BigDataSalaryAnaliySystem:大数据招聘信息分析平台-源码

  2. ##大数据招聘信息分析平台##这是依据爬取程序,爬取到的招聘信息进行各维度的分析并展现最终结果的平台 ###平台环境### Centos 7 Hadoop-2.5.1 动物园管理员3.4.6 HBase-1.1.2 蜂巢1.2.1 MySQL的5.6 的Python 3.5 JDK 1.8 建造过程可参考: ###平台项目结构### 爬取项目(爬虫),使用Python编写 加载数据到HBase数据库项目,使用Java编写 Web端展现项目,使用Java编写 ###各项目功能###
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:85mb
    • 提供者:weixin_42122988
  1. Python API 操作Hadoop hdfs详解

  2. http://pyhdfs.readthedocs.io/en/latest/ 1:安装 由于是windows环境(linux其实也一样),只要有pip或者setup_install安装起来都是很方便的 >pip install hdfs 2:Client——创建集群连接 > from hdfs import * > client = Client(“http://s100:50070”) 其他参数说明: classhdfs.client.Client(url, r
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:88kb
    • 提供者:weixin_38663151
  1. dsc-nosql-databases-section-recap-nyc-ds-071519-源码

  2. NoSQL数据库-概述 NoSQL与SQL 我们通过将Relational Databases / SQL与各种NoSQL数据库选项进行比较和对比来开始本课程,并概述了何时使用它们的示例。 NoSQL数据库有4种不同的类型: 文件存储 关键值商店 列存储 图形数据库 RDD和Hadoop / Spark 我们还花了一些时间来探究另一个数据存储范例,即弹性分布式数据集或RDD,例如Spark和Hadoop。 我们探索了这些数据库如何使用冗余来确保数据是容错的,并研究了这些范例背后的驱动思想
  3. 所属分类:其它