您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pig-0.9.1.tar.gz

  2. Pig是yahoo捐献给apache的一个项目,它是SQL-like语言,是在MapReduce上构建的一种高级查询语言,把一些运算编译进MapReduce模型的Map和Reduce中,并且用户可以定义自己的功能。这是Yahoo开发的又一个克隆Google的项目:Sawzall。 Pig是一个客户端应用程序,就算你要在Hadoop集群上运行Pig,也不需要在集群上装额外的东西。Pig的安装是灰常的简单的: 1、安装JAVA6(在Windows的话要装Cygwin),设置好JAVA_HOME。
  3. 所属分类:其它

    • 发布日期:2011-12-24
    • 文件大小:40mb
    • 提供者:yousteely
  1. Hadoop Shell命令大全

  2. Hadoop 有两个核心的东西:HDFS、MapReduce。操作HDFS可以通过命令行、WEB接口和JAVA代码。本文档详细介绍了操作HDFS的命令,并配有详细的例子。
  3. 所属分类:Java

  1. HDFS可视化操作研究与实现

  2. Hadoop 是一个由Java 语言实现的软件框架,在一个计算机集群中对海量数据进行分布式计算,这个集群可 以支持上千个节点和PB 级别的数据. HDFS 是专门为Hadoop 设计的分布式文件系统,作为Hadoop 最基本的构成元 素,保证内容的完整性与可用性. 但是HDFS 的操作界面并不友好,必须通过命令行或者IDE 插件来实现对文件的操 作. 在研究HDFS 的架构的基础上,设计实现了基于WEB 的HDFS 可视化文件访问系统.
  3. 所属分类:OS

  1. 使用HDFS命令行工具操作Hadoop分布式集群初体验

  2. 王家林的“云计算分布式大数据Hadoop实战高手之路---从零开始”的第六讲Hadoop图文训练课程:使用HDFS命令行工具操作Hadoop分布式集群初体验。 此教程来自于王家林免费发布的3本Hadoop教程:云计算分布式大数据Hadoop实战高手之路(共3本书): 王家林编写的“云计算分布式大数据Hadoop实战高手之路---从零开始”带领您无痛入门Hadoop并能够处理Hadoop工程师的日常编程工作,进入云计算大数据的美好世界。 王家林编写的“云计算分布式大数据Hadoop实战高手之路-
  3. 所属分类:3G/移动开发

    • 发布日期:2013-06-15
    • 文件大小:1mb
    • 提供者:javaniceyou
  1. DFS命令行工具操作Hadoop分布式集群初体验

  2. 王家林的“云计算分布式大数据Hadoop实战高手之路---从零开始”的第六讲Hadoop图文训练课程:使用HDFS命令行工具操作Hadoop分布式集群初体验。 此教程来自于王家林免费发布的3本Hadoop教程:云计算分布式大数据Hadoop实战高手之路(共3本书): 王家林编写的“云计算分布式大数据Hadoop实战高手之路---从零开始”带领您无痛入门Hadoop并能够处理Hadoop工程师的日常编程工作,进入云计算大数据的美好世界。 王家林编写的“云计算分布式大数据Hadoop实战高手之路-
  3. 所属分类:3G/移动开发

    • 发布日期:2013-06-15
    • 文件大小:1mb
    • 提供者:javaniceyou
  1. Hadoop入门实战手册

  2. 1 概述 1.1  什么是Hadoop? 1.2  为什么要选择Hadoop? 1.2.1  系统特点 1.2.2  使用场景 2 术语 3 Hadoop的单机部署 3.1  目的 3.2  先决条件 3.2.1  支持平台 3.2.2  所需软件 3.2.3  安装软件 3.3  下载 3.4  运行Hadoop集群的准备工作 3.5  单机模式的操作方法 3.6  伪分布式模式的操作方法 3.6.1  配置 3.6.2  免密码ssh设置 3.6.3  执行 4 Hadoop集群搭建过程手
  3. 所属分类:其它

    • 发布日期:2013-08-20
    • 文件大小:881kb
    • 提供者:jsntghf
  1. Hadoop入门实战手册

  2. 目录 1 ...........................................................................................................................4 概述 1.1 ..................................................................................................4 什么是Hadoop? 1
  3. 所属分类:Java

    • 发布日期:2014-08-22
    • 文件大小:881kb
    • 提供者:aaron_924
  1. Hadoop HDFS应用

  2. 本文主要针对通过命令行和JAVA API实现对HDFS的访问,并对HDFS支持的文件系统进行了简单介绍,最后是几个例子说明如何变成实现对HDFS上文件的访问。
  3. 所属分类:群集服务

    • 发布日期:2015-07-02
    • 文件大小:521kb
    • 提供者:zhangbaolin
  1. 大数据学习笔记.pdf

  2. 目录 第一部分 Spark学习 ....................................................................................................................... 6 第1章 Spark介绍 ...................................................................................................
  3. 所属分类:其它

    • 发布日期:2016-11-03
    • 文件大小:6mb
    • 提供者:henni_719
  1. java大数据内容_2HDFS

  2. 1.HDFS命令行操作 1.1 HDFS命令行操作 1.1.1HDFS概述 HDFS概述 Hadoop由3个部分构成: Core HDFS MapReduce 1.1.2HDFS命令 HDFS命令 HDFS基本操作命令: -help [cmd] // 显示命令的帮助信息 -ls(r) // 显示当前目录下的所有文件 -du(s) // 显示目录中所有文件大小 -count[-q] // 显示目录中文件数量 -mv // 移动多个文件到目标目录 -cp // 复制多个文件到目标目录
  3. 所属分类:Java

    • 发布日期:2018-01-23
    • 文件大小:793kb
    • 提供者:xiaoli_shen
  1. sqoop导入数据到hdfs路径

  2. sqoop导入数据到hdfs,所有相关的操作命令均在更改相关地址就行。
  3. 所属分类:Hadoop

    • 发布日期:2018-11-08
    • 文件大小:220byte
    • 提供者:qq_36668980
  1. Hadoop Shell命令

  2. 调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式。 所有的的FS shell命令使用URI路 径作为参数。URI格式是scheme://authority/path。对HDFS文件系统,scheme是hdfs,对本地文件 系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的 默认scheme。一个HDFS文件或目录比如/parent/child可以表示成 hdfs://namenode:namenodep
  3. 所属分类:Hadoop

    • 发布日期:2019-07-02
    • 文件大小:275kb
    • 提供者:abacaba
  1. hadoop相关组件命令行操作手册

  2. HDFS,HBase,Hive,Zookeep,Yarn,HadoopLoader,Storm,Kafka,Spark等命令实例,系统全面。
  3. 所属分类:Hadoop

    • 发布日期:2019-01-12
    • 文件大小:168kb
    • 提供者:jxsj12345
  1. Hadoop安装.docx

  2. 逐步介绍如何搭建 分布式大数据Hadoop集群 如何使用HDFS命令行客户端进行访问与操作保存文件、读取文件等
  3. 所属分类:互联网

    • 发布日期:2020-07-23
    • 文件大小:23kb
    • 提供者:weixin_38679935
  1. HDFS两种操作方式:命令行和Java API

  2. HDFS 文件操作有两种方式:一种是命令行方式,Hadoop 提供了一套与 Linux 文件命令类似的命令行工具;另一种是 Java API,即利用 Hadoop 的 Java 库,采用编程的方式操作 HDFS 的文件。 本节将介绍 Linux 操作系统中关于 HDFS 文件操作的常用命令行,并将介绍利用 Hadoop 提供的 Java API 进行基本的文件操作,以及利用 Web 界面查看和管理 HDFS 的方法。 HDFS 常用命令 在 Linux 命令行终端,可以使用命令行工具对 HDF
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:222kb
    • 提供者:weixin_38685832
  1. HDFS全面详解

  2. HadoopHDFS分布式文件系统DFS简介HDFS的系统组成介绍HDFS的组成部分详解副本存放策略及路由规则命令行接口Java接口客户端与HDFS的数据流讲解掌握hdfs的shell操作掌握hdfs的javaapi操作理解hdfs的工作原理设计思想分而治之:将大文件、大批量文件,分布式存放在大量服务器上,以便于采取分而治之的方式对海量数据进行运算分析;在大数据系统中作用:为各类分布式运算框架(如:mapreduce,spark,tez,……)提供数据存储服务重点概念:文件切块,副本存放,元数据
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:430kb
    • 提供者:weixin_38518668
  1. HDFS知识点总结

  2. 本文来自于cnblogs,文章主要介绍了什么是HDFS,命令行接口,Java接口,数据流,通过Flume和Sqoop导入数据,通过distcp并行复制等相关。学习完Hadoop权威指南有一段时间了,现在再回顾和总结一下HDFS的知识点。HDFS是什么:HDFS即Hadoop分布式文件系统(HadoopDistributedFilesystem),以流式数据访问模式来存储超大文件,运行于商用硬件集群上,是管理网络中跨多台计算机存储的文件系统。HDFS不适合用在:要求低时间延迟数据访问的应用,存储大
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:293kb
    • 提供者:weixin_38586942
  1. hdfs:HDFS的API和命令行界面-源码

  2. HdfsCLI HDFS的API和命令行界面。 $ hdfscli --alias=dev Welcome to the interactive HDFS python shell. The HDFS client is available as `CLIENT`. In [1]: CLIENT.list('models/') Out[1]: ['1.json', '2.json'] In [2]: CLIENT.status('models/2.json') Out[2]: { 'ac
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:70kb
    • 提供者:weixin_42125867
  1. HDFS知识点总结

  2. 本文来自于cnblogs,文章主要介绍了什么是HDFS,命令行接口,Java接口,数据流,通过Flume和Sqoop导入数据,通过distcp并行复制等相关。学习完Hadoop权威指南有一段时间了,现在再回顾和总结一下HDFS的知识点。HDFS是什么:HDFS即Hadoop分布式文件系统(HadoopDistributedFilesystem),以流式数据访问模式来存储超大文件,运行于商用硬件集群上,是管理网络中跨多台计算机存储的文件系统。HDFS不适合用在:要求低时间延迟数据访问的应用,存储大
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:286kb
    • 提供者:weixin_38638647
  1. HDFS全面详解

  2. HadoopHDFS分布式文件系统DFS简介 HDFS的系统组成介绍 HDFS的组成部分详解 副本存放策略及路由规则 命令行接口 Java接口 客户端与HDFS的数据流讲解
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:430kb
    • 提供者:weixin_38723753
« 12 3 »