您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ETL中的数据清洗设计

  2. ETL中的数据清洗设计 ETL中的数据清洗设计
  3. 所属分类:专业指导

    • 发布日期:2009-08-11
    • 文件大小:51kb
    • 提供者:zhangnet1
  1. 详解BI项目中的ETL

  2. L是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。ETL是BI 项目重要的一个环节。通常情况下,在BI项目中ETL会花掉整个项目的1/3的时间,ETL设计的好坏直接关接到BI项目的成败。
  3. 所属分类:专业指导

    • 发布日期:2010-01-08
    • 文件大小:30kb
    • 提供者:veedoo
  1. ETL中的数据清洗设计

  2. ETL中的数据清洗设计 ETL中的数据清洗设计 .ETL中的数据清洗设计 ETL中的数据清洗设计
  3. 所属分类:Web开发

    • 发布日期:2011-04-19
    • 文件大小:48kb
    • 提供者:justin973
  1. 生产过程数据仓库ETL模块的研究与开发

  2. 硕士论文 摘要:本文首先介绍了数据仓库的概念和特点,以及ETL模块的主要功能。接着针对基于生产过程数据的特点,研究并给出了生产过程历史数据的清洗、转换、抽取的关键算法。在此基础上,设计并开发了面向实时/历史数据库的ETL应用功能软件模块。最后,将本文开发的ETL模块应用于某600MW燃煤机组的运行工况分析数据仓库的建立中,并展示出部分结果。
  3. 所属分类:其它

    • 发布日期:2011-08-30
    • 文件大小:6mb
    • 提供者:zttyan
  1. The Data Warehouse ETL Toolkit (中文版).pdf

  2. 抽取-转换-加载(Extract-Transform-Load)系统是数据仓库的基础。一个设计良好的ETL系统从源系统抽取数据,执行数据质量和一致性标准,然后规格化数据,从而使分散的源数据可以集中在一起使用,最终再以可以展现的格式提交数据,以便应用开发者可以创建应用系统,也使最终用户可以制定决策。该书围绕这四个步骤进行组织。 ETL系统既能成就数据仓库也能毁了它。因为虽然创建ETL系统是后台工作,对于最终用户并不可见,但是对于实施和维护一个典型的数据仓库系统来说,它所耗费的资源会很容易达到70
  3. 所属分类:数据库

    • 发布日期:2013-03-13
    • 文件大小:4mb
    • 提供者:tonyyubaohui
  1. 详细设计说明书

  2. 中国移动无线城市集中运营服务平台系统项目 详细设计说明书 文档标识: 当前版本: 1.0 当前状态: 草稿 发布日期: 2012-8-28 发布  修改历史 日期 版本 作者 修改内容 评审号 变更控制号 2012-8-28 1.0 拓维 新建 目 录 1 总则 2 1.1 编写目的 2 1.2 读者对象 2 1.3 参考文档 2 1.4 术语与缩写 2 2 系统概述 2 2.1 模块结构 2 2.2 采用技术 3 3 模块设计 4 3.1 模块1 4 3.2 模块2…… 9 4 模块详细设
  3. 所属分类:硬件开发

    • 发布日期:2013-04-15
    • 文件大小:714kb
    • 提供者:chdfeng
  1. ETL中的数据清洗设计.doc

  2. 摘要 为提高数据仓库数据质量,需要在ETL过程进行数据清洗。本文首先提出了ETL过程进行数据清洗应解决的问题,然后通过分析现有的ETL处理方式说明应采用数据库中的ETL处理,介绍了数据质量和数据清洗的原理并提出了数据清洗在ETL中的应用模型,最后通过实例说明数据清洗的具体实现。
  3. 所属分类:专业指导

    • 发布日期:2008-09-13
    • 文件大小:48kb
    • 提供者:zengruicfan
  1. BI ETL ELT Kettle 基础知识中文文档汇总

  2. BI ETL ELT Kettle 基础知识中文文档汇总 BI项目中ETL设计与思考.pdf CTL工具.pdf ETL-开发规范.pdf ETL_--_事实表.pdf ETL_文档.pdf ETL_架构.pdf ETL_调度系统技术方案说明书_V1.0.pdf ETL中的数据清洗设计.pdf ETL交流.pdf ETL培训.ppt ETL工具比较.pdf ETL应用浅析.pdf ETL开发实施中质量保证的关键要素V1.0.pdf ETL数据增量抽取方案.pdf ETL数据集成方案初步研究.p
  3. 所属分类:其它

    • 发布日期:2014-04-05
    • 文件大小:13mb
    • 提供者:machen_smiling
  1. ETL基础知识

  2. ETL是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。ETL是BI项目重要的一个环节。通常情况下,在BI项目中ETL会花掉整个项目的1/3的时间,ETL设计的好坏直接关接到BI项目的成败。
  3. 所属分类:其它

    • 发布日期:2015-11-25
    • 文件大小:16kb
    • 提供者:u011574074
  1. 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》

  2. 高清版(中文) 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》主要介绍如何使用开源ETL工具来完成数据整合工作。 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》介绍的PDI(Kettle)是一种开源的 ETL 解决方案,书中介绍了如何使用PDI来实现数据的剖析、清洗、校验、抽取、转换、加载等各类常见的ETL类工作。 除了ODS/DW类比较大型的应用外,Kettle 实际还可以为中小企业提供灵活的数据抽取和数据处理的功能。Kettle除了支
  3. 所属分类:Java

    • 发布日期:2016-05-06
    • 文件大小:58mb
    • 提供者:u010440380
  1. Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案 part2

  2. 资源太大,只能分两部门,这是第二部分,第一部分点我主页看资源,谢谢。 高清版(中文) 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》主要介绍如何使用开源ETL工具来完成数据整合工作。 《Pentaho Kettle解决方案:使用PDI构建开源ETL解决方案》介绍的PDI(Kettle)是一种开源的 ETL 解决方案,书中介绍了如何使用PDI来实现数据的剖析、清洗、校验、抽取、转换、加载等各类常见的ETL类工作。 除了ODS/DW类比较大型的应用外,Kettle 实际
  3. 所属分类:Java

    • 发布日期:2016-05-10
    • 文件大小:34mb
    • 提供者:u010440380
  1. BI项目中ETL设计与思考

  2. ETL是将业务系统的数据经过抽取、清洗转换之后加载到数据仓库的过程,目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。ETL是BI项目重要的一个环节。通常情况下,在BI项目中ETL会花掉整个项目的1/3的时间,ETL设计的好坏直接关接到BI项目的成败
  3. 所属分类:算法与数据结构

    • 发布日期:2017-09-07
    • 文件大小:16kb
    • 提供者:luyangbai
  1. ETL中的数据清洗设计

  2. ETL中的数据清洗设计 ETL处理方式 数据清洗的原理及在ETL中的应用模型
  3. 所属分类:专业指导

    • 发布日期:2009-04-07
    • 文件大小:51kb
    • 提供者:sunearlier
  1. 使用Kettle进行数据迁移(ETL)

  2. 由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中。此过程可能涉及到表结构不一致、大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取、清洗等等工作。部分复杂的工作需要我们的DBA写代码用程序在JDBC或者Delphi中解决,而大部分稍简单的数据的迁移需要一个强大的ETL工具来解决。某日,技术经理让我找一个满足我们项目数据迁移需求的稳定、高效ETL工具。google了几把,网上大致有下列几款软件资料较多:Oracle的OWB(OracleWarehouseBuil
  3. 所属分类:其它

  1. Hawk:使用C#WPF编写的可视化搜寻器和ETL IDE-源码

  2. Hawk:高级ETL和搜寻器流引擎 欢迎使用Hawk! Hawk可以按照GPL协议以C#/ WPF和开放源代码编写的图形化方式爬网网页,清理,处理和保存数据,而无需编程。 GitHub: : 文档: : 项目资料库: : 下载: : 下载(chs): : 介绍 Hawk的意思是“鹰”,可以有效,准确地*猎物。 它的设计思想来自Lisp语言,其功能模仿Unix中的awk。 主要功能如下: 无需编程即可智能分析Web内容。 所见即所得,转换,过滤和存储都可以通过视觉上的
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:33mb
    • 提供者:weixin_42117267
  1. Spark之旅:大数据产品的一种测试方法与实现

  2. spark作为现在主流的分布式计算框架,已经融入到了很多的产品中作为ETL的解决方案。而我们如果想要去测试这样的产品就要对分布式计算的原理有个清晰的认知并且也要熟悉分布式计算框架的使用来针对各种ETL场景设计不同的测试数据。而一般来说我们需要从以下两个角度来进行测试。ETL能兼容各种不同的数据(不同的数据规模,数据分布和数据类型)ETL处理数据的正确性ETL是按一定规则针对数据进行清洗,抽取,转换等一系列操作的简写。那么一般来说他要能够处理很多种不同的数据类型。我们在生产上遇见的bug有很大一部
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:273kb
    • 提供者:weixin_38621638
  1. 以好奇心日报为业务原型,说说大数据平台的数据建模过程

  2. 数据模型是数据平台的基石,是平台搭建过程中最最基础、也是最最重要的环节,为后续数据清洗(ETL)、开发数据报表等工作保驾护航。数据建模做的好,后面工作也会更容易,模型做的不到位,一些报表做起来耗时耗力又吃资源,甚至无法实现。数据建模一般要经历主题和主题域分析、概念模型、维度设计、指标整理、逻辑模型、物理模型。好奇心是内容型产品,有NEWS、LABS两个频道,有不同新闻分类和独立的栏目,商业模式以在线广告为主。为什么选好奇心日报?一方面它确实是目前鱼龙混杂的内容产业中的一股清流,新媒体的一个标杆,
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:356kb
    • 提供者:weixin_38535364
  1. 使用Kettle进行数据迁移(ETL)

  2. 由于开发新的系统,需要将之前一个老的C/S应用的数据按照新的数据设计导入到新库中。此过程可能涉及到表结构不一致、大数据量(千万级,甚至上亿)等情况,包括异构数据的抽取、清洗等等工作。部分复杂的工作需要我们的DBA写代码用程序在JDBC或者Delphi中解决,而大部分稍简单的数据的迁移需要一个强大的ETL工具来解决。某日,技术经理让我找一个满足我们项目数据迁移需求的稳定、高效ETL工具。google了几把,网上大致有下列几款软件资料较多:Oracle的OWB(Oracle WarehouseBui
  3. 所属分类:其它

  1. ETL利器Kettle实战应用--Kettle使用介绍

  2. ETL(Extract-Transform-Load的缩写,即数据抽取、转换、装载的过程),对于企业或行业应用来说,我们经常会遇到各种数据的处理,转换,迁移,所以了解并掌握一种etl工具的使用,必不可少,这里我介绍一个我在工作中使用了3年左右的ETL工具Kettle,本着好东西不独享的想法,跟大家分享碰撞交流一下!在使用中我感觉这个工具真的很强大,支持图形化的GUI设计界面,然后可以以工作流的形式流转,在做一些简单或复杂的数据抽取、质量检测、数据清洗、数据转换、数据过滤等方面有着比较稳定的表现,
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:579kb
    • 提供者:weixin_38554781
  1. 地区电力调度数据仓库建模与数据处理

  2. 分析电力调度中心各业务系统中的数据,将系统数据分为设备台帐、周期采样和事件动作3种类型,后2种数据中大部分为事实数据,其数据量占数据仓库的90%以上。提出其共享维度建立数据模型的建模思路,数据仓库的数据来源是任何与需要分析主题有关的地区电力调度数据,在数据抽取、转换、清洗、装载(ETL)的过程进行数据过滤、重新选择粒度、统一编码等清洗与转换后存入数据仓库中,形成按照主题定义的数据子集或数据子立方体结构。数据仓库维度建模有第三范式(3NF)和星型2种模式,3NF模型适用于地调数据仓库中心建模;星型
  3. 所属分类:其它

« 12 »