您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. oracle 查询重复数据

  2. 可以查询表中的重复数据。一条sql语句。
  3. 所属分类:Oracle

    • 发布日期:2012-01-08
    • 文件大小:112byte
    • 提供者:zxh56964106
  1. 查询重复数据sql语句

  2. 是一个简单的sql语句,你可以仿照这个语句查出表里的重复数据。
  3. 所属分类:SQLServer

    • 发布日期:2013-01-11
    • 文件大小:142byte
    • 提供者:qbl_jb227
  1. excel中删除重复数据

  2. 可以将excel中某一列的重复数据清除掉。
  3. 所属分类:其它

    • 发布日期:2009-02-20
    • 文件大小:1kb
    • 提供者:salay_
  1. borg-macosx64 borgbackup: 1.1.11 重复数据删除备份程序

  2. BorgBackup(简称:Borg)是一个重复数据删除备份程序。 (可选)它支持压缩和经过身份验证的加密。 Borg的主要目标是提供一种有效且安全的备份数据方式。由于仅存储更改,因此使用的重复数据删除技术使Borg适合日常备份。经过身份验证的加密技术使其适合于备份到不完全受信任的目标。请参阅安装手册,或者如果已经下载了Borg,请参阅docs / installation.rst以开始使用Borg。还提供了多种格式的脱机文档。主要功能节省空间的存储基于内容定义的分块的重复数据删除用于减少存储的
  3. 所属分类:其它

    • 发布日期:2020-03-30
    • 文件大小:7mb
    • 提供者:hu_zhenghui
  1. 解秘重复数据删除——飞康帮您选择最正确的数据备份方案

  2. 重复数据删除技术已经被行业认为是‘备份技术的革命性进步’。随之,许多厂商纷纷推出了自称为‘最佳’的重复数据删除产品。面对纷繁的技术手段,如何辨别这一技术的优劣成为困扰用户的一大难题。当用户选择重复数据删除产品时,所选择的产品是否能够真正提供成本效益、是否具备高可用性、是否可以适用于长期的数据保存,应该是用户考虑的关键性因素。本篇文件主要介绍了重复数据删除技术的背景资料,希望可以有助于用户面对众多重复数据删除产品时做出决断。
  3. 所属分类:其它

    • 发布日期:2020-03-04
    • 文件大小:348kb
    • 提供者:weixin_38735544
  1. 磁盘备份的优势——先进的重复数据删除

  2. Quantum的DXi系列采用了重复数据删除技术以及其它增强的功能,提供高达800GB/小时的同类产品最佳性能以及结合NAS和虚拟磁带库(VTL)模式的灵活性。使用Quantum基于磁盘的备份设备,用户讲不再需要牺牲性能来利用延期保留功能。
  3. 所属分类:其它

    • 发布日期:2020-03-04
    • 文件大小:99kb
    • 提供者:weixin_38516386
  1. 体验重复数据删除 提高效率并降低容量要求

  2. ESG认为,重复数据删除技术是这十年来出现的最重要的数据保护技术之一。原因是因为重复数据删除技术为数据保护领域带来革命性突破,使磁盘备份、远程备份和复制效率更高。实际上,ESG预测,由于重复数据删除技术能够提升方案价值,将带动对包含VTL在内的基于磁盘备份方案的市场关注度及部署。本文将讲述昆腾DXi系列磁盘备份和复制设备,昆腾的重复数据删除方式以及其可能为您的数据保护环境所带来的好处。
  3. 所属分类:其它

  1. Python对多属性的重复数据去重实例

  2. 下面小编就为大家分享一篇Python对多属性的重复数据去重实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:33kb
    • 提供者:weixin_38702945
  1. 重复数据删除技术的发展及应用

  2. 重复数据删除技术包括相同数据重复数据删除技术和相似数据重复数据删除技术。相同数据重复数据删除技术主要有:相同文件重复数据删除技术、固定长度分块的重复数据删除技术、基于内容分块的重复数据删除技术、基于滑动块的重复数据删除技术和基于数据特征的重复数据消除算法等。重复数据删除技术适合应用于数据备份系统、归档存储系统、远程灾备系统等场合。
  3. 所属分类:其它

    • 发布日期:2020-10-25
    • 文件大小:226kb
    • 提供者:weixin_38569515
  1. MySQL 处理重复数据

  2. MySQL 处理重复数据 有些 MySQL 数据表中可能存在重复的记录,有些情况我们允许重复数据的存在,但有时候我们也需要删除这些重复的数据。 本章节我们将为大家介绍如何防止数据表出现重复数据及如何删除数据表中的重复数据。 防止表中出现重复数据 你可以在 MySQL 数据表中设置指定的字段为 PRIMARY KEY(主键) 或者 UNIQUE(唯一) 索引来保证数据的唯一性。 让我们尝试一个实例:下表中无索引及主键,所以该表允许出现多条重复记录。 CREATE TABLE person_
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:47kb
    • 提供者:weixin_38740596
  1. Oracle查询表里的重复数据方法

  2. 一、背景   一张person表,有id和name的两个字段,id是唯一的不允许重复,id相同则认为是重复的记录。 二、解决   select id from group by id having count(*) > 1   按照id分组并计数,某个id号那一组的数量超过1条则认为重复。 如何查询重复的数据 select 字段1,字段2,count(*) from 表名 group by 字段1,字段2 having count(*) > 1 PS:将上面的>号改为=号就可
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:74kb
    • 提供者:weixin_38654855
  1. MySQL处理重复数据的方法

  2. 有些 MySQL 数据表中可能存在重复的记录,有些情况我们允许重复数据的存在,但有时候我们也需要删除这些重复的数据。 本章节我们将为大家介绍如何防止数据表出现重复数据及如何删除数据表中的重复数据。 防止表中出现重复数据 你可以在MySQL数据表中设置指定的字段为 PRIMARY KEY(主键) 或者 UNIQUE(唯一) 索引来保证数据的唯一性。 让我们尝试一个实例:下表中无索引及主键,所以该表允许出现多条重复记录。 CREATE TABLE person_tbl ( first_nam
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:51kb
    • 提供者:weixin_38608873
  1. 很全面的MySQL处理重复数据代码

  2. 有些 MySQL 数据表中可能存在重复的记录,有些情况我们允许重复数据的存在,但有时候我们也需要删除这些重复的数据。 本章节我们将为大家介绍如何防止数据表出现重复数据及如何删除数据表中的重复数据。 一、防止表中出现重复数据 你可以在MySQL数据表中设置指定的字段为 PRIMARY KEY(主键) 或者 UNIQUE(唯一) 索引来保证数据的唯一性。 让我们尝试一个实例:下表中无索引及主键,所以该表允许出现多条重复记录。 CREATE TABLE person_tbl ( first_na
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:53kb
    • 提供者:weixin_38745925
  1. 删除数据库表中重复数据的总结(oracle)

  2. 这里的重复数据指数据库中每一列的值都相同的数据,有时候也许是没有主键的原因导致数据可能重复,或者是,除了主键,其他数据重复,那么下面的方法可以都这些重复数据进行删除,保留下重复数据中的一行可以。   大体可以分为两个方法 :一种要用rowid来进行删除,另外一种,则是用临时表来进行删除。这里讲四种方法:   现在假设 表test中有,三个列col1,col2,col3;在这样的表里有很多数据是重复的,现在的目标是对这些数据中重复的数据进行删除,保留下的数据都是不重复的。   第一种方
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:34kb
    • 提供者:weixin_38675506
  1. MySQL处理重复数据的学习笔记

  2. MySQL 处理重复数据 有些 MySQL 数据表中可能存在重复的记录,有些情况我们允许重复数据的存在,但有时候我们也需要删除这些重复的数据。 本章节我们将为大家介绍如何防止数据表出现重复数据及如何删除数据表中的重复数据。 防止表中出现重复数据 你可以在 MySQL 数据表中设置指定的字段为 PRIMARY KEY(主键) 或者 UNIQUE(唯一) 索引来保证数据的唯一性。 让我们尝试一个实例:下表中无索引及主键,所以该表允许出现多条重复记录。 CREATE TABLE person_tbl
  3. 所属分类:其它

    • 发布日期:2020-12-14
    • 文件大小:52kb
    • 提供者:weixin_38608873
  1. Python对多属性的重复数据去重实例

  2. python中的pandas模块中对重复数据去重步骤: 1)利用DataFrame中的duplicated方法返回一个布尔型的Series,显示各行是否有重复行,没有重复行显示为FALSE,有重复行显示为TRUE; 2)再利用DataFrame中的drop_duplicates方法用于返回一个移除了重复行的DataFrame。 注释: 如果duplicated方法和drop_duplicates方法中没有设置参数,则这两个方法默认会判断全部咧,如果在这两个方法中加入了指定的属性名(或者称为列名)
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:35kb
    • 提供者:weixin_38699724
  1. 解析重复数据删除技术

  2. 尽管重复删除技术已经逐渐成为一项热门技术,但是很多分析师和用户都提出,要谨慎的对待它,不要因为广告大肆宣传而盲目追捧。重复数据删除技术旨在删除冗余的备份数据、确保同样的数据信息只被保存一次。最近,众多厂商都相继推出了整合该技术特性的解决方案。与此同时,一些用户也开始使用这项技术来对海量数据进行管理与控制。其他一些潜在的用户在面对五花八门的重复数据删除方案时也显得有些无所适从。在这里,专家为用户列出了以下几条建议:1、详细了解这项技术。尽管现在关于重复数据删除技术的宣传铺天盖地,但这并不意味着这项
  3. 所属分类:其它

    • 发布日期:2020-12-08
    • 文件大小:67kb
    • 提供者:weixin_38550722
  1. 高精度重复图像重复数据删除方法。

  2. 摘要重复数据删除已广泛用于备份系统和归档系统中,以有效地提高存储利用率。但是,传统的重复数据删除技术只能消除完全相同的图像,但是无法复制具有重复数据删除功能的图像。
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:582kb
    • 提供者:weixin_38678510
  1. IntraArchiveDeduplicator:用于管理现有压缩存档文件中的重复数据删除的工具,以及用于模糊图像搜索的性能相对较高的BK树实现-源码

  2. 存档内重复数据删除器 用于管理现有压缩存档文件中的重复数据删除的工具,重点是Manga / Comic-book存档文件。 这是一个颇为奇特的工具,旨在允许压缩档案中的文件相当快的重复检测。 它为所有扫描的文件维护一个哈希数据库,并且实际上递归到压缩档案中以扫描档案中的文件,即使使用不同的压缩算法压缩了档案,这也应允许检测具有重复内容的档案。 还提供使用自定义树系统按图像相似度进行搜索的功能。 图像相似性系统在PostgreSQL(实际上是Cython,但基本上是python)中实现,在
  3. 所属分类:其它

  1. UMICollapse:使用唯一分子标识符(UMI)加速读取的重复数据删除和折叠过程。 经过高度优化,可扩展性比以前的工具快几个数量级-源码

  2. 崩溃 使用唯一分子标识符(UMI)加速读取的重复数据删除和折叠过程。 UMI是识别由PCR扩增引起的重复DNA / RNA读数的流行方法。 这需要使用相同的UMI折叠重复读段的软件,同时还要考虑测序/ PCR错误。 该工具实现了许多有效的算法,与以前的工具(UMI工具等)相比,UMI重复数据删除的数量级更快。 这是通过使用具有n-gram和BK树的更快的数据结构以及经过精心实施以很好地扩展到更大的数据集和更长的UMI的其他技术来实现的。 UMICollapse的用户报告说,从使用以前的工具运行
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:141kb
    • 提供者:weixin_42144707
« 12 3 4 5 6 7 8 9 10 ... 50 »