您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 重复数据删除 dedup

  2. 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除 重复数据删除
  3. 所属分类:其它

    • 发布日期:2011-09-01
    • 文件大小:545kb
    • 提供者:mathboy1_1
  1. Performance analysis of data deduplication technology for storage

  2. Performance analysis of data deduplication technology for storage
  3. 所属分类:其它

    • 发布日期:2012-10-21
    • 文件大小:349kb
    • 提供者:zbzhangliang
  1. hadoop初级程序源代码

  2. 这是关于hadoop里面程序代码,有wordcount ,partition,onejoin, score,health,dedup,程序. 有.java,也有jar. 提示必须先装上hadoop才能运行
  3. 所属分类:Java

    • 发布日期:2013-07-02
    • 文件大小:54kb
    • 提供者:baifanwudi
  1. 开源项目-jpillora-dedup.zip

  2. 开源项目-jpillora-dedup.zip,A command-line tool to deduplicate files
  3. 所属分类:其它

  1. spotify-dedup, 从你的Spotify播放列表中删除重复项.zip

  2. spotify-dedup, 从你的Spotify播放列表中删除重复项 一个Spotify播放列表副本你是否想从你的Spotify播放列表中删除重复的音轨? 现在,你可以使用Spotify重复数据删除来检测并删除它们。这个项目使用 Spotify Web API 管理播放列表。 只要登录,它会遍历你的播放列
  3. 所属分类:其它

    • 发布日期:2019-09-18
    • 文件大小:268kb
    • 提供者:weixin_38743737
  1. nutch入门.pdf

  2. NULL 博文链接:https://qidaoxp.iteye.com/blog/1072832入门学习 概述 文件系统语法 文件系统设计 系统的可用性 文件系统工作架构 应用 修改源码 插件机制 什么是 使用的好处 工作原理 编 接口 使用 使用 的应用前景 附录一 的相关网站 附录二参考文献 北京邮电大学一李阳 入门学习 简介 什么是 是一个开源的、实现的搜索引擎。它提供了我们运行自己的搜 索引擎所需的全部工具。 研究 的原因 可能有的朋友会有疑问我们有 有百度为何还需要建立自己的搜索 引
  3. 所属分类:其它

  1. foundry-world-tools:用于在文件系统上管理Foundry VTT资产的Python CLI-源码

  2. 铸造世界工具(FWT) 用于在文件系统上使用Foundry VTT world资产的Python CLI。 FWT在运行时通常会做两件事: 第一,它移动文件,第二,它通过搜索和替换用文件的新位置更新铸造数据库。 对于重复的文件,FWT不会删除文件,如果要删除文件,则必须将其手动删除,仅将其移动到world目录根目录下的回收站目录中。 FWT使用原始名称(在结尾处带有.bak)重写它重写的所有数据库文件的备份副本。 正则表达式用作模式文件重命名。 FWT的创建是为了帮助我清理从其他VTT导出的冒
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:13kb
    • 提供者:weixin_42122340
  1. 基于压缩近邻的查重元数据去冗算法设计

  2. 随着重复数据删除次数的增加,系统中用于存储指纹索引的清单文件等元数据信息会不断累积,导致不可忽视的存储资源开销。因此,如何在不影响重复数据删除率的基础上,对重复数据删除过程中产生的元数据信息进行压缩,从而减小查重索引,是进一步提高重复数据删除效率和存储资源利用率的重要因素。针对查重元数据中存在大量冗余数据,提出了一种基于压缩近邻的查重元数据去冗算法Dedup
  3. 所属分类:其它

    • 发布日期:2021-01-14
    • 文件大小:804kb
    • 提供者:weixin_38663526
  1. 基于确定/概率性文件拥有证明的机密数据安全去重方案

  2. 为解决云存储系统中机密数据去重面临的密文重复性检测与拥有性证明、针对数据机密性的攻击等难题,提出了基于Merkle散列树的MHT-Dedup方案和基于同态MAC的hMAC-Dedup方案。两者均通过对密文文件的拥有证明进行跨用户文件级重复性检测,并通过检查数据块明文的摘要进行本地数据块级重复性检测,避免了跨用户文件级客户端重复性检测中hash-as-a-proof方法存在的安全缺陷。MHT-Dedup方案通过数据块密文的标签生成的验证二叉树提供确定性的文件拥有证明,具有较低的计算和传输开销,而h
  3. 所属分类:其它

    • 发布日期:2021-01-14
    • 文件大小:963kb
    • 提供者:weixin_38728360