您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. HDF(分层数据格式)中文使用简介

  2. 目录 第一章 HDF介绍 1.1. 本章概况 1.2. 什么是HDF 1.3. 为什么创建HDF 1.4. HDF的6个基本数据结构 1.5. HDF文件的3层交互 1.6. HDF文件格式 1.7. HDF4和HDF5 第二章 HDF库 2.1 本章简介 2.2 获得和安装HDF库 2.3 支持的程序语言 2.4 应用编程接口 2.5 id文件信息 2.6 编译介绍 第三章 常规光栅图像应用编程接口(GR API) 3.1 本章简介 3.2 General Raster Image(常规光栅
  3. 所属分类:其它

    • 发布日期:2010-04-27
    • 文件大小:946kb
    • 提供者:cxc121
  1. nctoolbox 工具箱

  2. nctoolbox是一个Matlab工具箱,它提供了通用的数据模型数据集的只读访问权限。在后台(底层),nctoolbox使用NetCDF-Java作为数据访问层。这允许nctoolbox使用相同的API可以访问NetCDF,OPeNDAP,HDF5,GRIB,GRIB2,HDF4及其他的许多文件格式和服务,它只能在 Matlab 2008a 及后来的版本中使用。
  3. 所属分类:其它

    • 发布日期:2013-12-02
    • 文件大小:15mb
    • 提供者:daijiangtao
  1. HDF解析类库机Demo

  2. 基于HDF5DotNet 类库,自己封装了类库,支持读取分组,数据集,属性等所有HDF数据,同时还能支持HFD4格式文档,自动将其转换为HDF5格式,然后解析。已经封装HDFFile,HDFGroup,HDFDataSet,HDFAttribut等对象,因为项目需要,故研究之!,希望对其他有需要解析HDF格式数据的同仁有帮助!
  3. 所属分类:C#

    • 发布日期:2014-04-11
    • 文件大小:4mb
    • 提供者:txshjuan2007
  1. HDFView2.9.rar

  2. HDFView 被设计为一个视觉的实用程序,用于浏览和编辑HDF4和HDF5文件 树结构视图文件结构 ·创建新文件,添加或删除组和数据集 ·查看和修改数据集的内容 ·添加,删除和修改属性 ·代替I / O和GUI组件如表视图,图像和元数据视图。 HDFView 提供了一个完整的工作区的分布。你得到了三种主要的面板,为您提供所有所需了解文件的内容。`树` 小组提供的数据集和使 HDF 格式的图像。你是能够查看其群体、 数组、 致力于数据类型和链接。
  3. 所属分类:Hadoop

    • 发布日期:2017-08-30
    • 文件大小:40mb
    • 提供者:leoox
  1. HDF5.0 中文使用说明

  2. HDF5数据格式中文使用说明:HDF5文件组织,HDF5应用程序接口(API),创建HDF5文件,读出和写入数据集等.
  3. 所属分类:专业指导

    • 发布日期:2009-03-24
    • 文件大小:1mb
    • 提供者:maaaabbb
  1. 逻辑回归实现图片识别 猫识别python

  2. HDF5格式数据集,python数据集,训练图片样本,检测图片是否有猫。逻辑回归实现图片识别 猫识别
  3. 所属分类:机器学习

  1. 并行数据处理工具ESIO.zip

  2. ExaScale IO (ESIO) 库使用并行的 HDF5 来提供简单,高吞吐量的结构化数据集输入和输出。ESIO 支持阅读和编写 turbulence 模拟重启文件,但是需要依赖于其他文件。ESIO 库使用 C99 编写的,可以被 C89 或者 C 应用使用。 标签:ESIO
  3. 所属分类:其它

  1. PyTables, 用于管理大量数据的python 包.zip

  2. PyTables, 用于管理大量数据的python 包 PyTables: python 中的分层数据集 URL:http://www.pytables.org/PyTables是一个用于管理分层数据集并设计有效处理大量数据的包。它是构建在HDF5库和NumPy包之
  3. 所属分类:其它

  1. HEGv2.15.rar

  2. HEG(HDF-EOS To GeoTIFF Conversion Tool )是一种从HDF-EOS到GeoTIFF转换工具,旨在允许用户转换文件格式,重投影以及对HDF-EOS对象执行拼接/镶嵌和裁剪操作。 它还可以对一些SMAP,VIIRS和SRTM产品转换文件格式并重投影。 输出的GeoTIFF文件可导入到常用的GIS应用程序中。 HEG也可以导出HDF-EOS Grid与SWATH格式(即用于子集目的)以及原始二进制文件。 HEG目前可与MODIS(AQUA和TERRA),ASTER,
  3. 所属分类:教育

    • 发布日期:2020-03-02
    • 文件大小:93mb
    • 提供者:qq_27386899
  1. REDD数据集 HDF5格式!

  2. 学习NILM 会使用到的数据集,已经转换成了HDF5格式,可以直接使用。The Reference Energy Disaggregation Dataset (REDD) [5] was introduced as the rst publicly available data set collected speci cally to aid NILM research. The data set contains both aggregate and sub-metered power d
  3. 所属分类:Linux

    • 发布日期:2020-06-08
    • 文件大小:382mb
    • 提供者:weixin_47151359
  1. SRCNN数据集,包括91-image,set5,set14

  2. 91-image包括91张图像、set5中5幅图,set14中14幅图,可用于SRCNN超分辨率的训练、验证与测试
  3. 所属分类:图像处理

    • 发布日期:2020-09-01
    • 文件大小:37mb
    • 提供者:zzy_pphz
  1. 完美解决keras 读取多个hdf5文件进行训练的问题

  2. 用keras进行大数据训练,为了加快训练,需要提前制作训练集。 由于HDF5的特性,所有数据需要一次性读入到内存中,才能保存。 为此,我采用分批次分为2个以上HDF5进行存储。 1、先读取每个标签下的图片,并设置标签 def load_dataset(path_name,data_path): images = [] labels = [] train_images = [] valid_images = [] train_labels = [] valid_labels = []
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:63kb
    • 提供者:weixin_38752628
  1. 基于h5py的使用及数据封装代码

  2. 1. h5py简单介绍 h5py文件是存放两类对象的容器,数据集(dataset)和组(group),dataset类似数组类的数据集合,和numpy的数组差不多。group是像文件夹一样的容器,它好比python中的字典,有键(key)和值(value)。group中可以存放dataset或者其他的group。”键”就是组成员的名称,”值”就是组成员对象本身(组或者数据集),下面来看下如何创建组和数据集。 1.1 创建一个h5py文件 import h5py #要是读取文件的话,就把w换成r
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:44kb
    • 提供者:weixin_38728276
  1. cnn-bcdr:在BCDR乳腺摄影图像数据集上训练CNN的源代码-bc source code

  2. cnn-bcdr 源代码( )。 依存关系 这段代码是用python编写的。 要使用它,您将需要: Python 2.7 Pylearn2(在上测试) 西皮 [Shapely]( ) 用法 数据 通过本文,我们发布了乳腺癌数字存储库F03(BCDR-F03)数据集。 您可以从获取副本(镜像位于: : )。 将其解压缩到data文件夹下。 前处理 创建hdf5数据集: python make_dataset.py config.yaml 构建预处理版本(GCN + LCN):
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:27kb
    • 提供者:weixin_42102358
  1. Segmenting Soft Tissue Sarcomas 分割软组织肉瘤:自动进行肿瘤分割的挑战-数据集

  2. 数据是TCIA研究的预处理子集,称为软组织肉瘤。数据已从分辨率和数据类型不同的DICOM文件夹转换为各向同性体素大小的3D HDF5阵列。这将使开始和测试各种方法(NN,RF,CRF等)以改善细分更加容易。 study_list.csv lab_petct_vox_5.00mm.h5 patient_images_lowres.h5
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:304mb
    • 提供者:weixin_38634037
  1. hdf5-udf:使用Lua,Python和CC ++支持HDF5中的可编程数据集-源码

  2. HDF5-UDF HDF5-UDF是一种通过用Lua,Python或C / C ++编写的用户定义函数(UDF)动态生成HDF5数据集的机制。 用户定义的函数将编译为可执行形式,并将结果嵌入到HDF5中。 一个支持库允许从用户代码访问现有数据集,以便可以进行数据分析和其他数据的派生。 通过Python和Lua中的外部功能接口(FFI)可以访问HDF5,这意味着从此类语言访问输入和输出数据集时,没有可测量的开销。 就像在Python和Lua后端中一样,用C / C ++编写的UDF被编译成共
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:834kb
    • 提供者:weixin_42151305
  1. jupyterlab-hdf5:在JupyterLab中打开和浏览HDF5文件。 可以处理超大(TB)大小的文件以及任何维度的数据集-源码

  2. jupyterlab-hdf5 在JupyterLab中打开和浏览HDF5文件。 可以处理非常大(TB)的文件。 jlab-hdf5是v0.5.0版中的新功能,现在可以打开从0到32的任意维度的数据集。可以使用numpy样式索引语法轻松选择和显示任何数据集的任何0D,1D或2D平板。 在文件浏览器中双击.hdf5文件将在特殊的HDF浏览器中将其打开。 然后,您可以浏览这些组并在.hdf5文件中打开数据集。 所有数据集将以只读方式打开。 目前,浏览器上下文菜单不适用于.hdf5文件/组/数据
  3. 所属分类:其它

  1. 大数据处理器2-源码

  2. BigDataProcessor2(BDP2)是插件,用于交互式处理TB大小的图像数据。 BDP2使用进行渲染,并使用库进行图像处理。 该BDP2是新版本 。 主要特点: TB大小的图像数据的 TB大小图像数据的 脚本支持 BDP2中的延迟处理工作流程的示意图:虚线箭头表示延迟计算,其中仅处理当前查看的图像平面。 即使对于TB大小的图像数据,也可以在几分钟内配置完整的数据浏览,数据选择和数据处理工作流程。 只有最后一次保存到磁盘需要处理整个数据集,并且将花费相应的长时间(长达数小时)。
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:215mb
    • 提供者:weixin_42119866
  1. JULIA :(正在增长)用Julia编码的程序的集合,用于网格(主要是Enzo)数据的后处理-源码

  2. Julia (增长中)用Julia编码的程序的集合,用于网格(主要是Enzo)数据的后处理 另请参阅存储库,以获取Julia例程以分析我们的Enzo模拟。 更新清单 scale_plot.jl =绘制一些不同的数据序列以进行比较 LOS.jl =从文件中读取N x M列表矩阵并过度绘制不同的列 map_serial.jl =用于ENZO模拟(使用hdf5数据集)并使用Winston生成地图的简单地图制作工具。 map_par.jl =用hdf5编写的具有均匀分辨率的立方网格数据的地图制作。
  3. 所属分类:其它

  1. velociraptor-comparison-data:VELOCIraptor目录的比较数据-源码

  2. 观测资料收集 库中的“观测”(实际上是比较-也包括一些理论数据集)用于比较。 该存储库包含两个主要内容: 从各种比较数据集中提取的纯文本表的选择。 随附的脚本可将这些值转换为h校正(或其他宇宙学校正)的值以进行绘图,并将其保存在HDF5文件中。 此功能是通过支持的迅猛Python库中的类。 该文档中提供了文件格式以及有关如何创建给定文件的信息。 建置状态 生成检查: 所有python文件的格式正确 所有转换都将通过Planck15宇宙学成功进行。 贡献 要将数据集添加到此存储库,您将需
  3. 所属分类:其它

« 12 3 »