您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pytorch::Dataloader中的迭代器和生成器应用详解

  2. 主要介绍了pytorch::Dataloader中的迭代器和生成器应用详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:74kb
    • 提供者:weixin_38728277
  1. 使用pytorch进行图像的顺序读取方法

  2. 产生此次实验的原因:当我使用pytorch进行神经网络的训练时,需要每次向CNN传入一组图像,并且这些图片的存放位置是在两个文件夹中: A文件夹:图片1a,图片2a,图片3a……图片1000a B文件夹:图片1b, 图片2b,图片3b……图片1000b 所以在每个循环里,我都希望能从A中取出图片Na,同时从B文件夹中取出对应的图片Nb。 测试一:通过pytorch官方文档中的dataloader搭配python中的迭代器iterator dataset = dset.ImageFolder(
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:49kb
    • 提供者:weixin_38731761
  1. pytorch梯度剪裁方式

  2. 我就废话不多说,看例子吧! import torch.nn as nn outputs = model(data) loss= loss_fn(outputs, target) optimizer.zero_grad() loss.backward() nn.utils.clip_grad_norm_(model.parameters(), max_norm=20, norm_type=2) optimizer.step() nn.utils.clip_grad_norm_ 的参数: par
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:33kb
    • 提供者:weixin_38700790
  1. 2020/02/17 学习总结

  2. 每天进步一点点呀,要慢慢积累,加油。 1、阅读了论文《Multinomial Distribution Learning for Effective Neural Architecture Search》。论文提出的Performance ranking hypothesis,从想法到写作技巧都值得学习。 2、python的iter()的用法,感觉很方便的样子。 train_loader里是采样得到的几批数据,用iter()函数将train_loader里的数据按批次生成迭代器。 3、pyto
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:38kb
    • 提供者:weixin_38710557
  1. EasyRL:EasyRL-源码

  2. EasyRL 概述 近年来,我们目睹了强化学习(RL)的许多令人瞩目的进步,包括AlphaGo,OpenAI Five等。对于实际应用,我们已经成功地将RL应用到了许多电子商务场景中,例如基于会话的学习进行排名,与有监督的学习范式相比,RL的交互性提高了其应用的门槛,因为从业者必须 实现复杂的学习算法,而不是简单地从TensorFlow(TF)/ PyTorch中选择一种损失,模型和优化器 当考虑分布式设置时,处理数据(状态,动作,奖励等)和模型参数的通信 此仓库以独立和分布式模式提供了许多广泛
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:708kb
    • 提供者:weixin_42139252
  1. pytorch_geometric_temporal:PyTorch Geometric的时间扩展库-源码

  2. | | PyTorch几何态是时间(动态)扩展文库。 该库包含来自各种已发表研究论文的各种动态和时间几何深度学习,嵌入以及时空回归方法。此外,它还提供了易于使用的数据集加载器和迭代器,用于动态和时间图以及gpu支持。它还附带了许多带有时间和动态图的基准数据集(您也可以创建自己的数据集)。 引用 如果您发现PyTorch Geometric Temporal和新的数据集对您的研究有用,请考虑添加以下引用: misc { pytorch_geometric_temporal , au
  3. 所属分类:其它

  1. Natural-Language-Processing-源码

  2. 自然语言处理 bentrevett的pytorch教程。 하였고정수,한국어로설명을다。 讲解 1- Pytorch的torchtext的照片。 torchtext데이데이스(IMDb数据集)current递归神经网络(RNN)영화의가가정적인리뷰인지,부정적인리뷰인지를다。 加载数据,创建训练/测试/验证拆分,构建词汇表,创建数据迭代器,定义模型并实施训练/评估/测试循环。 performance이가학습하기튜토리얼이므로性能가좋지않습니다。 2- 1구현한工作流程변형하여정확도
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:360kb
    • 提供者:weixin_42159267
  1. Vision-Systems-Lab:MLP,DCNN,深度卷积自动编码器,LSTM,GRU,ResNets,DCGAN-波恩大学的CudaVision实验室(SS19)-源码

  2. 视觉系统实验室:在GPU上学习计算机视觉[自述文件未定期更新] 作者:Saikat Roy, 波恩大学CudaVision实验室(SS19)的存储库(主要)在PyTorch,Python3和Jupyter笔记本电脑上实现。 该项目从神经网络的基础开始,并延伸到更深层次的模型。 以下项目包含在相应的文件夹中: 项目1:Softmax回归(无autograd / Pytorch张量) 涉及使用softmax回归和手动梯度计算对MNIST数据集进行分类。 经过5次简单的迭代运行后,训练和测试集
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:14mb
    • 提供者:weixin_42116921
  1. lightweight-gan:在Pytorch的ICLR 2021中提出的“轻量级” GAN的实现。 可以在一两天内进行训练的高分辨率图像生成-源码

  2. 训练12小时后512x512鲜花,1 gpu 训练12小时后256x256朵鲜花,1 gpu 比萨 ``轻巧''GAN 在Pytorch的ICLR 2021中提出的实现。 本文的主要贡献是发生器中的跳层激励,以及鉴别器中的自动编码自监督学习。 引用单行摘要“在经过数小时培训的情况下,可以在1024 g分辨率的数百张图像上融合在单个gpu上”。 安装 $ pip install lightweight-gan 使用 一个命令 $ lightweight_gan --data ./path/t
  3. 所属分类:其它

  1. catalyst-info-源码

  2. 加快DL研发 用于深度学习研究和开发的PyTorch框架。 它的开发侧重于可重复性,快速实验和代码/想法重用。 能够研究/开发新事物,而不是编写另一个常规火车循环。 打破循环-使用催化剂! 项目。 。 : -实验记录和可视化 -加速的深度学习研究与开发 -方便的深度学习模型服务 。 您可以通过或下一版本的主题 :winking_face: 另请查看我们维护的 内容 催化剂信息#5。 回呼 催化剂版本: 19.11日期: 2019-11-07 大家好你们好! 现在是11月,有一个新版本
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:822kb
    • 提供者:weixin_42150745
  1. perceiver-pytorch:在Pytorch中实现感知器(具有迭代注意的一般感知)-源码

  2. 感知器-火炬 在Pytorch中实现 (具有迭代注意的一般感知) 安装 $ pip install perceiver-pytorch 用法 import torch from perceiver_pytorch import Perceiver model = Perceiver ( num_fourier_features = 6 , # number of fourier features, with original value (2 * K + 1) depth
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:70kb
    • 提供者:weixin_42144366
  1. PytorchToCaffe:从Pytorch模型到Caffe模型,支持pytorch 0.3、0.3.1、0.4、0.4.1、1.0、1.0.1、1.2、1.3。请注意,只有pytorch 1.1有一些错误-源码

  2. 由于我们使用的pytorch模型基本上是动态图结构,因此动态图的问题在于,一旦前向不完整,就无法确定图结构,并且caffe是静态图框架,这将导致模型从pytorch转换为caffe到caffe。遇到很多问题,并且pytorch版本迭代非常快,因此不再建议使用此仓库。如果要将pytorch转换为caffe,建议通过此仓库使用pytorch-> onnx-> caffe 。 该代码主要来自 。感谢hahnyuan的贡献。 神经网络工具:转换器和分析器 提供用于pytorch和caffe
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:203kb
    • 提供者:weixin_42131618
  1. snkr-finder:Sneaker Finder的Nbdev重构(Insights数据科学sprint项目)-源码

  2. 搜寻器 该模块处理创建和执行一个简单工具的过程,该工具可以查找称为“ Sneaker Finder”的类似运动鞋。 该存储库是使用fastai API和nbdev构建的,并且是作为在keras / tensorflow中执行的Insight Data Science sprint项目的一部分而启动的项目的完整重构。 目标: - learning PyTorch frameworks - learn fastai api - iterate on and extend simple POC "s
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:43mb
    • 提供者:weixin_42134234
  1. sagemaker-debugger:Amazon SageMaker Debugger提供的功能可以在训练机器学习作业期间保存张量并分析这些张量-源码

  2. Amazon SageMaker调试器 目录 总览 自动执行机器学习培训作业的调试过程。 在训练工作中,Debugger允许您使用Debugger内置功能Hook和Rule来运行自己的训练脚本(零脚本更改经验)以捕获张量,可以灵活地构建自定义的Hook和Rule以根据需要配置张量,以及通过保存在存储桶中,通过灵活而强大的API,使张量可用于分析。 在训练作业期间, smdebug库通过从S3存储桶调用保存的张量来为Debugger供电。 smdebug检索并过滤从调试器生成的张量,例如渐变,权
  3. 所属分类:其它

  1. gradslam:gradslam是PyTorch的开源可区分的密集SLAM库。-源码

  2. 总览 gradslam是一个完全可区分的密集SLAM框架。 它为密集的SLAM系统提供了可区分的构建块的存储库,例如可区分的非线性最小二乘法求解器,可区分的ICP(迭代最近点)技术,可区分的射线广播模块和可区分的映射/融合块。 可以使用这些块来构造SLAM系统,该系统允许渐变从系统的输出(地图,轨迹)一直流到输入(原始颜色/深度图像,参数,校准等)。 rgbdimages = RGBDImages ( colors , depths , intrinsics ) slam = PointFus
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:22mb
    • 提供者:weixin_42126865
  1. 点燃:高级库,可帮助您灵活透明地训练和评估PyTorch中的神经网络-源码

  2. TL; DR Ignite是一个高级库,可帮助您灵活透明地训练和评估PyTorch中的神经网络。 点击图片查看完整的代码 产品特点 同时确保最大程度的控制和简化 库方法,无程序控制反转-在需要的位置和时间使用ignite 适用于指标,实验管理器和其他组件的可扩展API 目录 为什么点燃? Ignite是一个提供三个高级功能的库: 极其简单的引擎和事件系统 开箱即用的指标可轻松评估模型 内置处理程序以组成训练流水线,保存工件并记录参数和度量 简化的培训和验证循环 在历元和迭代中不再需要
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:13mb
    • 提供者:weixin_42109598
  1. torchnlp:基于PyTorch和TorchText构建的易于使用的NLP库-源码

  2. 火炬手 TorchNLP是用于NLP任务的深度学习库。 它基于PyTorch和TorchText构建,旨在提供可跨任务使用的可重用组件。 当前,它可以用于具有双向LSTM CRF模型和Transformer网络模型的命名实体识别(NER)和分块任务。 它可以支持使用任何数据集。 不久将添加更多任务 高水平的工作流程 定义NLP任务 扩展Model类并实现forward()和loss()方法以分别返回预测和损失 使用HParams类轻松定义模型的超参数 使用 API定义一个数据函数以返回数据集迭代
  3. 所属分类:其它

  1. Pytorch技巧:DataLoader的collate_fn参数使用详解

  2. DataLoader完整的参数表如下: class torch.utils.data.DataLoader( dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None) DataLoader在数据集上提
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:49kb
    • 提供者:weixin_38716460