您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. (翻译)60分钟入门深度学习工具-PyTorch.pdf

  2. (翻译)60分钟入门深度学习工具-PyTorch 公号:机器学习初学者 一、Pytorch是什么? 二、AUTOGRAD 三、神经网络 四、训练一个分类器 五、数据并行
  3. 所属分类:互联网

    • 发布日期:2020-04-10
    • 文件大小:1mb
    • 提供者:qq_33866063
  1. pytorch-03-doc.pdf

  2. PyTorch中文文档,手握利器,事半功倍,向翻译并整理此文档的博友致敬!torchvision. utils 1.3.3.5 Py Torch0.3中文文档&教程 Py Torch0.3中文文档&教程 O ToRch 维护组织: ApacheAN 协议: CC BY-NO-SA4.0 欢迎任何人参与和完善:一个人可以走的很快’但是一群人却可以走的更远。 ApacheAN机器学习交流群629470233 ApacheAN学习资源 ·在线阅读 PDF格式 EPUB格式 MOB|格式 代码仓库 项
  3. 所属分类:深度学习

    • 发布日期:2019-09-07
    • 文件大小:6mb
    • 提供者:image_proc
  1. pytorch 指定gpu训练与多gpu并行训练示例

  2. 今天小编就为大家分享一篇pytorch 指定gpu训练与多gpu并行训练示例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:33kb
    • 提供者:weixin_38654855
  1. pytorch 指定gpu训练与多gpu并行训练示例

  2. 一. 指定一个gpu训练的两种方法: 1.代码中指定 import torch torch.cuda.set_device(id) 2.终端中指定 CUDA_VISIBLE_DEVICES=1 python 你的程序 其中id就是你的gpu编号 二. 多gpu并行训练: torch.nn.DataParallel(module, device_ids=None, output_device=None, dim=0) 该函数实现了在module级别上的数据并行使用,注意batch size要大
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:35kb
    • 提供者:weixin_38621630
  1. PyTorch加载自己的数据集实例详解

  2. 数据预处理在解决深度学习问题的过程中,往往需要花费大量的时间和精力。 数据处理的质量对训练神经网络来说十分重要,良好的数据处理不仅会加速模型训练, 更会提高模型性能。为解决这一问题,PyTorch提供了几个高效便捷的工具, 以便使用者进行数据处理或增强等操作,同时可通过并行化加速数据加载。 数据集存放大致有以下两种方式: (1)所有数据集放在一个目录下,文件名上附有标签名,数据集存放格式如下: root/cat_dog/cat.01.jpg root/cat_dog/cat.02.jpg ………
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:70kb
    • 提供者:weixin_38713167
  1. mmdetection 常见问题及错误记录

  2. 1、GPU下出现/pytorch/aten/src/ATen/native/cuda/IndexKernel.cu:53: lambda [](int)->auto::operator()(int)->auto: block: [9,0,0], thread: [32,0,0] Assertion `index >= -sizes[i] && index < sizes[i] && index out of bounds` failed.问题 GPU上运行神经网络模型,是
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:38kb
    • 提供者:weixin_38612139
  1. BYOL:引导您自己的潜能-源码

  2. BYOL-引导自己的潜能:一种自我指导学习的新方法 PyTorch实施的“引导您自己的潜能:一种自我监督学习的新方法”,作者JB Grill等人。 该存储库包括BYOL的实际实现,其中包括: 分布式数据并行培训 视觉数据集基准(CIFAR-10 / STL-10) 支持PyTorch <= 1.5.0 在Google Colab Notebook中打开BYOL 结果 这些是在BYOL学习的(冻结)表示形式上训练的线性分类器的前1位准确性: 方法 批量大小 图片大小 ResNet 投影输出变
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:10kb
    • 提供者:weixin_42134038
  1. cavaface.pytorch:人脸识别项目(火炬)-源码

  2. cavaface.pytorch:用于深脸识别的Pytorch培训框架 李耀彬和池丽颖 介绍 此仓库为使用pytorch的人脸识别提供了高性能的分布式并行训练框架,包括各种主干(例如ResNet,IR,IR-SE,ResNeXt,AttentionNet-IR-SE,ResNeSt,HRNet等),各种损失(例如,Softmax,Focal,SphereFace,CosFace,AmSoftmax,ArcFace,ArcNegFace,CurricularFace,Li-Arcface,QAMF
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:113kb
    • 提供者:weixin_42113754
  1. PGPortfolio-pytorch-源码

  2. 针对金融组合管理问题的深度强化学习框架 介绍 链接到项目 链接到项目 概述 如何使用框架。 关于Poloniex数据集。 框架方法(算法概述)。 代码实现。 了解框架结构。 了解框架数据流。 了解培训师的实施。 未来的改进。 用法 命令行 当前,我们的实现不支持并行训练,因此您将必须手动训练每个配置文件: 首先将数据下载到本地缓存,我们增加了对socks5代理的支持,因此如果您对Poloniex的网络状况不好,则可以使用它。 python main.py --mode down
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:688kb
    • 提供者:weixin_42133918
  1. ElectiveCaptCha-源码

  2. 选修科目 基于opencv与tensorflow的验证码自动识别,单字符准确率约98%,完全准确率约95% 本项目仅用于学习交流,因此此处不提供训练数据以及预训练模型。仅包含代码与指南。 项目部分重写了此处的图像预处理代码,使得其摆脱OpenCV依赖库。由于该项目采用pytorch,因此模型的训练与本项目是独立的,准确率相近,而该项目的模型经过了更加细致的Fine Tunning。 数据集大小:共5130张gif(按8:2划分训练集与测试集),AutoElective的训练集会规模。 要求 张
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:86kb
    • 提供者:weixin_42131790
  1. PGPPortfolio-pytorch-源码

  2. 这是我们的论文《金融投资组合管理问题的深度强化学习框架》( )的原始实现,以及投资组合管理研究的工具包。 深度强化学习框架是图书馆的核心部分。 该方法基本上是立即奖励的策略梯度。 可以在单独的json文件中配置拓扑,训练方法或输入数据。 训练过程将被记录,并且用户可以使用张量板可视化训练。 结果汇总和并行训练可以更好地优化超参数。 出于比较目的,基于财务模型的投资组合管理算法也被嵌入到该库中,其实现基于Li和Hoi的工具包 。 与文章版本的差异 请注意,该库是我们主项目的一部分,并且是本文
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:83kb
    • 提供者:weixin_42122878
  1. pytorch_template_audio:音频项目的基本Pytorch模板-源码

  2. 音频项目的基本Pytorch模板 牢记音频项目的基本Pytorch模板可用作起点。 特别针对可在单个GPU上运行并在多GPU机器上并行运行的较小模型。 每个GPU /实验都可以拥有整个源代码的副本。 特征 简单的数据集类(包括从磁盘读取.wav文件的列表,并具有随机裁剪功能)。 实时梅尔谱图计算。 学习速率表,EMA,梯度限幅。 检查点保存/加载(继续培训)。 大数据集/缓慢更新的基本训练循环。
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:14kb
    • 提供者:weixin_42151772
  1. detr:使用变压器进行端到端对象检测-源码

  2. DE⫶TR :使用变压器进行端到端物体检测 PyTorch的DETR ( DE tection TR ansformer)训练代码和预训练模型。 我们用变压器代替了整个复杂的手工物体检测管道,并用ResNet-50匹配了Faster R-CNN,使用一半的计算能力(FLOP)和相同数量的参数在COCO上获得了42个AP 。 在PyTorch的50行中进行推断。 这是什么。 与传统的计算机视觉技术不同,DETR将对象检测作为直接设置的预测问题。 它由基于集合的全局损耗(通过二分匹配强制唯一预测)
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:239kb
    • 提供者:weixin_42122988
  1. TorchSeg:PyTorch中的快速,模块化参考实现和语义分段算法的轻松培训-源码

  2. 火炬节 该项目旨在为使用PyTorch的语义细分模型提供快速的模块化参考实现。 强调 模块化设计:通过组合不同的组件轻松构建自定义的语义细分模型。 分布式培训:比多线程并行方法( )快60%以上,我们使用多处理并行方法。 多GPU训练和推理:支持不同的推理方式。 提供预训练的模型并实现不同的语义细分模型。 先决条件 PyTorch 1.0 pip3 install torch torchvision Easydict pip3 install easydict 忍者sudo apt-g
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:213kb
    • 提供者:weixin_42138788
  1. CNN_classification_feature_extraction:PyTorch中的CNN模型用于分类和特征提取-源码

  2. CNN_classification_feature_extraction 该存储库是pytorch中用于分类和特征提取的CNN的实现。 Pytorch预训练的模型已被用于其解释。 该代码支持数据并行性和多GPU,提早停止和类权重。 此外,您可以选择加载预训练的权重(在ImageNet数据集上进行训练)或使用随机权重从头开始训练。 预训练的模型结构在最后一层有1000个节点。 此代码将所有模型的最后一层修改为可与每个数据集兼容。 可以使用以下模型: 'resnet18', 'resne
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:19kb
    • 提供者:weixin_42152298
  1. Fairscale:用于高性能和大规模培训的PyTorch扩展-源码

  2. 描述 FairScale是PyTorch扩展库,用于在一台或多台机器/节点上进行高性能和大规模培训。 该库扩展了基本的PyTorch功能,同时添加了新的实验功能。 FairScale支持: 并行性: 管道并行性(fairscale.nn.Pipe) 分片训练: 优化程序状态分片(fairscale.optim.oss) 分片式洁牙机-自动混合精度 分片分布式数据并行 大规模优化: AdaScale SGD(从fairscale.optim导入AdaScale) 要求 PyTorch&g
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:380kb
    • 提供者:weixin_42166261
  1. 软演员关键和扩展:软演员关键和优先体验重播(PER)的PyTorch实施+强调最新经验(ERE)+蒙克豪森RL + D2RL和并行环境-源码

  2. 软演员关键和扩展 PyTorch实施了具有扩展性PER + ERE + Munchausen RL的Soft-Actor-Critic ,并提供了用于并行数据收集和更快训练的多环境选项。 该存储库包括最新的Soft-Actor-Critic版本( )以及SAC的扩展: P rioritizedËxperienceřeplay( ) Èmphasizing最近几个Ë没有忘记过去(xperience ) Munchausen强化学习 D2RL:强化学习深密度架构 N步自举 平行环境 在
  3. 所属分类:其它

  1. torchgpipe:PyTorch中的GPipe实现-源码

  2. 火炬管 实施。 它针对CUDA(而非TPU)进行了优化。 from torchgpipe import GPipe model = nn . Sequential ( a , b , c , d ) model = GPipe ( model , balance = [ 1 , 1 , 1 , 1 ], chunks = 8 ) output = model ( input ) 什么是GPipe? GPipe是Google Brain发布的可扩展的管道并行性库,可以有效地训练大型的,消耗内
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:182kb
    • 提供者:weixin_42133452
  1. softlearning:Softlearning是用于在连续域中训练最大熵策略的强化学习框架。 包括Soft Actor-Critic算法的正式实现-源码

  2. 软学习 软学习是一种深度强化学习工具箱,用于在连续域中训练最大熵策略。 该实现相当薄,并且主要针对我们自己的开发目的进行了优化。 对于大多数模型类(例如策略和值函数),它都使用tf.keras模块。 我们使用Ray进行实验编排。 Ray Tune和Autoscaler实现了几项简洁的功能,使我们能够无缝运行与用于本地原型制作的实验脚本相同的实验脚本,以在任何选定的云服务(例如GCP或AWS)上启动大规模实验,并智能地并行化和分发培训以提高效率。资源分配。 此实现使用Tensorflow。 对于
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:157kb
    • 提供者:weixin_42120550
  1. 将Pytorch模型从CPU转换成GPU的实现方法

  2. 最近将Pytorch程序迁移到GPU上去的一些工作和思考 环境:Ubuntu 16.04.3 Python版本:3.5.2 Pytorch版本:0.4.0 0. 序言 大家知道,在深度学习中使用GPU来对模型进行训练是可以通过并行化其计算来提高运行效率,这里就不多谈了。 最近申请到了实验室的服务器来跑程序,成功将我简陋的程序改成了“高大上”GPU版本。 看到网上总体来说少了很多介绍,这里决定将我的一些思考和工作记录下来。 1. 如何进行迁移 由于我使用的是Pytorch写的模型,网上给出了一个非
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:78kb
    • 提供者:weixin_38537315
« 12 »