您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. PyTorch 模型训练实用教程

  2. 本教程内容主要为在 PyTorch 中训练一个模型所可能涉及到的方法及函 数, 并且对 PyTorch 提供的数据增强方法(22 个)、权值初始化方法(10 个)、损失函数(17 个)、优化器(6 个)及 tensorboardX 的方法(13 个) 进行了详细介绍,本教程分为四章, 结构与机器学习三大部分一致。 第一章, 介绍数据的划分,预处理,数据增强; 第二章, 介绍模型的定义,权值初始化,模型 Finetune; 第三章, 介绍各种损失函数及优化器; 第四章, 介绍可视化工具,用于监控数
  3. 所属分类:机器学习

    • 发布日期:2019-03-03
    • 文件大小:4mb
    • 提供者:qq_29893385
  1. pytorch 更改预训练模型网络结构的方法

  2. 今天小编就为大家分享一篇pytorch 更改预训练模型网络结构的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:32kb
    • 提供者:weixin_38650379
  1. Pytorch中实现只导入部分模型参数的方式

  2. 我们在做迁移学习,或者在分割,检测等任务想使用预训练好的模型,同时又有自己修改之后的结构,使得模型文件保存的参数,有一部分是不需要的(don’t expected)。我们搭建的网络对保存文件来说,有一部分参数也是没有的(missed)。如果依旧使用torch.load(model.state_dict())的办法,就会出现 xxx expected,xxx missed类似的错误。那么在这种情况下,该如何导入模型呢? 好在Pytorch中的模型参数使用字典保存的,键是参数的名称,值是参数的具体数
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:52kb
    • 提供者:weixin_38723699
  1. pytorch 实现在预训练模型的 input上增减通道

  2. 如何把imagenet预训练的模型,输入层的通道数随心所欲的修改,从而来适应自己的任务 #增加一个通道 w = layers[0].weight layers[0] = nn.Conv2d(4, 64, kernel_size=(7, 7), stride=(2, 2), padding=(3, 3), bias=False) layers[0].weight = torch.nn.Parameter(torch.cat((w, w[:, :1, :, :]), dim=1)) #方式2 w
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:31kb
    • 提供者:weixin_38663167
  1. Pytorch加载部分预训练模型的参数实例

  2. 前言 自从从深度学习框架caffe转到Pytorch之后,感觉Pytorch的优点妙不可言,各种设计简洁,方便研究网络结构修改,容易上手,比TensorFlow的臃肿好多了。对于深度学习的初学者,Pytorch值得推荐。今天主要主要谈谈Pytorch是如何加载预训练模型的参数以及代码的实现过程。 直接加载预选脸模型 如果我们使用的模型和预训练模型完全一样,那么我们就可以直接加载别人的模型,还有一种情况,我们在训练自己模型的过程中,突然中断了,但只要我们保存了之前的模型的参数也可以使用下面的代码直
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:47kb
    • 提供者:weixin_38666823
  1. pytorch 更改预训练模型网络结构的方法

  2. 一个继承nn.module的model它包含一个叫做children()的函数,这个函数可以用来提取出model每一层的网络结构,在此基础上进行修改即可,修改方法如下(去除后两层): resnet_layer = nn.Sequential(*list(model.children())[:-2]) 那么,接下来就可以构建我们的网络了: class Net(nn.Module): def __init__(self , model): super(Net, self).__ini
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:33kb
    • 提供者:weixin_38665411
  1. Pytorch修改ResNet模型全连接层进行直接训练实例

  2. 之前在用预训练的ResNet的模型进行迁移训练时,是固定除最后一层的前面层权重,然后把全连接层输出改为自己需要的数目,进行最后一层的训练,那么现在假如想要只是把 最后一层的输出改一下,不需要加载前面层的权重,方法如下: model = torchvision.models.resnet18(pretrained=False) num_fc_ftr = model.fc.in_features model.fc = torch.nn.Linear(num_fc_ftr, 224) model =
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:31kb
    • 提供者:weixin_38699830
  1. ImageProcessingTransformer:图像处理变压器的第三方Pytorch工具(预训练的图像处理变压器arXiv-源码

  2. ImageProcessingTransformer 图像处理变压器的第三方Pytorch工具(预训练图像处理变压器arXiv:2012.00364v2) 最新版本根据官方的实施规则进行了一些重要的修改。 它使收敛更快。 请确保您更新到最新版本。 仅包含模型定义文件和训练/测试文件。 Dataloader文件尚未发布。 您可以实现自己的数据加载器。 它可能会在下一版本中发布。 预训练随机任务 python main.py --seed 0 \ --lr 5e-5 \ --save-pat
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:159kb
    • 提供者:weixin_42151036
  1. efficientnet-yolo3-pytorch:这是一个有效的网络-yolo3-pytorch的原始码,将yolov3的主干特征提取网络修改成为有效的网络-源码

  2. YOLOV3:只看一次目标检测模型在Pytorch当中的实现-替换高效网络主干网络 2021年2月8日更新:加入letterbox_image的选项,关闭letterbox_image后网络的地图得到大幅度提升。 目录 性能情况 训练数据集 权值文件名称 测试数据集 输入图片大小 行动计划0.5:0.95 行动计划0.5 挥发性有机化合物07 + 12 VOC-Test07 416x416 -- 78.9 所需环境 火炬== 1.2.0 文件下载 训练所需的efficiencynet
  3. 所属分类:其它

  1. Flat-ner:ACL2020的代码-源码

  2. 平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:71kb
    • 提供者:weixin_42178963
  1. Flat-Lattice-Transformer:ACL 2020纸代码-源码

  2. 平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.50d
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:65kb
    • 提供者:weixin_42139302
  1. DeepNER:天池中药说明书实体识别挑战冠军方案;中文命名实体识别; NER; BERT-CRF&BERT-SPAN&BERT-MRC; Pytorch-源码

  2. 中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔​​的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 p
  3. 所属分类:其它

  1. PRNet_PyTorch:PyTorch 1.1.0中PRNet的培训和推理代码-源码

  2. PRNet PyTorch 1.1.0 这是一个非官方的pytorch实施PRNET的,因为没有一个完整的生成和训练码数据集。 作者:Samuel Ko,mjanddy。 更新日志 日期:2019.11.13 notice :mj已在加载uv map中修复了一个重要错误。 原始的uv_map.jpg已翻转,因此此处使用* .npy可以解决此问题。 感谢 ! 日期:2019.11.14 notice :推断阶段已上传,预训练模型可在results/latest.pth 。 感谢 ! 诺蒂
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:40mb
    • 提供者:weixin_42131861
  1. densecap-pytorch:密集帽的简化pytorch版本-源码

  2. 皮尔托奇的Densecap 简化pytorch版本 发出或直接通过与我联系 什么是密集帽? 从图像中检测区域,并用简短的句子描述每个区域。 参见或 那这个实现呢? 事情是最新的:Python 3.7和pytorch 1.4.0 我们的模型代码直接从继承了GeneralizedRCNN,并试图使其易于理解和使用(希望如此)。 因此,区域检测器部分与原始纸张不同。 应该可以在具有12GB内存的单个GTX 1080Ti GPU上进行训练。 要求 的Python 3.7 pytorch 1
  3. 所属分类:其它

  1. CNN_classification_feature_extraction:PyTorch中的CNN模型用于分类和特征提取-源码

  2. CNN_classification_feature_extraction 该存储库是pytorch中用于分类和特征提取的CNN的实现。 Pytorch预训练的模型已被用于其解释。 该代码支持数据并行性和多GPU,提早停止和类权重。 此外,您可以选择加载预训练的权重(在ImageNet数据集上进行训练)或使用随机权重从头开始训练。 预训练的模型结构在最后一层有1000个节点。 此代码将所有模型的最后一层修改为可与每个数据集兼容。 可以使用以下模型: 'resnet18', 'resne
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:19kb
    • 提供者:weixin_42152298
  1. fast_adversarial:[ICLR 2020]一个使用FGSM进行极快对抗训练的存储库-源码

  2. 使用FGSM进行快速对抗训练 使用FGSM对手实施快速对抗训练代码的存储库,能够在6分钟内训练强大的CIFAR10分类器,并在12小时内训练强大的ImageNet分类器。 由 , 和。 请参阅我们的arXiv上的论文,这是由自由对抗训练纸灵感通过Shafahi等。 (2019)。 消息 12/19/2019-ICLR 2020接受 1/14/2019-arXiv发布并发布存储库 该存储库中有什么? 带有针对MNIST,CIFAR10和ImageNet的随机初始化的FGSM对抗训练方法的实现 使
  3. 所属分类:其它

  1. 交通标志识别:具有STN和大量数据增强功能的PyTorch中的交通标志识别(GTSRB)-源码

  2. 交通标志识别 将交通标志图像识别并分类为来自数据集的43类。 该项目是Rob Fergus领导的纽约大学计算机视觉课程的一部分,并作为Kaggle竞赛进行。 该模型是使用带有IDSIA网络修改版本的Spatial Transformer网络设计的,并使用大量增强的数据进行了训练。 该模型在Kaggle排行榜上达到了约99.5%的测试设置精度,远高于人工精度。 该项目的整个开发过程可以在阅读。 数据 从下载培训和测试文件夹 跑步 项目可以通过两种方式运行,即main.ipynb jupyter
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:230kb
    • 提供者:weixin_42129970
  1. BERTem:论文实现(ACL2019):《填补空白:关系学习的分布相似性》-源码

  2. 实现说明 主要实现文章前半部分的工作,PyTorch实现,基于的工作,PyTorch才是世界上最屌的框架,逃脱。 实现参考 代码说明 (1)主要修改: 输出表示形式: BertForSequenceClassification 输入表示形式: BertEmbeddings 输入和输出都实现了多种策略,可以结合具体的任务,找到最佳的组合。 (2)非主要实现:examples下的关于classification的文件 (3)服务部署:基于Flask,可以在本地开启一个服务。具体实现在中。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:363kb
    • 提供者:weixin_42104906
  1. 变形金刚::hugging_face:变形金刚:Pytorch和TensorFlow 2.0的最新自然语言处理-源码

  2. PyTorch和TensorFlow 2.0的最新自然语言处理 :hugging_face: 变形金刚提供了数千种经过预训练的模型,可以对文本执行多种任务,例如100多种语言的分类,信息提取,问题解答,摘要,翻译,文本生成等。 其目的是使尖端的NLP易于所有人使用。 :hugging_face: Transformers提供了API,可在给定的文本上快速下载和使用那些经过预训练的模型,在您自己的数据集上对其进行微调,然后在我们的上与社区共享。 同时,每个定义架构的python模块都可以独立
  3. 所属分类:其它

  1. FCN模型实现-Pytorch+预训练VGG16

  2. FCN模型的网络与VGG16类似,之后后边将全连接层换成了卷基层,具体的网络结构与细节可以去看论文: https://people.eecs.berkeley.edu/~jonlong/long_shelhamer_fcn.pdf 下边详细讲一下用Pytorch对FCN的实现: 本文参考了https://zhuanlan.zhihu.com/p/32506912 但是修改了部分代码,加上了很多新的注释,并将代码更新到Pytorch1.x 首先是读取图像 #使用的VOC数据目录 voc_root
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:284kb
    • 提供者:weixin_38725625
« 12 »