您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pytorch模型剪枝

  2. 在cifar数据集上做图像分类的训练,并以此演示怎样进行模型剪枝,pytorch版本必须大于1.4.0
  3. 所属分类:Linux

    • 发布日期:2020-07-17
    • 文件大小:4kb
    • 提供者:longma666666
  1. pytorch-learning-04

  2. 机器翻译 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 流程: 数据预处理 分词 建立词典 建立模型 Encoder-Decoder模型: 一种应用于seq2seq问题的模型,所谓编码,就是将输入序列转化成一个固定长度的向量;解码,就是将之前生成的固定向量再转化成输出序列。在具体实现的时候,编码器和解码器不是固定的,可选的有CNN/RNN/BiRNN/GRU/LSTM等等,可以自由组合。 缺点: 编码和解码之间的唯一联系就是一个固定长度的语义向量C。也就是说,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:37kb
    • 提供者:weixin_38674675
  1. pytorch.ctpn:pytorch,ctpn,文本检测,ocr,文本检测-源码

  2. 文字检测-ctpn-pytorch 我关于CTPN 结语 Ctpn适用于水平文本,但不适用于倾斜和弯曲文本。如果您对文本检测和模型压缩感兴趣,则可以关注接下来要做的两个项目和 设置 nms和bbox utils是用cython编写的,您必须首先构建该库。 cd utils/bbox sh make.sh 它将在当前文件夹中生成nms.so和bbox.so。 怎么测试 按照设置来构建库 下载测试模型 在inference.py中更改自己的model_path,dir_path和save_path
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:50mb
    • 提供者:weixin_42123237
  1. MTGNN-源码

  2. 神经网络 这是该论文的PyTorch实施:。 要求 该模型是使用Python3来实现的,其依赖关系在requirements.txt中指定 资料准备 多元时间序列数据集 从下载太阳能,交通,电力,汇率数据集。解压缩它们并将其移动到数据文件夹。 交通数据集 从提供的或下载METR-LA和PEMS-BAY数据集 。将它们移到数据文件夹中。 # Create data directories mkdir -p data/{METR-LA,PEMS-BAY} # METR-LA python gener
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:59kb
    • 提供者:weixin_42098759
  1. Knowledge-Distillation-Toolkit:基于PyTorch和PyTorch Lightning的知识蒸馏工具包-源码

  2. 知识蒸馏工具包 该工具包使您可以使用知识提炼来压缩机器学习模型。要使用此工具包,您需要提供一个教师模型,一个学生模型,用于训练和验证的数据加载器以及一个推理管道。该工具包基于和 ,因此,教师模型和学生模型必须是,数据加载器也必须是。 演示版 我们提供了两个使用此工具包并压缩机器学习模型的演示。在这些演示中,我们展示了如何创建学生和教师模型,推理管道,培训和验证数据加载器,并将它们传递到知识提炼工具包中。 压缩资源: 压缩WAV2VEC 2.0: 开始知识蒸馏培训! 要开始知识提炼训练,您需要首
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:79mb
    • 提供者:weixin_42104947
  1. vega:AutoML工具链-源码

  2. 维加 Vega ver1.2.0发布: 功能增强: 细粒度的网络搜索空间:可以自由定义网络搜索空间,并且提供了丰富的网络体系结构参数以供在搜索空间中使用。可以同时搜索网络架构参数和模型训练超参数,并将搜索空间应用于Pytorch,TensorFlow和MindSpore。 新算法: :基于层次图的神经体系结构搜索空间 社区贡献者: , , , , , , , , , 。 介绍 Vega是由诺亚方舟实验室开发的AutoML算法工具链,主要功能如下: 全面的管道功能:AutoM
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:17mb
    • 提供者:weixin_42117622
  1. voicefilter:Google AI的VoiceFilter系统的非官方PyTorch实施-源码

  2. 语音过滤器 承元的说明(2020.10.25) 嗨,大家好! 我是MINDs Lab,Inc.的Seung-won。自从我发布此开源文件已经很长时间了,而且我没想到这个存储库会在很长一段时间内引起如此大的关注。 我要感谢大家的关注,同时也要感谢Quanquan Wang先生(VoiceFilter论文的第一作者)在他的论文中提到这个项目。 实际上,这个项目是我在没有相关领域主管的情况下开始研究深度学习和语音分离的仅仅三个月后才由我完成的。 那时,我不知道什么是幂律压缩,以及验证/测试模型的正
  3. 所属分类:其它

  1. pytorch自定义RNN.zip

  2. 使用pytorch框架自定义了一个LSTM结构,压缩文件包含两个文件,一个是modules.py是编写的自定义LSTM结构,IMDB.py文件是使用modules.py里自定义的LSTM结构搭建的网络模型。pytorch自定义多层双向LSTM结构的程序详解可以参考这篇博客:https://blog.csdn.net/kuan__/article/details/114652053
  3. 所属分类:电信

    • 发布日期:2021-03-11
    • 文件大小:3kb
    • 提供者:kuan__
  1. 最小手枪:最小手的PyTorch重新实现(CVPR2020)-源码

  2. 最小手摇火炬 非官方PyTorch重新实现(CVPR2020)。 该项目重新实现以下组件: 培训(DetNet)和评估代码 形状估计 姿势估计:使用代替原始论文中的IKNet。 官方项目链接: 用法 检索代码 git clone https://github.com/MengHao666/Minimal-Hand-pytorch cd Minimal-Hand-pytorch 使用python依赖项创建和激活虚拟环境 conda env create --file=environmen
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:293kb
    • 提供者:weixin_42157567
  1. gopickle:Go库,用于加载用pickle和PyTorch模块文件序列化的Python数据-源码

  2. GoPickle GoPickle是一个Go库,用于加载用pickle和PyTorch模块文件序列化的Python数据。 pickle子包提供了核心功能,用于从文件,字符串或字节序列中加载使用Python pickle模块序列化的数据。 支持从0到5的所有pickle协议。 pytorch子软件包实现了用于加载PyTorch模块文件的类型和功能。 支持现代zip压缩格式和传统的非tar格式。 不支持旧的tar压缩文件和Torchscr ipt存档。 项目状况和贡献 该项目目前处于Alpha
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:82kb
    • 提供者:weixin_42115074
  1. ilo:使用深度生成模型对逆问题进行中间层优化的正式实施-源码

  2. 官方实施:使用深度生成模型对逆问题进行中间层优化 该存储库托管了该论文的官方PyTorch实现:“使用深度生成模型对逆问题进行中间层优化”。 抽象 我们提出了中间层优化(ILO),这是一种用于解决具有深层生成模型的逆问题的新型优化算法。 不仅仅对初始潜在代码进行优化,我们还逐步更改了输入层,从而获得了更多具有表现力的生成器。 为了探索更高维度的空间,我们的方法搜索位于上一层所诱导的流形周围的小l1球内的潜在代码。 我们的理论分析表明,通过使球的半径保持相对较小,我们可以使用深度生成模型来改善压
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:49mb
    • 提供者:weixin_42121754
  1. FastSpeech:基于pytorch的FastSpeech的实现-源码

  2. FastSpeech-Pytorch 基于Pytorch的FastSpeech的实现。 更新(2020/07/20) 优化培训过程。 优化长度调节器的实施。 使用与FastSpeech2相同的超级参数。 1、2和3的措施使训练过程比以前快3倍。 更好的语音质量。 模型 我的博客 准备数据集 下载并提取。 将LJSpeech数据集放入data 。 解压缩alignments.zip 。 将放入waveglow/pretrained_model ,并重命名为waveglow_256
  3. 所属分类:其它

  1. nncf:基于PyTorch *的神经网络压缩框架,用于增强OpenVINO:trade_mark:推理-源码

  2. 神经网络压缩框架(NNCF) 该存储库包含基于PyTorch *的框架和用于神经网络压缩的样本。 该框架以Python *包的形式组织,可以在独立模式下构建和使用。 框架架构是统一的,可以轻松添加不同的压缩方法。 这些样本演示了在公共模型和数据集上三个不同用例中压缩算法的用法:图像分类,对象检测和语义分割。 在本文档末尾的表格中,可以找到使用NNCF驱动的样本可获得的。 主要特点 在模型微调过程中应用的各种压缩算法的支持,以实现最佳压缩参数和精度: 自动,可配置的模型图转换以获得压缩模型。
  3. 所属分类:其它

  1. tacred-relation:用于关系提取的位置感知注意力模型的PyTorch实现-源码

  2. 关系提取中的位置感知注意力RNN模型 此存储库包含PyTorch代码,用于纸上的。 TACRED数据集:有关TAC关系提取数据集的详细信息可以在上找到。 要求 Python 3(在3.6.2上测试) PyTorch(在1.0.0上测试) 解压缩,wget(仅用于下载) 制备 首先,从斯坦福大学网站下载和解压缩GloVe载体,方法如下: chmod +x download.sh; ./download.sh 然后使用以下方法准备词汇和初始单词向量: python prepare_voca
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:41kb
    • 提供者:weixin_42168750
  1. AGGCN:用于关系提取的注意力导向图卷积网络(ACL19论文的作者PyTorch实现)-源码

  2. 用于关系提取的注意力导向图卷积网络 本文/代码介绍了依赖树上的注意力导向图卷积图卷积网络(AGGCN),用于大规模句子级关系提取任务(TACRED)。 你可以在找到论文 参见下面的模型架构概述: 要求 我们的模型在Nvidia DGX的GPU Tesla P100-SXM2上进行了训练。 Python 3(在3.6.8上测试) PyTorch(经过0.4.1测试) CUDA(在9.0上测试) tqdm 解压缩,wget(仅用于下载) 我们已经在此仓库中发布了训练有素的模型和训练日志
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:135mb
    • 提供者:weixin_42101384
  1. gpt-2-Pytorch:具有OpenAI的简单文本生成器gpt-2 Pytorch实现-源码

  2. 带文本生成器的GPT2-Pytorch 更好的语言模型及其含义 我们的模型称为GPT-2(是的继承者),仅经过培训即可预测40GB的互联网文本中的下一个单词。 由于我们担心该技术的恶意应用,因此我们不会发布经过训练的模型。 作为负责任公开的一项实验,我们将发布一个供研究人员进行实验的以及一份。 来自 该存储库是有关Pytorch中带有压缩代码的文本生成器的简单实现GPT-2 原始曲目是 。 您也可以阅读有关gpt-2的论文, 。 为了理解更详细的概念,我建议您阅读有关变压器模型的论文。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:563kb
    • 提供者:weixin_42166105
  1. TextBrewer:基于PyTorch的知识蒸馏工具包,用于自然语言处理-源码

  2. | TextBrewer是用于自然语言处理的基于PyTorch的模型提炼工具包。 它包括来自NLP和CV领域的各种蒸馏技术,并提供了易于使用的蒸馏框架,使用户可以快速试验最新的蒸馏方法,以压缩模型的代价相对较小。性能,提高推理速度并减少内存使用量。 通过或检查我们的论文。 新闻 2020年11月11日 更新到0.2.1 : 更加灵活的蒸馏:支持将不同批次的物料喂给学生和老师。 这意味着学生和老师的批次不再需要相同。 它可以用于提取具有不同词汇表的模型(例如,从RoBERTa到BERT)。
  3. 所属分类:其它

  1. cnn-model-pruning:修剪,模型压缩,卷积神经网络-源码

  2. CNN修剪-GAL,CVPR 2019 [再现] 修剪,模型压缩,对抗学习,卷积神经网络。 参考 通过生成对抗性学习(GAL)实现最佳结构化的CNN修剪,CVPR 2019。 FLOP计算工具 要求 python3 pytorch == 1.7.1 cudatoolkit == 11.0.221 numpy == 1.19.2 张量板x == 1.4 实验 CIFAR-10上的ResNet-56。 (图像分类) 执行 预训练模型准备 预训练的权重可从GAL( )下载。 培训和结构修
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:90kb
    • 提供者:weixin_42102272
  1. imagenet-clean:自动清除ImageNet 1k和ImageNetV2数据集-源码

  2. ImageNet清洁 该存储库包含Bash脚本,用于清理ImageNet 1k数据集和采用不同配置的预训练Pytorch模型。 可以从下载Bash脚本。 可以从下载Pytorch预训练模型。 要求 下载ImageNet 1k( )和/或ImagenetV2( )数据集。 Bash运行清理脚本。 ImageMagick应用分类修复。 Pytorch和Pytorch图像模型( )使用预先训练的模型。 清理ImageNet 1k(验证集) 将脚本下载并解压缩到目录中。 将imagenet_
  3. 所属分类:其它

  1. entity-linking:用于命名实体链接的双编码器模型-源码

  2. 双编码器实体链接 此仓库实现了用于实体链接的双编码器模型。 双编码器将提及和实体对分别嵌入到共享向量空间中。 双编码器模型中的编码器是预训练的变压器。 我们根据检索率指标评估三种不同的基本编码器模型。 检索率是在测试集中为每个提及生成k候选者时包括要提及的正确实体的比率。 三种基本编码器模型的HuggingFace名称为: bert-base-uncased roberta-base johngiorgi/declutr-base 此仓库中的ML模型是使用PyTorch和PyTorch-
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:68kb
    • 提供者:weixin_42120550
« 12 »