您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. AdderNet:纸代码“ AdderNet-源码

  2. AdderNet:我们真的需要深度学习中的乘法吗? 该代码是CVPR 2020论文的演示 我们提出加法器网络(AdderNets)来交换深度神经网络(尤其是卷积神经网络(CNN))中的大规模乘法运算,以更便宜的加法运算来减少计算成本。在AdderNets中,我们将滤波器和输入要素之间的L1范数距离作为输出响应。结果,在ImageNet数据集上使用ResNet-50,建议的AdderNets可以达到74.9%的Top-1精度91.7%的Top-5精度,而无需在卷积层上进行任何乘法。 更新:培训代码
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:235kb
    • 提供者:weixin_42159267
  1. HyperNet:适用于ResNet的HyperNetworks的PyTorch实施(Ha等人,ICLR 2017)-源码

  2. 超网络 适用于ResNet的PyTorch实施(Ha等人,ICLR 2017)。该代码主要用于CIFAR-10和CIFAR-100,但是将其用于任何其他数据集都非常容易。将其用于不同深度的ResNet架构也非常容易。 我们使用pytorch闪电来控制整个管道。 怎么跑 python train.py --dataset {cifar10/cifar100} --gpus $num_gpu -j $num_workers --distributed_backend ddp 已过期。此回购协议已将H
  3. 所属分类:其它

  1. ResNet修剪:应用于ResNet20的过滤器级别修剪方法的实现-源码

  2. ResNet20修剪 ResNet20到CIFAR-10,以及такжереализацибазов的前身。Данныйрепозиторийсодержиткоддляобучениямодели。 筛选器级别的修剪'аизследующихдвухшагов: Длякаждогосверточногослоякластеризуетсянаборсверенод Каждаяисходнаясверткавопределенномслоезаменяетсякластера,ккот
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:96kb
    • 提供者:weixin_42139871
  1. ResNet-Cifar.py

  2. 简单的Cifar10数据集 pytorch 框架训练代码 使用简单的ResNet-18 进行训练 代码附有详细注释,一看就懂 修改代码,补充上自己的CiFar10数据集位置,就可以直接运行
  3. 所属分类:深度学习

    • 发布日期:2021-02-08
    • 文件大小:4kb
    • 提供者:xiao_9626
  1. cnn-model-pruning:修剪,模型压缩,卷积神经网络-源码

  2. CNN修剪-GAL,CVPR 2019 [再现] 修剪,模型压缩,对抗学习,卷积神经网络。 参考 通过生成对抗性学习(GAL)实现最佳结构化的CNN修剪,CVPR 2019。 FLOP计算工具 要求 python3 pytorch == 1.7.1 cudatoolkit == 11.0.221 numpy == 1.19.2 张量板x == 1.4 实验 CIFAR-10上的ResNet-56。 (图像分类) 执行 预训练模型准备 预训练的权重可从GAL( )下载。 培训和结构修
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:90kb
    • 提供者:weixin_42102272