您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 注意转移:通过注意转移改善卷积网络(ICLR 2017)-源码

  2. 注意转移 PyTorch代码“更多地关注注意力:通过注意力转移提高卷积神经网络的性能” ICLR2017会议论文: ://openreview.net/forum id Sks9_ajex 到目前为止,此仓库中有什么: 用于CIFAR-10实验的基于激活的AT代码 ImageNet实验代码(ResNet-18-ResNet-34学生教师) Jupyter笔记本可视化ResNet-34的注意力图 未来: 基于研究生的AT 基于场景和CUB激活的AT代码 该代码使用PyTorch
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:403kb
    • 提供者:weixin_42129970