您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. distillation.zip

  2. 这个是一位博主写的蒸馏代码例子使用的是resnet18网络作为教师网络,自定义cnn为学生网络,也提供了训练好的模型
  3. 所属分类:深度学习

    • 发布日期:2020-04-20
    • 文件大小:14mb
    • 提供者:weixin_32759777
  1. 知识蒸馏概念与发展【附上8篇经典的相关paper】.zip

  2. Hinton在NIPS 2014workshop中提出知识蒸馏(Knowledge Distillation,下面简称KD)概念: 把复杂模型或者多个模型Ensemble(Teacher)学到的知识 迁移到另一个轻量级模型( Student )上叫知识蒸馏。使模型变轻量的同时(方便部署),尽量不损失性能。
  3. 所属分类:机器学习

    • 发布日期:2019-12-28
    • 文件大小:6mb
    • 提供者:syp_net