您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Mave3详细教程(中英版、入门、中级、高级).rar

  2. Maven权威指南 Authors Maven权威指南是一本关于Apache Maven的书。 Copyright 1. Creative Commons BY-ND-NC Foreword: Beta 0.16 Preface 1. How to Use this Book 2. Your Feedback 3. Font Conventions 4. Maven Writing Conventions 5. Acknowledgements 1. 介绍 Apache Maven 1.1.
  3. 所属分类:Java

    • 发布日期:2010-11-14
    • 文件大小:3mb
    • 提供者:jackeykoh
  1. 深度学习的9篇标志性论文

  2. A Fast Learning Algorithm for Deep Belief Nets (2006) - 首 次提出layerwise greedy pretraining的方法,开创deep learning方向。 layerwise pretraining的Restricted Boltzmann Machine (RBM)堆叠起来构成 Deep Belief Network (DBN),其中训练最高层的RBM时加入了label。之后对整个DBN进行fine-tuning。在 MNI
  3. 所属分类:其它

    • 发布日期:2013-12-15
    • 文件大小:3mb
    • 提供者:luoyun614
  1. 深度学习的9篇标志性论文

  2. A Fast Learning Algorithm for Deep Belief Nets (2006) - 首 次提出layerwise greedy pretraining的方法,开创deep learning方向。 layerwise pretraining的Restricted Boltzmann Machine (RBM)堆叠起来构成 Deep Belief Network (DBN),其中训练最高层的RBM时加入了label。之后对整个DBN进行fine-tuning。在 MNI
  3. 所属分类:专业指导

    • 发布日期:2014-09-17
    • 文件大小:3mb
    • 提供者:hgj3804278
  1. 关于深度学习(DL)的9篇标志性文章

  2. deep learning 的一些标志性文章 A Fast Learning Algorithm for Deep Belief Nets (2006) - 首 次提出layerwise greedy pretraining的方法,开创deep learning方向。 layerwise pretraining的Restricted Boltzmann Machine (RBM)堆叠起来构成 Deep Belief Network (DBN),其中训练最高层的RBM时加入了label。之后对整
  3. 所属分类:专业指导

    • 发布日期:2015-09-14
    • 文件大小:3mb
    • 提供者:zyf19930610
  1. 斯坦福大学公开课 CS231n_Convolutional_Neural_Networks_for_Visual_Recognition PPT

  2. 深度学习-面向视觉识别的卷积神经网络,2016斯坦福大学公开课。课程介绍: 计算机视觉在社会中已经逐渐普及,并广泛运用于搜索检索、图像理解、手机应用、地图导航、医疗制药、无人机和无人驾驶汽车等领域。而这些应用的核心技术就是图像分类、图像定位和图像探测等视觉识别任务。近期神经网络(也就是“深度学习”)方法上的进展极大地提升了这些代表当前发展水平的视觉识别系统的性能。 本课程将深入讲解深度学习框架的细节问题,聚焦面向视觉识别任务(尤其是图像分类任务)的端到端学习模型。在10周的课程中,学生们将会学
  3. 所属分类:深度学习

    • 发布日期:2017-09-05
    • 文件大小:35mb
    • 提供者:sinat_27053203
  1. CNN框架介绍

  2. 神经网络与卷积神经网络 1.层级结构 2.数据处理 3.训练算法 4.优缺点 实际搭建与训练CNN 1.典型CNN搭建 2.训练与fine-tuning 简单实现与可视化
  3. 所属分类:讲义

    • 发布日期:2017-09-15
    • 文件大小:2mb
    • 提供者:qq_36616415
  1. BERT介绍

  2. 简介 BERT模型来自谷歌团队的paper——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,它在11个NLP任务中刷新了成绩,效果非常好,非常惊人。但是,这项工作不是很好复现,如果没有足够的资源就不要想了 。之前,利用预训练的语言表征来完成下游NLP任务的研究,可以概括为两类:feature-based和fine-tuning。feature-based类别比如ELMo,fine-
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:128kb
    • 提供者:weixin_38642897
  1. fine-tuning介绍

  2. 在深度学习过程中,获取数据集后,在训练自己的网络之前,用别人现有的网络进行fine-tuning(微调),然后训练。在实践中,由于数据集不够大,很少有人从头开始训练网络,常见的做法是使用预训练的网络来重新fine-tuning(微调),或者当做特征提取器。fine-tuning是迁移学习的一种手段(方法)。 Transfer Learning Definition Ability of a system to recognize and apply knowledge and skills le
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:47kb
    • 提供者:weixin_38499336
  1. L23模型微调fine tuning

  2. resnet185352 链接:https://pan.baidu.com/s/1EZs9XVUjUf1MzaKYbJlcSA 提取码:axd1 9.2 微调 在前面的一些章节中,我们介绍了如何在只有6万张图像的Fashion-MNIST训练数据集上训练模型。我们还描述了学术界当下使用最广泛的大规模图像数据集ImageNet,它有超过1,000万的图像和1,000类的物体。然而,我们平常接触到数据集的规模通常在这两者之间。 假设我们想从图像中识别出不同种类的椅子,然后将购买链接推荐给用户。一种可
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:146kb
    • 提供者:weixin_38670531