您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. CS231n课程笔记翻译:卷积神经网络笔记.pdf

  2. CS231n课程笔记翻译:卷积神经网络笔记,Andrej Karpathy授课,由杜客和猴子翻译完成,堃堃和李艺颖进行校对修改
  3. 所属分类:讲义

  1. 吴恩达卷积神经网络课件与笔记

  2. 自己整理的吴恩达深度学习第四课(卷积神经网络)的课件,大家一起深度学习吧。
  3. 所属分类:讲义

    • 发布日期:2017-12-22
    • 文件大小:12mb
    • 提供者:qq583083658
  1. 新版CS231n斯坦福面向视觉识别的卷积神经网络课程笔记全(中英双语)

  2. 课程讲义合集,中英双语版,新版CS231n斯坦福面向视觉识别的卷积神经网络课程笔记全(中英双语)
  3. 所属分类:深度学习

    • 发布日期:2018-05-21
    • 文件大小:9mb
    • 提供者:zxw159zxw
  1. 卷积神经网络前向及反向传播过程数学解析.pdf

  2. 本文为作者本人对卷积神经网络的前向及反向传播过程数学推导的总结笔记,对深度学习初学者来说是个对卷积神经网络深度了解很好的机会,是自己搭建卷积神经网络的理论支持,欢迎下载,共同进步
  3. 所属分类:深度学习

    • 发布日期:2020-04-14
    • 文件大小:1mb
    • 提供者:qq_42109740
  1. 卷积神经网络(CNN).pdf

  2. 卷积神经网络(CNN)的快速入门做的笔记,简洁可参考。 一、卷积神经网络(CNN) 二、LeNet(推进深度学习最早的卷积神经网络之一) 1、卷积操作 2、非线性简介(ReLU)(激活函数) 3、池化操作 4、全连接层 ...
  3. 所属分类:深度学习

    • 发布日期:2020-04-01
    • 文件大小:458kb
    • 提供者:weixin_39079076
  1. 卷积神经网络CNN笔记(理解CNN数学原理的指南).pdf

  2. 卷积神经网络是深度学习中的基础模型。南京大学吴建鑫教授的「卷积神经网络CNN」笔记,35页pdf初学者学习指南理解CNN数学原理。
  3. 所属分类:机器学习

    • 发布日期:2020-02-24
    • 文件大小:773kb
    • 提供者:syp_net
  1. 卷积神经网络.pdf

  2. 学习吴恩达老师的卷积神经网络时,为了帮助理解,自己就整理了一些笔记。大家有需要的可以下载查看一下,搭配课程使用效果更佳......
  3. 所属分类:深度学习

    • 发布日期:2020-09-04
    • 文件大小:8mb
    • 提供者:narutodzx
  1. tensorflow学习笔记之mnist的卷积神经网络实例

  2. 主要为大家详细介绍了tensorflow学习笔记之mnist的卷积神经网络实例,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  3. 所属分类:其它

    • 发布日期:2020-09-20
    • 文件大小:59kb
    • 提供者:weixin_38638292
  1. tensorflow学习笔记之mnist的卷积神经网络实例

  2. mnist的卷积神经网络例子和上一篇博文中的神经网络例子大部分是相同的。但是CNN层数要多一些,网络模型需要自己来构建。 程序比较复杂,我就分成几个部分来叙述。 首先,下载并加载数据: import tensorflow as tf import tensorflow.examples.tutorials.mnist.input_data as input_data mnist = input_data.read_data_sets("MNIST_data/", one_hot=True)
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:57kb
    • 提供者:weixin_38526823
  1. 《动手学深度学习——卷积神经网络、LeNet、卷积神经网络进阶》笔记

  2. 动手学深度学习:卷积神经网络,LeNet,卷积神经网络进阶 卷积神经网络基础 目录: 1、卷积神经网络的基础概念 2、卷积层和池化层 3、填充、步幅、输入通道和输出通道 4、卷积层的简洁实现 5、池化层的简洁实现 1、卷积神经网络的基础概念 最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:132kb
    • 提供者:weixin_38630571
  1. 卷积神经网络和机器翻译笔记

  2. 卷积神经网络基础笔记 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:543kb
    • 提供者:weixin_38742421
  1. 《动手学——卷积神经网络进阶》笔记

  2. 深度卷积神经网络(AlexNet) LeNet: 在大的真实数据集上的表现并不尽如⼈意。 1.神经网络计算复杂。 2.还没有⼤量深⼊研究参数初始化和⾮凸优化算法等诸多领域。 两派特征提取的观点: 机器学习的特征提取:手工定义的特征提取函数 神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 AlexNet 首次证明了学习到的特征可以超越⼿⼯设计的特征,从而⼀举打破计算机视觉研究的前状。 特征: 8层变换,其中有5层卷积和2层全连接隐藏层,以及1个全连接输出层。
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:383kb
    • 提供者:weixin_38752628
  1. Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:150kb
    • 提供者:weixin_38628830
  1. 卷积神经网络笔记

  2. 一、二维卷积层(用于处理图像数据) 1.二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与 该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。 2.二维卷积层 二维卷积层将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。卷积层的模型参数包括卷积核和标量偏置。 3.互
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:47kb
    • 提供者:weixin_38567813
  1. 循环、卷积神经网络

  2. 循环、卷积神经网络 参考伯禹学习平台《动手学深度》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV 感谢伯禹平台给我们提供一次免费学习的机会!! 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:97kb
    • 提供者:weixin_38689113
  1. 动手学深度学习之-卷积神经网络基础

  2. 卷积神经网络基础 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/whY-8BhPmsle8wyEEyTST 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:129kb
    • 提供者:weixin_38740596
  1. 笔记:动手学深度学习pytorch(卷积神经网络基础;leNet;卷积神经网络进阶)

  2. – 卷积神经网络基础 – 卷积层 – 1×\boldsymbol\times× 1 卷积层 形状为1×11 \times 11×1的卷积核,我们通常称这样的卷积运算为1×11 \times 11×1卷积,称包含这种卷积核的卷积层为1×11 \times 11×1卷积层。 1×11 \times 11×1卷积核可在不改变高宽的情况下,调整通道数。1×11 \times 11×1卷积核不识别高和宽维度上相邻元素构成的模式,其主要计算发生在通道维上。假设我们将通道维当作特征维,将高和宽维度上的元素当
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:799kb
    • 提供者:weixin_38528180
  1. AI学习笔记——卷积神经网络(CNN)

  2. 本文来自简书,本文主要介绍了一个完整的卷积神经网络(CNN),卷积的滤波器(Filter)是如何工作的呢?请参见下文。上篇文章简单地地介绍了神经网络和深度学习,在神经网络中,每一层的每个神经元都与下一层的每个神经元相连(如下图),这种连接关系叫全连接(FullConnected)。如果以图像识别为例,输入就是是每个像素点,那么每一个像素点两两之间的关系(无论相隔多远),都被下一层的神经元"计算"了。这种全连接的方法用在图像识别上面就显得太"笨"了,因为图像识别首先得找到图片中各个部分的"边缘"和
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:699kb
    • 提供者:weixin_38688890
  1. 卷积神经网络知识学习笔记

  2. 本文来自简书,本文主要讲解了卷积神经网络知识,包括卷积层和池化层的介绍,希望对您的学习有所帮助。卷积神经网络(CNN)是含有卷积层(convolutionallayer)的神经网络,二维卷积层有高和宽两个空间维度,常用来处理图像数据。虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cross-correlation)运算。关于卷积运算和互相关运算的关系可以查看这里。二维卷积层输出的二维数组可以看作是输入在空间维度(宽和高)上某一级的表征,也叫特征图(
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:237kb
    • 提供者:weixin_38743076
  1. convolutional_dqn_pacman:用于OpenAI Pacman域的具有双深度Q学习(DQN)代理的集成卷积神经网络(CNN)-源码

  2. convolutional_dqn_pacman 用于OpenAI Pacman域的具有双深度Q学习(DQN)代理的卷积神经网络(CNN)。 实施利用“双重”目标网络在正确的方向上指导学习,并利用随机采样的经验重放来防止状态转换依赖性干扰学习。 状态由三维红绿蓝(RGB)阵列表示,这使卷积神经网络(CNN)非常适合于训练代理的任务。 马尔可夫决策过程(MDP)和整体环境由OpenAI定义/提供。 Tensorboard已集成到该项目中,以进行培训/进度可视化。 笔记: 根据经验,通过多次
  3. 所属分类:其它

« 12 3 4 5 »