您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 卷积神经网络基础 pytorch

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。
  3. 所属分类:深度学习

    • 发布日期:2020-02-17
    • 文件大小:5kb
    • 提供者:qq_40441895
  1. 深度学习(五)————卷积神经网络基础、leNet、卷积神经网络进阶

  2. 目录 卷积神经网络基础 二维互相关运算 填充 步幅 多输入通道和多输出通道¶ 卷积层与全连接层的对比 池化 LeNet 模型 深度卷积神经网络(AlexNet) AlexNet 使用重复元素的网络(VGG)¶ ⽹络中的⽹络(NiN) GoogLeNet 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义 我们介绍卷积层的两个超参数,即填充和步幅,它们可以对给定形状的输入和卷积核改变输出形状。 二维互相关运算 二维互相关(cros
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:878kb
    • 提供者:weixin_38516706
  1. 深度学习d5:卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 卷积神经网络:包括卷积层、池化层 二维卷积层: 最常用,用于处理图像数据,将输入和卷积核做互相关运算,并加上一个标量偏置来得到输出。 其模型参数=卷积核+标量偏置。 训练模型的时候,通常我们先对卷积核随机初始化,然后不断迭代卷积核和偏差,即可通过数据学习核数组。每次迭代中,将输出与真实值进行比较,然后计算梯度进行更新。 可用来进行图像边缘检测。 互相关运算和卷积运算: 两者十分相似,将核数组上下翻转、左右翻转,再与输入数组做互相关运算,这一过程就是卷积运算。两者都是学习出来的,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:42kb
    • 提供者:weixin_38548394
  1. pytorch实现task5——卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 卷积神经网络包括卷积层和池化层。 二维卷积层 最常见的是二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:60kb
    • 提供者:weixin_38666300
  1. Task05:卷积神经网络基础;leNet;卷积神经网络进阶 学习笔记

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:150kb
    • 提供者:weixin_38628830
  1. 小结5:卷积神经网络基础、LeNet、卷积神经网络进阶

  2. 文章目录卷积神经网络基础二维卷积层padding以及stride对特征图影响stridekernel参数LeNetLeNet结构图卷积神经网络进阶AlexNetVGGNiN(network in network)GoogleNet 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:562kb
    • 提供者:weixin_38628626
  1. 卷积神经网络基础(CNN)

  2. 文章目录卷积神经网络基础二维互相关运算二维卷积层互相关运算与卷积运算特征图和感受野填充和步幅填充步幅多输入通道和多输出通道多输入通道多输出通道1×1卷积层卷积层与全连接层的比较卷积层的pytorch实现池化层二维池化层池化层的pytorch实现 卷积神经网络基础 二维互相关运算 虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cross-correlation)运算。在二维卷积层中,一个二维输入数组和一个二维核(kernel)数组通过互相关运算输出一
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:129kb
    • 提供者:weixin_38604653
  1. 卷积神经网络基础与经典模型-Task4

  2. 1. 卷积神经网络基础 从本节讲解才知道,卷积神经网络中的Conv2d函数中,实现的滤波器与图像element-wise相乘并累加其实是互相关运算,二维互相关的解释如下: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:153kb
    • 提供者:weixin_38727579
  1. Dive into deep learning task 05- 卷积神经网络基础;leNet;卷积神经网络进阶

  2. 3.卷积神经网络基础 卷积其实是一种信号过滤器,实际上做的二维互相关运算。以前理解 的是卷积运算,现在才发现这就是互相关运行,说白了就是用卷积核遍历输入的数组。 池化是一种降维操作。 互相关运算和卷积运算没有本质上的不同,但是还是有区别。 卷积神经网络的输出为 (nh+ph-kh+sh)/sh * (nw+pw-kw+sw)/sw nh,nw 为输入的高和宽 ph,pw为填充的高和宽 kh,kw为卷积核的高和宽 sh,sw为纵向和横向步长 课后题居然大错,第一题被坑了,是彩色 图片,有3个通道。
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:39kb
    • 提供者:weixin_38570145
  1. 深度学习8-卷积神经网络基础

  2. 卷积神经网络基础二维卷积层互相关运算与卷积运算特征图与感受野卷积层的两个超参数多输入通道和多输出通道卷积层与全连接层的对比卷积层的实现池化 主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。最常见的是二维卷积层,常用于处理图像数据。 二维卷积层 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:132kb
    • 提供者:weixin_38555350
  1. TASK05-卷积神经网络基础-AlexNet-Lexnet

  2. 卷积神经网络基础-主要是一些概念性的内容,一做题目,几乎全部错误了,悲剧呀。 把题目和解析放下面。 1. 假如你用全连接层处理一张256×256256 \times 256256×256的彩色(RGB)图像,输出包含1000个神经元,在使用偏置的情况下,参数数量是: 65536001 65537000 196608001 196609000 答案解释 图像展平后长度为3×256×2563 \times 256 \times 2563×256×256,权重参数和偏置参数的数量是3×256×256×
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:75kb
    • 提供者:weixin_38601446
  1. task05卷积神经网络基础

  2. 卷积神经网络基础¶ 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:82kb
    • 提供者:weixin_38731226
  1. 伯禹 动手学深度学习 打卡06之卷积神经网络基础

  2. 卷积神经网络基础 二维卷积层 本文介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关计算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:329kb
    • 提供者:weixin_38720322
  1. pytorch-卷积神经网络基础

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:151kb
    • 提供者:weixin_38750406
  1. 动手学深度学习之-卷积神经网络基础

  2. 卷积神经网络基础 参考伯禹学习平台《动手学深度学习》课程内容内容撰写的学习笔记 原文链接:https://www.boyuai.com/elites/course/cZu18YmweLv10OeV/video/whY-8BhPmsle8wyEEyTST 感谢伯禹平台,Datawhale,和鲸,AWS给我们提供的免费学习机会!! 总的学习感受:伯禹的课程做的很好,课程非常系统,每个较高级别的课程都会有需要掌握的前续基础知识的介绍,因此很适合本人这种基础较差的同学学习,建议基础较差的同学可以关注伯禹
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:129kb
    • 提供者:weixin_38740596
  1. DataWhale组队打卡学习营task05-1 卷积神经网络基础

  2. 卷积神经网络基础 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:365kb
    • 提供者:weixin_38696339
  1. 笔记:动手学深度学习pytorch(卷积神经网络基础;leNet;卷积神经网络进阶)

  2. – 卷积神经网络基础 – 卷积层 – 1×\boldsymbol\times× 1 卷积层 形状为1×11 \times 11×1的卷积核,我们通常称这样的卷积运算为1×11 \times 11×1卷积,称包含这种卷积核的卷积层为1×11 \times 11×1卷积层。 1×11 \times 11×1卷积核可在不改变高宽的情况下,调整通道数。1×11 \times 11×1卷积核不识别高和宽维度上相邻元素构成的模式,其主要计算发生在通道维上。假设我们将通道维当作特征维,将高和宽维度上的元素当
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:799kb
    • 提供者:weixin_38528180
  1. 《动手学深度学习》卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础;leNet;卷积神经网络进阶卷积神经网络基础二位互相关运算二维卷积层互相关运算与卷积运算特征图与感受野填充和步幅填充:在输入的高宽两侧填充元素,通常填充0。步幅:卷积核在输入数组上每次滑动的行数列数。多输入通道和多输出通道1×11×11×1卷积层池化LeNetLeNet模型卷积神经网络进阶AlexNet使用重复元素的网络(VGG)网络中的网络(NIN)GoogleNet 卷积神经网络基础 介绍的是最常见的二维卷积层,常用于处理图像数据。 二位互相关运算 卷积核数组在输入数组上
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:504kb
    • 提供者:weixin_38522636
  1. 《动手学深度学习》Task05:卷积神经网络基础+LeNet+卷积神经网络进阶

  2. 文章目录1 卷积神经网络基础1.1 二维卷积层1.2 填充和步幅1.3 多输入通道和多输出通道1.4 卷积层与全连接层的对比1.4 池化2 LeNet2.1 LeNet 模型2.2 获取数据和训练模型3 卷积神经网络进阶3.1 深度卷积神经网络(AlexNet)3.2 使用重复元素的网络(VGG)3.3 网络中的网络(NiN)3.4 GoogLeNet 1 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 1.1 二维卷积层
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:651kb
    • 提供者:weixin_38672800
  1. 动手学 task5 卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 二维卷积层 填充和步幅 我们介绍卷积层的两个超参数,即填充和步幅,它们可以对给定形状的输入和卷积核改变输出形状。 填充 公式: 总的计算公式: 总结: 最后一个公式相比前一个公式没有加1的操作,乍一看公式不同(即什么时候加1什么时候不加1)其时,对第二个公式分解一下,即可归纳出什么时候都需要加1的操作。这样便于记忆) 多输入通道和多输出通道¶ 代码: print(X.shape) conv2d = nn.Conv2d(in_channels=2, out_chann
  3. 所属分类:其它

« 12 3 4 5 6 7 8 9 10 ... 16 »