您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 吴恩达卷积神经网络,第一周作业PyTorch版本代码(gpu-cpu通用)

  2. 吴恩达卷积神经网络,第一周作业PyTorch版本代码(gpu-cpu通用) 1.PyCharm上运行的PyTorch项目 2.基础的卷积神经网络搭建 3.加入了gpu加速所需的代码 4.含数据集+cnn_utils.py【对原版本做了简化】 5.含训练、模型保存、模型加载、单个图片预测代码 6.里面保存了个已经在gpu上训练好的模型,下载后也可以自行训练
  3. 所属分类:深度学习

  1. 卷积神经网络基础 pytorch

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。
  3. 所属分类:深度学习

    • 发布日期:2020-02-17
    • 文件大小:5kb
    • 提供者:qq_40441895
  1. PyTorch上实现卷积神经网络CNN的方法

  2. 一、卷积神经网络 卷积神经网络(ConvolutionalNeuralNetwork,CNN)最初是为解决图像识别等问题设计的,CNN现在的应用已经不限于图像和视频,也可用于时间序列信号,比如音频信号和文本数据等。CNN作为一个深度学习架构被提出的最初诉求是降低对图像数据预处理的要求,避免复杂的特征工程。在卷积神经网络中,第一个卷积层会直接接受图像像素级的输入,每一层卷积(滤波器)都会提取数据中最有效的特征,这种方法可以提取到图像中最基础的特征,而后再进行组合和抽象形成更高阶的特征,因此CNN在
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:66kb
    • 提供者:weixin_38564718
  1. 动手学深度学习Pytorch版本学习笔记 Task 05

  2. 1.卷积神经网络基础 卷积其实就是将许多部分的信息进行压缩,在过大维度矩阵的情况下,因为存在过多的信息 第一是为运算上带来了很多麻烦 第二是类似拿着显微镜看一幅画,难以捕捉其整体的信息。通过互相关运算将画拿远,慢慢感受他整体的信息。所以应该在卷积神经网络中把大矩阵缩小多少次,缩小到什么程度应该是个相当关键的问题。只有在能看清具体信息但又能把握整体信息的情况下,才能得到对图像更清楚地把握。 通过感受野这个概念能发现,经过互相关运算或者卷积运算之后的矩阵,应该每个位置都综合了之前感受野中的信息,所以
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:64kb
    • 提供者:weixin_38696339
  1. 动手学深度学习PyTorch版—day02

  2. 目录   Day02 1.过拟合,欠拟合及解决 训练误差 泛化误差 过拟合 过拟合解决方案 欠拟合 2.梯度消失,梯度爆炸 考虑环境因素 协变量偏移 标签偏移 概念偏移 3.卷积神经网络基础 ALexNet VGG GoogLeNet 4.批量归一化,残差结构,密集连接 BN 对全连接层做批量归一化 对卷积层做批量归一化 预测时的批量归⼀化 Day02 过拟合、欠拟合及解决方案;梯度消失,梯度爆炸;注意力机制与Seq2seq;卷积神经网络基础 1.过拟合,欠拟合及解决 训练误差 指模型在训练集上
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:137kb
    • 提供者:weixin_38632825
  1. pytorch task05 卷积神经网络

  2. pytorch task05 卷积神经网络 文章目录pytorch task05 卷积神经网络1.卷积神经网络基础1.1二维卷积层1.2填充和步幅1.3多输入通道和多输出通道1.4卷积层与全连接层的对比1.5池化2 经典模型LeNet-5AlexNetVGGGoogLeNet (Inception)ResNet退化问题残差网络的解决办法 1.卷积神经网络基础 1.1二维卷积层 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:182kb
    • 提供者:weixin_38706455
  1. pytorch实现task5——卷积神经网络基础;leNet;卷积神经网络进阶

  2. 卷积神经网络基础 卷积神经网络包括卷积层和池化层。 二维卷积层 最常见的是二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:60kb
    • 提供者:weixin_38666300
  1. Learn_Dive-into-DL-PyTorch 第二次打卡

  2. 习题思考 1. 双向循环神经网络 双向循环神经网络结构示意图: 2. 关于Sequence to Sequence模型 Sequence to Sequence模型: 3. 卷积神经网络基础 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:235kb
    • 提供者:weixin_38663415
  1. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记

  2. 伯禹公益AI《动手学深度学习PyTorch版》Task 05 学习笔记 Task 05:卷积神经网络基础;LeNet;卷积神经网络进阶 微信昵称:WarmIce 昨天打了一天的《大革命》,真挺好玩的。不过讲道理,里面有的剧情有点为了“动作”而“动作”,颇没意思。但是Ubi的故事还是讲得一如既往得好。 言归正传,这3节课,前两节没什么意思,充其量复习了计算卷积层输出的特征图大小的公式: $ \mathbf{floor}((in_size + padding – kernel_size)/stri
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:48kb
    • 提供者:weixin_38720653
  1. 卷积神经网络基础(CNN)

  2. 文章目录卷积神经网络基础二维互相关运算二维卷积层互相关运算与卷积运算特征图和感受野填充和步幅填充步幅多输入通道和多输出通道多输入通道多输出通道1×1卷积层卷积层与全连接层的比较卷积层的pytorch实现池化层二维池化层池化层的pytorch实现 卷积神经网络基础 二维互相关运算 虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cross-correlation)运算。在二维卷积层中,一个二维输入数组和一个二维核(kernel)数组通过互相关运算输出一
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:129kb
    • 提供者:weixin_38604653
  1. 动手学深度学习Pytorch版Task05

  2. 卷积神经网络基础 二维卷积层 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 二维卷积层 class Conv
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:194kb
    • 提供者:weixin_38545485
  1. 动手学深度学习PyTorch版–Task4、5–机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;;卷积神经网络基础;leNet;卷积神经网络进阶

  2. 一.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 class Encoder(nn.Module): def __init__(self, **kwargs): super(Encoder, self)
  3. 所属分类:其它

  1. ElitesAI·动手学深度学习PyTorch版-第二次打卡task03

  2. 1、卷积神经网络基础: 1.1 二维卷积操作: 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 其中。卷积核为2:heavy_m
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:923kb
    • 提供者:weixin_38718262
  1. pytorch-卷积神经网络基础

  2. 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:151kb
    • 提供者:weixin_38750406
  1. 笔记:动手学深度学习pytorch(卷积神经网络基础;leNet;卷积神经网络进阶)

  2. – 卷积神经网络基础 – 卷积层 – 1×\boldsymbol\times× 1 卷积层 形状为1×11 \times 11×1的卷积核,我们通常称这样的卷积运算为1×11 \times 11×1卷积,称包含这种卷积核的卷积层为1×11 \times 11×1卷积层。 1×11 \times 11×1卷积核可在不改变高宽的情况下,调整通道数。1×11 \times 11×1卷积核不识别高和宽维度上相邻元素构成的模式,其主要计算发生在通道维上。假设我们将通道维当作特征维,将高和宽维度上的元素当
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:799kb
    • 提供者:weixin_38528180
  1. 使用PyTorch进行深度学习:使用PyTorch解密神经网络-源码

  2. 通过PyTorch应用深度学习 机器学习正Swift成为解决数据问题的首选方法,这归功于种类繁多的数学算法可以找到模式,而这些模式对于我们而言是不可见的。 通过PyTorch进行的应用深度学习使您对深度学习,其算法及其应用有了更高的了解。 本课程首先帮助您浏览深度学习和PyTorch的基础知识。 一旦您精通PyTorch语法并能够构建单层神经网络,您将通过配置和训练卷积神经网络(CNN)进行图像分类,逐步学习解决更复杂的数据问题。 在阅读本章的过程中,您将发现如何通过实现递归神经网络(RNN)
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:37mb
    • 提供者:weixin_42166105
  1. 《动手学深度学习Pytorch版》Task5-卷积神经网络

  2. 卷积神经网络基础 需要理解卷积神经网络的基础概念,主要是卷积层和池化层、填充、步幅、输入通道和输出通道的含义。 几个经典的模型 LeNet AlexNet VGG NiN GoogLeNet 1×1卷积核作用 放缩通道数:通过控制卷积核的数量达到通道数的放缩。 增加非线性:1×1卷积核的卷积过程相当于全连接层的计算过程,并且还加入了非线性激活函数,从而可以增加网络的非线性。 计算参数少 LeNet vs AlexNet 注:5*5 Conv(16),这里的16指的是输出的通道数 LeNet的图
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:214kb
    • 提供者:weixin_38605967
  1. ElitesAI·动手学深度学习PyTorch版学习笔记-卷积神经网络基础;leNet;卷积神经网络进阶

  2. 宅家中看到Datawhale的学习号召,在大牛云集的群上找到了一个很佛系的小组,战战兢兢地开始了小白的深度学习之旅。感谢Datawhale、伯禹教育、和鲸科技,感谢课程制作者、组织者、各位助教以及其他志愿者! 1 卷积神经网络基础 1.1 二维卷积 本小节介绍了二维卷积,主要用于图像数据(刚好是二维的数据)处理。 二维卷积通过输入二维数据和二维核数据的运算(卷积),得到一个小于输入数据的二维输出数据,但是该输出数据依然部分保存了输入数据的信息。输出的二维数据可以看作输入数据的一个缩略图,也叫
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:50kb
    • 提供者:weixin_38652196
  1. DL基于Pytorch Day5 卷积神经网络基础

  2. 1.二维卷积层 二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组以及对应的输出。 下面我们用co
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:123kb
    • 提供者:weixin_38686187
  1. pytorch 学习笔记 part8 卷积神经网络基础

  2. 卷积层的实现 主要参数: 1.in_channels (python:int) – Number of channels in the input imag 2.out_channels (python:int) – Number of channels produced by the convolution 3.kernel_size (python:int or tuple) – Size of the convolving kernel 4.stride (python:int or tu
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:20kb
    • 提供者:weixin_38632916
« 12 3 »