您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 【DL学习笔记】打卡02:Task03-05

  2. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 过拟合、欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:69kb
    • 提供者:weixin_38508497
  1. 《动手学深度学习》第二次打卡-学习小队

  2. 一、学习任务: Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer Task05:卷积神经网络基础;leNet;卷积神经网络进阶 二、学习要点 2.1 过拟合、欠拟合及其解决方案 过拟合:太过贴近于训练数据的特征了,在训练集上表现非常优秀,近乎完美的预测/区分了所有的数据,但是在新的测试集上却表现平平 欠拟合:样本不够或者算法不精确,测试样本特性没有学到,不具泛化性,拿到新样本后
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:500kb
    • 提供者:weixin_38613154
  1. ElitesAI·动手学深度学习PyTorch版Task05打卡

  2. 卷积神经网络 神经网络结构: 卷积神经网络是神经网络模型的改进版本,依旧是层级网络,只是层的功能和形式做了变化,如: 卷积神经网络的层级结构 • 数据输入层/ Input layer   • 卷积计算层/ CONV layer   • ReLU激励层 / ReLU layer   • 池化层 / Pooling layer   • 全连接层 / FC layer 卷积计算层 这一层就是卷积神经网络最重要的一个层次,也是“卷积神经网络”的名字来源。 在这个卷积层,有两个关键操作:   • 局部关
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:705kb
    • 提供者:weixin_38739919
  1. Task 05 打卡

  2. 1. 卷积神经网络基础 卷积神经网络的基础概念,主要是卷积层和池化层,并理解填充、步幅、输入通道和输出通道的含义。 使用Pytorch中的nn.Conv2d类来实现二维卷积层,主要关注以下几个构造函数参数: in_channels (python:int) – Number of channels in the input imag out_channels (python:int) – Number of channels produced by the convolution kernel_
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:358kb
    • 提供者:weixin_38551046
  1. DataWhale组队打卡学习营task05-1 卷积神经网络基础

  2. 卷积神经网络基础 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处的输入子数组按元素相乘并求和,得到输出数组中相应位置的元素。图1展示了一个互相关运算的例子,阴影部分分别是输入的第一个计算区域、核数组
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:365kb
    • 提供者:weixin_38696339
  1. 动手学深度学习打卡之二。

  2. 第二次打卡内容(2月15日-18日) Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶(1天) Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer(1天) Task05:卷积神经网络基础;leNet;卷积神经网络进阶(1天) 感觉内容比较多啦,终于看完了。。 下面附上一些学习中查到的资料。 Deep Learning(深度学习)学习笔记整理系列之(一) b站上动手学深度学习 开学前要学完哦!!加油!! 作者:poppy917
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:28kb
    • 提供者:weixin_38506835
  1. 伯禹学习平台第一次打卡 task05

  2. 卷积神经网络 填充 填充(padding)是指在输入高和宽的两侧填充元素(通常是0元素),图2里我们在原输入高和宽的两侧分别添加了值为0的元素。 图2 在输入的高和宽两侧分别填充了0元素的二维互相关计算 如果原输入的高和宽是nhn_hnh​和nwn_wnw​,卷积核的高和宽是khk_hkh​和kwk_wkw​,在高的两侧一共填充php_hph​行,在宽的两侧一共填充pwp_wpw​列,则输出形状为: (nh+ph−kh+1)×(nw+pw−kw+1) (n_h+p_h-k_h+1)\times
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:144kb
    • 提供者:weixin_38526208