您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. L1-L12.rar

  2. 2020 年参加伯禹教育pytorch培训资料 包括L12 Transformer.L11注意力机制和Seq2seq模型L10机器翻译L9循环神经网络进阶 L8梯度消失、梯度爆炸L7过拟合欠拟合及其解决方案L6循环神经网络L5语言模型与数据集L4文本预处理L3Softmax与分类模型L2多层感知机L1 线性回归 博文https://blog.csdn.net/xiuyu1860L1到L11所有jupyter noteobok 文件下载
  3. 所属分类:深度学习

    • 发布日期:2020-02-15
    • 文件大小:105kb
    • 提供者:xiuyu1860
  1. L7过拟合欠拟合及其解决方案.ipynb

  2. 2020 年参加伯禹教育pytorch培训-过拟合欠拟合及其解决方案知识单元 、 此为jupyter notebook格式源文件 文章见:https://blog.csdn.net/xiuyu1860/article/details/104313139
  3. 所属分类:深度学习

    • 发布日期:2020-02-14
    • 文件大小:43kb
    • 提供者:xiuyu1860
  1. 过拟合欠拟合及其解决方案 pytorch

  2. 过拟合、欠拟合及其解决方案,内容: 1. 过拟合、欠拟合的概念 2. 权重衰减 3. 丢弃法 总结 欠拟合现象:模型无法达到一个较低的误差 过拟合现象:训练误差较低但是泛化误差依然较高,二者相差较大
  3. 所属分类:机器学习

    • 发布日期:2020-02-13
    • 文件大小:12kb
    • 提供者:qq_40441895
  1. AI之过拟合、欠拟合及其解决方案

  2. 过拟合、欠拟合及其解决方案模型选择、过拟合和欠拟合训练误差和泛化误差模型选择验证数据集K折交叉验证过拟合和欠拟合模型复杂度训练数据集大小多项式函数拟合实验初始化模型参数定义、训练和测试模型三阶多项式函数拟合(正常)线性函数拟合(欠拟合)训练样本不足(过拟合)权重衰减方法L2L_2L2​范数正则化(regularization)高维线性回归实验从零开始的实现初始化模型参数定义L2范数惩罚项定义训练和测试观察过拟合使用权重衰减简洁实现丢弃法丢弃法从零开始的实现简洁实现 模型选择、过拟合和欠拟合 训练
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:223kb
    • 提供者:weixin_38649657
  1. DataWhale Task03&Task04&Task05

  2. 过拟合欠拟合及其解决方案 概念: 欠拟合(underfitting):模型无法得到较低的训练误差。 过拟合(overfitting):训练误差远小于它在测试数据集上的误差。 主要的影响因素是模型的复杂度和训练数据集的大小,通常模型复杂度低容易欠拟合,复杂度高容易过拟合;数据集小容易过拟合。 常用的解决方案: 从数据集角度:K折交叉验证,提高数据的利用率。 从模型复杂度角度:可以才用权重衰减正则和dropout。权重衰减即为增加一个模型参数的范数作为惩罚项来表征模型的复杂度,L1,L2皆可,其中L
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:214kb
    • 提供者:weixin_38572979
  1. 过拟合欠拟合及其解决方案

  2. 过拟合欠拟合及其解决方案 模型在训练数据集上准确,测试数据集上不一定更准确 训练误差和泛化误差 训练误差:模型在训练数据集上表现出的误差。 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望。常常通过测试数据集上的误差来近似。 一般情况下,由训练数据集学到的模型参数会使模型在训练数据集上的表现优于或等于在测试数据集上的表现。由于无法从训练误差估计泛化误差,一味地降低训练误差并不意味着泛化误差一定会降低。 模型选择 在机器学习中,通常需要评估若干候选模型的表现并从中选择模型。这一过程称为模型
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:82kb
    • 提供者:weixin_38594266
  1. Task03:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. Task03: 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 目录 Task03: 过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶 1、过拟合、欠拟合及其解决方案 1.1 训练误差和泛化误差 1.2 模型选择 1.3 过拟合和欠拟合 1.4 权重衰减 1.5 丢弃法 2、梯度消失、梯度爆炸 2.1 定义 2.2 随机初始化模型参数 2.3 考虑环境因素 3、循环神经网络进阶 3.1 门控循环单位(GRU) 3.2 长短期记忆(LSTM) 3.3 深度循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:695kb
    • 提供者:weixin_38575536
  1. pytorch_task3过拟合欠拟合;梯度消失爆炸;循环神经网络

  2. Task3过拟合、欠拟合及其解决方案训练误差、泛化误差模型选择验证数据集K折交叉验证过拟合欠拟合概念模型复杂度解决过拟合权重衰减(加上L2范数惩罚项)丢弃法梯度消失、梯度爆炸初始化模型参数Xavier随机初始化协变量偏移标签偏移概念偏移循环神经网络循环神经网络构造RNN简洁实现实践one-hot向量 过拟合、欠拟合及其解决方案 训练误差、泛化误差 前者指模型在训练数据集上表现出的误差。 后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 模型选择 验证数据
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:175kb
    • 提供者:weixin_38665629
  1. 小结3:过拟合欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 文章目录过拟合、欠拟合及其解决方法过拟合问题(high variance)欠拟合问题(high bias)梯度消失及梯度爆炸循环网络进阶 过拟合、欠拟合及其解决方法 过拟合问题(high variance) 过拟合问题:是指模型太过复杂,对训练数据效果好,而对新样本泛化能力较弱。 (训练误差低 验证误差高) 产生过拟合的可能原因,可能为其中之一或者都有: 模型的复杂度过高。如网络太深,神经网络中;或者线性回归中模型的阶次 过多的变量特征 训练数据过少 如何解决过拟合: 降低模型复杂度 减少特征数
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:60kb
    • 提供者:weixin_38598745
  1. Task03:过拟合、欠拟合及其解决方案/梯度消失、梯度爆炸/循环神经网络进阶

  2. 1 过拟合、欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 模型选择 验证数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:753kb
    • 提供者:weixin_38722891
  1. 过拟合欠拟合及其解决方案;梯度消失梯度爆炸;循环神经网络进阶;机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;卷积神经网络基础;leNet;卷积神经网络进阶

  2. 1.过拟合欠拟合及其解决方案 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting)。 模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。 2.梯度消失梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 假设一个层数为LLL的多层感知机的第lll层H(l)\boldsymbol{H}^{(l)}H(l)的权重参数为W(l)\b
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:477kb
    • 提供者:weixin_38500117
  1. 过拟合欠拟合及其解决方案、梯度消失梯度爆炸、循环神经网络进阶

  2. 一、过拟合欠拟合及其解决方案 我们将探究模型训练中经常出现的两类典型问题: 一类是模型无法得到较低的训练误差,我们将这一现象称作欠拟合(underfitting); 另一类是模型的训练误差远小于它在测试数据集上的误差,我们称该现象为过拟合(overfitting)。 在实践中,我们要尽可能同时应对欠拟合和过拟合。虽然有很多因素可能导致这两种拟合问题,在这里我们重点讨论两个因素:模型复杂度和训练数据集大小。 二、梯度消失梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:150kb
    • 提供者:weixin_38637764
  1. 深度学习学习笔记(二)

  2. (一)过拟合欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集 从严格意义
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:644kb
    • 提供者:weixin_38743119
  1. task03过拟合、欠拟合

  2. 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:97kb
    • 提供者:weixin_38555304
  1. 动手学深度学习Task03

  2. Task03 1.过拟合欠拟合及其解决方案 训练误差(training error):模型在训练数据集上表现出的误差。 泛化误差(generalization error):模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 机器学习模型应关注降低泛化误差。 通常需要预留一部分在训练数据集和测试数据集以外的数据来进行模型选择,这部分数据被称为验证数据集,简称验证集(validation set)。 K折交叉验证:把原始训练数据集分割成K个不重合的子数据集,然后我
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:304kb
    • 提供者:weixin_38605538
  1. Deep Learning_Task3_过拟合、欠拟合/梯度消失、梯度爆炸/循环神经网络进阶

  2. 一、过拟合、欠拟合及其解决方案 ·模型选择、过拟合和欠拟合 训练误差(training error):模型在训练数据集上表现出来的误差 泛化误差(generalization error):模型在任意一个测试样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似 计算训练误差和泛化误差可以使用损失函数,比如平方损失函数和交叉熵损失函数等 模型选择 验证数据集 在严格意义上,测试集只能在所有超参数和模型参数选定后使用一次,不可以使用测试数据选择模型,如调参;而由于无法通过训练误差估计泛化误差
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:324kb
    • 提供者:weixin_38646914
  1. AI03过拟合欠拟合;梯度消失、梯度爆炸;卷积神经网络基础

  2. 过拟合欠拟合及其解决方案 训练误差和泛化误差 训练误差:模型在训练数据集上表现出的误差 泛化误差:模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 机器学习模型应关注降低泛化误差。 模型选择 验证数据集 预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。 K折交叉验证 把原始训练数据集分割成K
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:257kb
    • 提供者:weixin_38562392
  1. 深度学习(三)————过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 目录 过拟合、欠拟合及其解决方案 训练误差和泛化误差 过拟合和欠拟合的概念 模型复杂度和误差之间的关系 解决过拟合的方案 梯度消失及梯度爆炸 循环神经网络进阶 GRU LSTM 深度神经网络 过拟合、欠拟合及其解决方案 训练误差和泛化误差        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:399kb
    • 提供者:weixin_38635092
  1. 动手学习深度学习|过拟合、欠拟合及其解决方案

  2. 一 过拟合与欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 1 训练误差与泛化误差 训练误差:在训练集上的数据误差; 泛化误差:在其他任意数据集上的误差的期望,常用测试集误差来近似 模型选择:通常用验证集来进行模型选择 K折交叉验证:将数据集分成相等的K个子数据集来进行K次训练和验证,每次将其中1个当作验证集进行验证模型,另外K-1个数据集进行训练,最后K次后取训练误差的均值和验证误差的均值 2 过拟合和欠拟合 过拟合:训练集的误差远小于测试集的误差 欠拟合:模型无法得到较小的训
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:55kb
    • 提供者:weixin_38627826
  1. 深度学习d3:过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 欠拟合和过拟合 训练误差和泛化误差 训练误差 :训练集上的误差 泛化误差 :测试集上的误差 训练误差的期望小于或等于泛化误差,因为一直在训练训练集。训练误差的降低不等于泛化误差的降低。但机器学习的真正目的是降低泛化误差。 模型选择 验证集 :可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。如从给定的训练集中选一些做验证集。 K折交叉验证 : 节省数据。把原始训练数据集分割成
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:24kb
    • 提供者:weixin_38742520
« 12 3 4 5 »