您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 过拟合/欠拟合,梯度消失和爆炸概念

  2. 在解释过拟合/欠拟合之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:76800
    • 提供者:weixin_38543280
  1. task03过拟合、欠拟合

  2. 过拟合、欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:99328
    • 提供者:weixin_38555304
  1. pytorch实现task3——过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 过拟合、欠拟合及解决方案在之前自己已经使用较多较熟练,故跳过。 梯度消失、梯度爆炸 深度模型有关数值稳定性的典型问题是消失(vanishing)和爆炸(explosion)。 当神经网络的层数较多时,模型的数值稳定性容易变差。 在神经网络中,通常需要随机初始化模型参数。随机初始化模型参数的方法有很多。在线性回归的简洁实现中,我们使用torch.nn.init.normal_()使模型net的权重参数采用正态分布的随机初始化方式。不过,PyTorch中nn.Module的模块参数都采取了较为合理的
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:74752
    • 提供者:weixin_38690739
  1. DataWhale学习笔记过拟合、欠拟合及其解决方案

  2. 过拟合,欠拟合        在模型的评估和调整过程中,往往会遇到过拟合和欠拟合的问题,这也是及其学习中的经典问题,但在目前的任务中仍然会出现过拟合等问题,对于常用的解决方法,总结如下。        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:119808
    • 提供者:weixin_38589795
  1. 动手学深度学习PyTorch版 | (3)过拟合、欠拟合及其解决方案

  2. 文章目录一、过拟合、欠拟合概念二、多项式函数拟合实验2.1 初始化模型参数2.2 定义、训练和测试模型三阶多项式函数拟合(正常)线性函数拟合(欠拟合)训练样本不足(过拟合)2.3 权重衰减L2 范数正则化(regularization)2.4 丢弃法丢弃法从零开始的实现简洁实现小结 一、过拟合、欠拟合概念 训练模型中经常出现的两类典型问题: 欠拟合:模型无法得到较低的训练误差 过拟合:模型的训练误差远小于它在测试数据集上的误差 在实践中,我们要尽可能同时应对欠拟合和过拟合。有很多因素可能导致这两
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:302080
    • 提供者:weixin_38526650
  1. 最小二乘法直线拟合小程序

  2. C++写的小程序 做实验是可以用来做直线拟合 算线性误差 灵敏度等 已经包含源代码 C++写的小程序 做实验是可以用来做直线拟合 算线性误差 灵敏度等 已经包含源代码
  3. 所属分类:C/C++

    • 发布日期:2021-03-22
    • 文件大小:53248
    • 提供者:bqfcumt
  1. 局部形态拟合主动轮廓用于自动血管分割

  2. 在本文中,我们提出了一种使用局部形态拟合的主动轮廓模型,用于二维血管造影上的自动血管分割。 使用具有自适应比例和方向的线性结构元素,分别对容器和背景进行模糊形态最大和最小开口的拟合。 在级别集框架内实现了与活动轮廓模型关联的能量的最小化。 像当前的局部模型一样,将图像拟合为局部区域信息可使模型在非均匀背景下具有鲁棒性。 此外,与当前局部模型相比,在每个轮廓演变过程中预先计算而不是更新的用于拟合的选择性局部估计使水平集的演化再次具有稳健的初始位置。 给出了与其他方法相比在合成图像和真实血管造影上的
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:1048576
    • 提供者:weixin_38601103
  1. hyperbolicfitdll:这是一个开放源代码库,可以帮助自动对焦望远镜。 该库将半个通量直径数据拟合到一个双曲线,可以从中插入正确的焦点。 该库使用各种健壮的统计异常值检测方法。 目前在https中的软件Astro Photogra

  2. hyperbolicfitdll //这是一个开放源代码库,可以帮助自动对焦望远镜。 该库将半通量直径数据拟合到双曲线,可以从中//插入正确的焦点。 //该库当前在自动对焦例程的软件Astro Photography工具(APT)的预览版中使用。 //提供了一个测试应用程序,其中包含一些历史数据,并且用户可以在其中输入自己的hfd数据。 然后,应用程序使用各种参数(不同的统计估计量和拟合方法)从//库中运行双曲拟合函数,并显示计算出的焦点,找到的离群值和各种方法拟合的平均误差。 //该库
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:157696
    • 提供者:weixin_42109178
  1. 基于目标分割和分段拟合的车道检测

  2. 提出了一种复杂环境下的车道检测算法。 它关注通过对象分割来选择候选车道区域。 然后由Sobel算子提取冗余边。 此外,通过从边缘进行阈值选择来获得候选车道标记。 最后,通过分段拟合检测车道标记。 该算法在MATLAB中进行了仿真。 实验表明,可以正确检测车道标记。 在昏暗的环境中,预处理中的分段线性变换可增强检测性能。 有限的兴趣区域有助于识别适当区域中的车道,从而提高了操作速度。 基于特征的方法通常受图像强度的影响。 为了更精确地检测,需要进一步考虑道路的几个特征。
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:336896
    • 提供者:weixin_38672962
  1. 基于移动最小二乘曲线拟合的LFM信号参数估计

  2. 针对二维搜索方法实现基于分数阶傅里叶变换(FrFT)的线性调频信号(LFM)参数估计中存在的峰值估计偏差问题,提出可利用移动最小二乘(MLS)技术来拟合FrFT模函数峰值检测向量的方法以提高参数估计性能.该算法将复杂的二维搜索问题简化至一维曲线拟合来进行处理.理论分析与仿真结果表明,该方法在保留分数阶域处理优点的同时,可明显减少运算量,并达到较高估计精度,为基于FrFT的LFM信号实时检测提供了可能.
  3. 所属分类:其它

    • 发布日期:2021-02-20
    • 文件大小:304128
    • 提供者:weixin_38610012
  1. 简单快速线性回归:(Python)我编写了这段代码,这是一种通过数据点绘制最合适的线的方法。 找到最佳拟合线的方法可能不如通常的方法好,但是我认为它使用的是一种易于学习和理解的简单算法。 教学时可以使用此python线性回归代码,因为与典型

  2. 一条Python代码,可为散点图提供最合适的一行。 与典型的散点图算法相比,这可能会提供更差的拟合度,但我相信与其他算法相比,它很容易理解。 另外,它可能更快,但我不知道。 了解更多信息后,我将更新此文件。
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:1024
    • 提供者:weixin_42107561
  1. 条纹分析中一种简单的Zernike多项式拟合方法

  2. 本文介绍了一种实现干涉条纹Zernike多项式拟合的简单算法。该算法虽然仍是基于Gram-Schmidt正交化方法,但用该算法求解Zernike系数时并不需要经过正交化过程,而是用谱Zernike多项式的协方差矩阵的线性变换来直接求解。因而它很适合于编写拟合过程的计算机程序,是一种比较理想的实现Zernike多项式拟合的算法。
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:3145728
    • 提供者:weixin_38553381
  1. 基于奇异值分解的数字波前拟合算法

  2. 提出了基于奇异值分解、采用泽尼克多项式拟合干涉波前的算法,该算法直接从线性方程组入手,对矩阵进行奇异值分解分解,在求解逆矩阵的过程中,采用阈值法对奇异值的倒数进行非常规的置换(∞→0),可直接得到系数向量。理论分析和实验证明,相对于传统的格拉姆施密特正交法,该算法可首先通过求解条件数判断线性方程矩阵是否奇异,对于解决病态方程组或奇异矩阵的最小二乘问题,有很好的稳定性,避免了由最小二乘构造的法方程组出现病态而引入的计算误差,且易于编程。
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:871424
    • 提供者:weixin_38540819
  1. 基于无约束非线性优化算法的光强自相关函数拟合

  2. 在光子相关光谱(PCS)颗粒测量技术中非线性累积反演方法是一种重要的算法。采用无约束非线性优化算法对反演过程中相关曲线的拟合问题进行了分析和研究, 实现了从任意初始值开始获取最优非线性拟合解, 并给出了算法的实现步骤。采用此方法对50 nm, 100 nm, 200 nm和500 nm的标准聚苯乙烯乳胶颗粒的实测光强自相关函数数据进行了拟合, 并反演了颗粒粒径, 与其他曲线拟合算法相比, 本算法不但对初始值的依赖性小, 而且得到的颗粒粒径更接近乳胶颗粒的标称直径, 测量误差更小。
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:616448
    • 提供者:weixin_38646645
  1. python-glmnet:glmnet软件包的python端口,用于通过惩罚最大似然来拟合广义线性模型-源码

  2. python-glmnet:glmnet软件包的python端口,用于通过惩罚最大似然来拟合广义线性模型
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:119808
    • 提供者:weixin_42119358
  1. 遗传线性回归:通过遗传算法进行线性回归拟合的近似-源码

  2. 遗传线性回归:通过遗传算法进行线性回归拟合的近似
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:2097152
    • 提供者:weixin_42117037
  1. 过拟合、梯度消失、RNN进阶

  2. 一、过拟合和欠拟合 训练误差:指模型在训练数据集上表现出的误差。 泛化误差:指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。(ML应关注此项) 如何计算训练误差或者泛化误差,可以用损失函数。【损失函数:均方误差(线性回归)、交叉熵损失函数(softmax回归)】 验证集的作用:进行模型选择。 K折交叉验证:由于验证数据集不参与模型训练,当训练数据不够用时,预留大量的验证数据显得太奢侈。一种改善的方法是K折交叉验证(K-fold cross-validatio
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:241664
    • 提供者:weixin_38744435
  1. 《动手学深度学习》task3——过拟合、欠拟合及解决方案,梯度消失、梯度爆炸,循环神经网络进阶笔记

  2. 系统学习《动手学深度学习》点击这里: 《动手学深度学习》task1_1 线性回归 《动手学深度学习》task1_2 Softmax与分类模型 《动手学深度学习》task1_3 多层感知机 《动手学深度学习》task2_1 文本预处理 《动手学深度学习》task2_2 语言模型 《动手学深度学习》task2_3 循环神经网络基础 《动手学深度学习》task3_1 过拟合、欠拟合及其解决方案 《动手学深度学习》task3_2 梯度消失、梯度爆炸 《动手学深度学习》task3_3 循环神经网络进阶 《
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:194560
    • 提供者:weixin_38584058
  1. 过拟合与欠拟合(动手学深度学习)

  2. 权重衰减 方法 权重衰减等价于 L2 范数正则化(regularization)。正则化通过为模型损失函数添加惩罚项使学出的模型参数值较小,是应对过拟合的常用手段。 L2 范数正则化(regularization) L2 范数正则化在模型原损失函数基础上添加 L2 范数惩罚项,从而得到训练所需要最小化的函数。 L2 范数惩罚项指的是模型权重参数每个元素的平方和与一个正的常数的乘积。以线性回归中的线性回归损失函数为例 ℓ(w1,w2,b)=1n∑i=1n12(x(i)1w1+x(i)2w2+b
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:56320
    • 提供者:weixin_38556822
  1. 深度学习(三)————过拟合、欠拟合及其解决方案;梯度消失、梯度爆炸;循环神经网络进阶

  2. 目录 过拟合、欠拟合及其解决方案 训练误差和泛化误差 过拟合和欠拟合的概念 模型复杂度和误差之间的关系 解决过拟合的方案 梯度消失及梯度爆炸 循环神经网络进阶 GRU LSTM 深度神经网络 过拟合、欠拟合及其解决方案 训练误差和泛化误差        在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:408576
    • 提供者:weixin_38635092
« 1 2 3 4 5 6 7 89 10 11 12 13 ... 50 »