您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. MATLAB常用算法

  2. 各种数学算法的MATLAB实现 第4章: 插值 函数名 功能 Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知数据点的分段三次埃尔米特插值多项式及其插
  3. 所属分类:其它

    • 发布日期:2010-04-05
    • 文件大小:129kb
    • 提供者:soarlow
  1. MATLAB语言常用算法程序集

  2. Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知数据点的分段三次埃尔米特插值多项式及其插值点处的值 SecSample 求已知数据点的二次样条插值多项
  3. 所属分类:其它

    • 发布日期:2010-06-01
    • 文件大小:137kb
    • 提供者:weinifoyo
  1. MATLAB语言常用算法程序集

  2. Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知数据点的分段三次埃尔米特插值多项式及其插值点处的值 SecSample 求已知数据点的二次样条插值多项
  3. 所属分类:其它

    • 发布日期:2010-09-01
    • 文件大小:137kb
    • 提供者:friday055
  1. 二次线性回归

  2. 详细介绍二次回归的相关知识,进行举例说明
  3. 所属分类:其它

    • 发布日期:2011-11-29
    • 文件大小:233kb
    • 提供者:zhangyang621
  1. MATLAB语言常用算法程序集

  2. MATLAB语言常用算法程序集 书中4-17章代码,都是一些常用的程序 第4章: 插值 函数名 功能 Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知
  3. 所属分类:其它

    • 发布日期:2012-02-22
    • 文件大小:113kb
    • 提供者:huadongyang
  1. C++实现最小二乘法一元回归和多项式拟合

  2. 此类的具体使用方法见:http://blog.csdn.net/czyt1988/article/details/21743595 在进行曲线拟合时用的最多的是最小二乘法,其中以一元函数(线性)和多元函数(多项式)居多,下面这个类专门用于进行多项式拟合,可以根据用户输入的阶次进行多项式拟合,算法来自于网上,和GSL的拟合算法对比过,没有问题。此类在拟合完后还能计算拟合之后的误差:SSE(剩余平方和),SSR(回归平方和),RMSE(均方根误差),R-square(确定系数)。
  3. 所属分类:C++

    • 发布日期:2014-03-23
    • 文件大小:331kb
    • 提供者:czyt1988
  1. 多项式回归案例代码

  2. 本案例使用房价预测的数据,使用Python做了线性回归、二次回归和三次回归,并分别得出三者的模型拟合得分,来探究针对本案例的模型拟合效果。也侧面分析了欠拟合、过拟合的现象。
  3. 所属分类:机器学习

    • 发布日期:2019-02-10
    • 文件大小:3kb
    • 提供者:mico_cmm
  1. 二次回归 MA - MetaTrader 5脚本.zip

  2. 二次回归 MA 是一种线性回归值变化,但响应市场变化更快。
  3. 所属分类:其它

  1. 基于偏最小二乘回归的回转切削钻机凿岩速度预测

  2. 针对回转切削钻机凿岩速度回归建模过程中出现钻进参数间多重共线性问题,提出应用偏最小二乘回归对凿岩速度进行预测的建模思路。采用拟线性化的偏最小二乘回归方法,通过对胜利露天矿回转切削钻机的钻进参数进行分析并引入它们的一次效应、二次效应及交互效应来建立凿岩速度预测的回归模型。
  3. 所属分类:其它

    • 发布日期:2020-04-17
    • 文件大小:213kb
    • 提供者:weixin_38616809
  1. 二次回归和线性回归的拟合效果的对比.py

  2. #演示内容:二次回归和线性回归的拟合效果的对比 """ print(__doc__) import numpy as np import matplotlib.pyplot as plt from sklearn.linear_model import LinearRegression from sklearn.preprocessing import PolynomialFeatures from matplotlib.font_manager import FontPro
  3. 所属分类:机器学习

    • 发布日期:2020-03-18
    • 文件大小:2kb
    • 提供者:aotomo740
  1. 基于BP神经网络和多元线性回归的二次反应清洁汽油辛烷值预测

  2. 基于BP神经网络和多元线性回归的二次反应清洁汽油辛烷值预测,周小伟,杨伯伦,辛烷值代表汽油的抗爆性,是车用汽油重要的质量指标。本文借鉴复杂反应动力学研究中的集总方法,将汽油研究法辛烷值看成汽油链烷
  3. 所属分类:其它

    • 发布日期:2020-03-03
    • 文件大小:234kb
    • 提供者:weixin_38701952
  1. 机器学习-04. 逻辑回归详解和应用(下)

  2. 人工智能基础视频教程零基础入门课程 第四章(下) 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Ten
  3. 所属分类:机器学习

    • 发布日期:2020-07-16
    • 文件大小:601mb
    • 提供者:suolong123
  1. 机器学习-04. 逻辑回归详解和应用(上)

  2. 人工智能基础视频教程零基础入门课程 第四章(上) 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Ten
  3. 所属分类:机器学习

    • 发布日期:2020-07-16
    • 文件大小:878mb
    • 提供者:suolong123
  1. 机器学习-02. 线性回归深入和代码实现

  2. 人工智能基础视频教程零基础入门课程 第二章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及远景介绍(预科) 第二章 线性回归深入和代码实现 第三章 梯度下降和过拟合和归一化 第四章 逻辑回归详解和应用 第五章 分类器项目案例和神经网络算法 第六章 多分类、决策树分类、随机森林分类 第七章 分类评估、聚类 第八章 密度聚类、谱聚类 第九章 深度学习、TensorFlow安装和实现 第十章 Tensor
  3. 所属分类:机器学习

    • 发布日期:2020-07-15
    • 文件大小:968mb
    • 提供者:suolong123
  1. python实现机器学习之元线性回归

  2. 一、理论知识准备 1.确定假设函数 如:y=2x+7 其中,(x,y)是一组数据,设共有m个 2.误差cost 用平方误差代价函数 3.减小误差(用梯度下降) 二、程序实现步骤 1.初始化数据 x、y:样本 learning rate:学习率 循环次数loopNum:梯度下降次数 2.梯度下降 循环(循环loopNum次): (1)算偏导(需要一个for循环遍历所有数据) (2)利用梯度下降数学式子 三、程序代码 import numpy as np
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:95kb
    • 提供者:weixin_38606897
  1. DataWhale组队学习打卡(二)

  2. 前言 记《手动学深度学习》组队学习第二次打卡 打卡内容 线性回归代码实现(基于Pytorch) 理论复习 线性回归理论部分可参考上一篇博客 线性回归模型从零开始的实现 借助jupyter运行代码,方便清晰展示各环节的输出情况。 1. 导入基础模块 In [ ]: # import packages and modules %matplotlib inline import torch from IPython import display from matplotlib import pyplo
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:74kb
    • 提供者:weixin_38682406
  1. 深度学习—学习笔记(二)

  2. 模型选择、过拟合和欠拟合 1、训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。机器学习模型应关注降低泛化误差。 2、模型选择 验证数据集
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:101kb
    • 提供者:weixin_38589314
  1. 深度学习学习笔记(二)

  2. (一)过拟合欠拟合及其解决方案 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 验证数据集 从严格意义
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:644kb
    • 提供者:weixin_38743119
  1. 深度学习笔记二(task03-05)

  2. 一.过拟合及欠拟合及其解决方案 训练误差和泛化误差 训练误差是指在训练数据集上表现出的误差,泛化误差指的是模型在任意一个测试数据样本上表现出来的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以用损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。在机器学习模型应关注降低泛化误差。 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训
  3. 所属分类:其它

  1. 线性回归——最小二乘法(公式推导和非调包实现)

  2. 接上一篇文章【线性回归——二维线性回归方程(证明和代码实现)】 前言: 博主前面一篇文章讲述了二维线性回归问题的求解原理和推导过程,以及使用python自己实现算法,但是那种方法只能适用于普通的二维平面问题,今天博主来讲一下线性回归问题中更为通用的方法,也是我们实际开发中会经常用到的一个数学模型,常用的解法就是最小二次乘法和梯度下降法.博主今天对最小二乘法进行推导并使用Python代码自定义实现,废话不多说,开始吧: 一、公式推导 假如现在有一堆这样的数据(x1,y1),(x2,y2),…,(x
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:48kb
    • 提供者:weixin_38716872
« 12 3 4 5 »