您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. MATLAB常用算法

  2. 各种数学算法的MATLAB实现 第4章: 插值 函数名 功能 Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知数据点的分段三次埃尔米特插值多项式及其插
  3. 所属分类:其它

    • 发布日期:2010-04-05
    • 文件大小:129kb
    • 提供者:soarlow
  1. MATLAB语言常用算法程序集

  2. Language 求已知数据点的拉格朗日插值多项式 Atken 求已知数据点的艾特肯插值多项式 Newton 求已知数据点的均差形式的牛顿插值多项式 Newtonforward 求已知数据点的前向牛顿差分插值多项式 Newtonback 求已知数据点的后向牛顿差分插值多项式 Gauss 求已知数据点的高斯插值多项式 Hermite 求已知数据点的埃尔米特插值多项式 SubHermite 求已知数据点的分段三次埃尔米特插值多项式及其插值点处的值 SecSample 求已知数据点的二次样条插值多项
  3. 所属分类:其它

    • 发布日期:2010-06-01
    • 文件大小:137kb
    • 提供者:weinifoyo
  1. 线性回归与梯度下降法

  2. 机器学习中的线性规划与梯度下降算法的学习笔记
  3. 所属分类:专业指导

    • 发布日期:2013-10-11
    • 文件大小:78kb
    • 提供者:lujiang200829
  1. 单变量线性回归梯度下降ipynb代码

  2. 单变量线性回归梯度下降ipynb代码,根据Andrew课程的资料和数据码的算法代码
  3. 所属分类:Python

    • 发布日期:2018-03-11
    • 文件大小:37kb
    • 提供者:clevor18
  1. 单变量线性回归梯度下降原始数据集

  2. Andrew线性回归算法的原始数据集 ,有相应的ipynb训练代码
  3. 所属分类:机器学习

    • 发布日期:2018-03-11
    • 文件大小:1kb
    • 提供者:clevor18
  1. 机器学习算法详解

  2. 机器学习算法详解▪ 一、线性回归 ◦ 1、代价函数 ◦ 2、梯度下降算法 ◦ 3、均值归一化 ◦ 4、最终运行结果 ◦ 5、使用scikit-learn库中的线性模型实现 ▪ 二、逻辑回归 ◦ 1、代价函数 ◦ 2、梯度 ◦ 3、正则化 ◦ 4、S型函数(即) ◦ 5、映射为多项式 ◦ 6、使用的优化方法 ◦ 7、运行结果 ◦ 8、使用scikit-learn库中的逻辑回归模型实现 ▪ 逻辑回归_手写数字识别_OneVsAll ◦ 1、随机显示100个数字 ◦ 2、OneVsAll ◦ 3、手
  3. 所属分类:Python

    • 发布日期:2018-04-12
    • 文件大小:3mb
    • 提供者:yuyuyuxiaolei
  1. 梯度下降实现多元线性回归

  2. 梯度下降算法处理曲线拟合问题,线性 ,单极点,多极点数据均有良好的表现
  3. 所属分类:机器学习

    • 发布日期:2018-10-31
    • 文件大小:1kb
    • 提供者:qq_33354061
  1. 线性回归.zip

  2. 机器学习课程中的线性回归实验代码,运行环境为mathlab,包含两个实例:一个是身高与年龄的二元线性回归实例,运用梯度下降算法求theta,并预测年龄为3.5和7岁的两个男孩的身高;另一个是多元线性回归实例,是关于房价的,运用了数据缩放,并探索梯度下降算法中学习率对算法迭代的影响,以及最后预测1650平方英尺和3个卧室的房子的价格。代码运行时需修改数据加载路径。
  3. 所属分类:机器学习

    • 发布日期:2019-07-04
    • 文件大小:3kb
    • 提供者:qq_37665301
  1. 梯度下降算法线性回归数据

  2. 梯度下降算法线性回归数据
  3. 所属分类:机器学习

    • 发布日期:2020-04-02
    • 文件大小:4kb
    • 提供者:qq_39031359
  1. 机器学习算法基础学习总结

  2. 机器学习算法基础学习总结2.基本算法 2.1 Logistic回归 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高 适用数据类型:数值型和标称型数据。 类别:分类算法。 试用场景:解决二分类问题。 简述: Logistic回归算法基于 Sigmoid函数,或者说 Sigmoid就是逻辑回归函数。 Sigmoid函数定义如下:1/(1-exp(-z))。函数值域范围(0,1)。可以用来做分 类器。 Sigmoid函数的函数曲线如下: 逻辑凹归模型分解如下:(1)首先将不同
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:305kb
    • 提供者:abacaba
  1. python 还原梯度下降算法实现一维线性回归

  2. 首先我们看公式: 这个是要拟合的函数 然后我们求出它的损失函数, 注意:这里的n和m均为数据集的长度,写的时候忘了 注意,前面的theta0-theta1x是实际值,后面的y是期望值 接着我们求出损失函数的偏导数: 最终,梯度下降的算法: 学习率一般小于1,当损失函数是0时,我们输出theta0和theta1. 接下来上代码! class LinearRegression(): def __init__(self, data, theta0, theta1, lea
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:216kb
    • 提供者:weixin_38567873
  1. python实现梯度下降算法

  2. 梯度下降(Gradient Descent)算法是机器学习中使用非常广泛的优化算法。当前流行的机器学习库或者深度学习库都会包括梯度下降算法的不同变种实现。 本文主要以线性回归算法损失函数求极小值来说明如何使用梯度下降算法并给出python实现。若有不正确的地方,希望读者能指出。  梯度下降 梯度下降原理:将函数比作一座山,我们站在某个山坡上,往四周看,从哪个方向向下走一小步,能够下降的最快。 在线性回归算法中,损失函数为 在求极小值时,在数据量很小的时候,可以使用矩阵求逆的方式求最优的θ值。
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:253kb
    • 提供者:weixin_38648037
  1. 算法应用,单变量线性回归&梯度下降:已知如下数据集,绘制出数据集的散点图并给出能够和所有散点拟合出最好的一条直线

  2. import numpy as np import matplotlib.pyplot as plt # 算法应用,单变量线性回归&梯度下降:已知如下数据集,绘制出数据集的散点图并给出能够和所有散点拟合出最好的一条直线 # 预测函数 def getHypo(X, theta): return np.dot(X, theta) # 代价函数 def getCost(h, y): m = len(h) return (1.0 / 2*m) * np.sum(np.square
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:50kb
    • 提供者:weixin_38645862
  1. 多元线性回归及其算法实现(梯度下降法)

  2. 上一篇文章讲述了梯度下降法的数学思想,趁热打铁,这篇博客笔者将使用梯度下降法完成多元线性回归,话不多说,直接开始。 我们假设我们的目标函数是长这样的: import numpy as np import pandas as pd # 读入数据 data = pd.read_csv('D:/Advertising.csv') # 学习率alpha lr = 0.00001 # 参数 theta0 = 0 theta1 = 0 theta2 = 0 theta3 = 0 # 最大迭代次数 epo
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:53kb
    • 提供者:weixin_38609089
  1. 线性回归算法Matlab实现

  2. 本文来自于csdn,本文将通过以OCR(光学字符识别)的场景来介绍深度学习在计算机视觉中的应用。1.数据分布,x轴是属性城市人口,y轴是标签值盈利:2.目的:使用一个线性函数去拟合上面这些数据;该线性函数如下只有两个参数,利用梯度下降找出使损失值最小时,对应的两个参数值,即得到了线性函数。算法三要素:1)设置线性函数,即假设函数(Hypothesis);2)选定损失函数J,3)梯度下降,找到使得J值最小时,对应的theta_0,theta_1。J值最小,预测的h_theta(x)值就会越接近标签
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:1001kb
    • 提供者:weixin_38608025
  1. AI_lab-codes:人工智能实验室实践(CSE 202)的脚本,数据集和其他文件-源码

  2. 人工智能(CSE 202)实验室工作 人工智能实验室实践(CSE 202)的脚本,数据集和其他文件。 以下实验分配已添加到此存储库中。 实施 本实用程序的目的是使用HunPos(HMMs模型)和CRF ++(CRF模型)实现语音部分(POS)标记。 所有其他详细信息都可以在子文件夹中看到。 块状 所有详细信息都可以在子文件夹中看到。 隐马尔可夫模型和维特比 此处的目的是使用一些训练数据来推导标签,单词,过渡概率,发射概率和先验概率,然后使用维特比算法将它们用于预测POS标签。 线性和逻辑回归
  3. 所属分类:其它

  1. 线性回归算法Matlab实现

  2. 本文来自于csdn,本文将通过以OCR(光学字符识别)的场景来介绍深度学习在计算机视觉中的应用。1.数据分布,x轴是属性城市人口,y轴是标签值盈利:2.目的:使用一个线性函数去拟合上面这些数据; 该线性函数如下只有两个参数,利用梯度下降找出使损失值最小时,对应的两个参数值,即得到了线性函数。 算法三要素: 1)设置线性函数,即假设函
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:988kb
    • 提供者:weixin_38552239
  1. 线性回归——最小二乘法(公式推导和非调包实现)

  2. 接上一篇文章【线性回归——二维线性回归方程(证明和代码实现)】 前言: 博主前面一篇文章讲述了二维线性回归问题的求解原理和推导过程,以及使用python自己实现算法,但是那种方法只能适用于普通的二维平面问题,今天博主来讲一下线性回归问题中更为通用的方法,也是我们实际开发中会经常用到的一个数学模型,常用的解法就是最小二次乘法和梯度下降法.博主今天对最小二乘法进行推导并使用Python代码自定义实现,废话不多说,开始吧: 一、公式推导 假如现在有一堆这样的数据(x1,y1),(x2,y2),…,(x
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:48kb
    • 提供者:weixin_38716872
  1. 通过python程序,采用牛顿法和梯度下降法求解多元一次函数的线性回归方程

  2. 通过python程序,采用牛顿法和梯度下降法求解多元一次函数的线性回归方程 梯度下降法原理 梯度就是表示某一函数在该点处的方向导数沿着该方向取得较大值,即函数在当前位置的导数 Δ=df(Ɵ)÷d(Ɵ) 上式中,Ɵ是自变量,f(Ɵ)是关于Ɵ的函数,Ɵ表示梯度 简单来说Δ就是函数相对于自变量Ɵ的求导 梯度下降算法公式: Ɵ=Ɵ0-Ƞ*Δf(Ɵ0) 其中Ƞ是学习因子,由我们自己定义,Ɵ即为数据更新后下一个Ɵ0 f(Ɵ)=f(Ɵ0)+(Ɵ-Ɵ0)*Δf(Ɵ0) 通过该公示不断地进行数据迭代,就可以得到最
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:100kb
    • 提供者:weixin_38725902
  1. GradientDescent_LinReg:实施梯度下降并拟合线性回归。 探索多项式回归,交叉验证和正则化-源码

  2. GradientDescent_LinReg 该笔记本实现了Gradient descent算法以拟合线性回归模型。 作为本练习的一部分,将探索各种机器学习技术。 粗略概述如下: 数据输入 EDA 使用梯度下降的线性回归 线性回归成本函数 线性回归梯度函数 梯度下降功能 拟合线性回归参数 学习率调整 参数解释和可视化 多项式回归 模型评估:交叉验证 注意:Notebook可能无法在GitHub上打开。 请下载文件进行浏览。 谢谢! 数据集信息:该数据集来自卡内基梅隆大学维护的StatLi
  3. 所属分类:其它

« 12 3 »