您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 多元统计分析 多元线性回归,电脑技巧,判别分析

  2. 含ppt和WORD格式,包括多元线性回归,主成分分析、因子分析、判别分析、聚类分析、均向量多元统计分析多元分析常用统计量与均向量统计推断等等。。。。还包括某高手毕生精力总结的电脑技巧,难得总结。。。 详细:例: 3. 离均差平方和与离均差积和矩阵(离差阵) 将各变量的离均差平方和与离均差积和用矩阵排列,该矩阵称为离差阵(SSCP)。用SS或L表示。 与V的关系为: 或 4. 相关系数矩阵(相关阵) 与 的相关系数为: 变量本身的相关系数为1,因此: 将各变量间的相关系数用矩阵形 式排列,称相关
  3. 所属分类:专业指导

    • 发布日期:2009-07-12
    • 文件大小:830kb
    • 提供者:wawa314
  1. 基于Matlab的boxcox变换算法实现

  2. 在建立线性回归模型时,如果样本变量是非正态分布的,需要采用适当的变换方法进行处理,使之服从或接近于正态分布。
  3. 所属分类:其它

    • 发布日期:2009-09-02
    • 文件大小:1kb
    • 提供者:shuoguoguo
  1. 改变信号SNR的M文件(三种算法)

  2. 三种方法去噪:线性回归法、指数平滑法、立方平滑法。。。。。。。。。。。。。
  3. 所属分类:其它

    • 发布日期:2009-11-16
    • 文件大小:866byte
    • 提供者:mingming8842
  1. C语言多元线性回归函数库

  2. void LET(double **CoefficientMatrix, double *ConstantMatrix, int m, /*系数矩阵为m行n列*/ int n, /*常数矩阵为1行n列*/ double *Result) 参数说明:第一个参数所指向的二维空间存放了系数矩阵,m行n列,每一列为一组观测值。比如第一列是第一组观测值,x1、x2、x3、x4……xm。每一行是相同量的不同组观测值,如第一行,x1、x11、……x1n 第二个参数是n组观测值的常数值 第三个参数为系数矩阵的
  3. 所属分类:C

    • 发布日期:2010-10-27
    • 文件大小:9kb
    • 提供者:zp373860147
  1. 一维线性回归

  2. 一维线性回归。 有关M A T L A B 的一元线性回归问题,自己写的简单m文件
  3. 所属分类:专业指导

    • 发布日期:2014-03-12
    • 文件大小:253byte
    • 提供者:u014068864
  1. 基于HMM的人脸识别算法研究

  2. 论文针对人脸头部深度旋转问题,探讨了基于混合特征空间和H]V[M的姿态 人脸识别方法。通过线性回归方法学习非正面人脸和正面人脸之间存在的映射关 系,可以将姿态人脸校正为虚拟的正面人脸。为了快速地进行姿态校正,将线性 回归方法引入混合特征空间。
  3. 所属分类:C++

    • 发布日期:2014-09-16
    • 文件大小:11mb
    • 提供者:u014620174
  1. TensorFlow+Machine+Learning+Cookbook

  2. ensorFlow是一个面向机器智能的开源软件库。这本书中的独立配方将教你如何使用TensorFlow进行复杂的数据计算,并让您比以往任何时候都更深入地挖掘和了解您的数据。您将研究培训模型、模型评估、情感分析、回归分析、聚类分析、人工神经网络和深度学习--每个方法都使用Google的机器学习库TensorFlow。 本指南从TensorFlow库的基础开始,该库包括变量、矩阵和各种数据源。向前迈进,您将获得张力流线性回归技术的亲身体验。下一章将介绍重要的高级概念,如神经网络、cnn、rnn和n
  3. 所属分类:机器学习

    • 发布日期:2018-10-16
    • 文件大小:3mb
    • 提供者:alanzhangg
  1. xianxingguihua1.m

  2. 关于线性规划的matlab程序,程序比较基础,包括目标方程系数向量 ,约束条件矩阵,约束条件向量,未知量的下限,线性回归求解,输出结果
  3. 所属分类:其它

  1. 线性回归.m

  2. 关于一元线性自回归和二元线性自回归的matlab代码,数据程序已给出,直接点运行既可以,还包括了偏自相关,结果会得到三张图,精确可靠
  3. 所属分类:其它

  1. shouru.m居民可支配收入线性分析

  2. 在国家统计局网站根据近些年来居民可支配收入数据收集,用matlab软件regress命令进行线性回归分析,并做出预测,
  3. 所属分类:其它

    • 发布日期:2020-04-02
    • 文件大小:275byte
    • 提供者:weixin_46743995
  1. Local linear M-estimator for random design model with dependent errors

  2. 相依误差随机设计模型的局部线性M-估计,林正炎,李德柜,本文考虑了误差项是相依的随机设计模型的稳健型的局部线性回归估计(带变量的窗宽). 在一定的条件下,我们得到了估计的逐点弱相�
  3. 所属分类:其它

    • 发布日期:2020-02-18
    • 文件大小:364kb
    • 提供者:weixin_38675970
  1. SBL_EM_fun.m

  2. SBL function, 根据2001 年Tipping的文章可以用于线性回归,也可以用于压缩恢复
  3. 所属分类:机器学习

    • 发布日期:2019-10-14
    • 文件大小:762byte
    • 提供者:qq_30074301
  1. python 还原梯度下降算法实现一维线性回归

  2. 首先我们看公式: 这个是要拟合的函数 然后我们求出它的损失函数, 注意:这里的n和m均为数据集的长度,写的时候忘了 注意,前面的theta0-theta1x是实际值,后面的y是期望值 接着我们求出损失函数的偏导数: 最终,梯度下降的算法: 学习率一般小于1,当损失函数是0时,我们输出theta0和theta1. 接下来上代码! class LinearRegression(): def __init__(self, data, theta0, theta1, lea
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:216kb
    • 提供者:weixin_38567873
  1. python实现简单的单变量线性回归方法

  2. 线性回归是机器学习中的基础算法之一,属于监督学习中的回归问题,算法的关键在于如何最小化代价函数,通常使用梯度下降或者正规方程(最小二乘法),在这里对算法原理不过多赘述,建议看吴恩达发布在斯坦福大学上的课程进行入门学习。 这里主要使用python的sklearn实现一个简单的单变量线性回归。 sklearn对机器学习方法封装的十分好,基本使用fit,predict,score,来训练,预测,评价模型, 一个简单的事例如下: from pandas import DataFrame from pa
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:53kb
    • 提供者:weixin_38564003
  1. python实现机器学习之元线性回归

  2. 一、理论知识准备 1.确定假设函数 如:y=2x+7 其中,(x,y)是一组数据,设共有m个 2.误差cost 用平方误差代价函数 3.减小误差(用梯度下降) 二、程序实现步骤 1.初始化数据 x、y:样本 learning rate:学习率 循环次数loopNum:梯度下降次数 2.梯度下降 循环(循环loopNum次): (1)算偏导(需要一个for循环遍历所有数据) (2)利用梯度下降数学式子 三、程序代码 import numpy as np
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:95kb
    • 提供者:weixin_38606897
  1. 算法应用,单变量线性回归&梯度下降:已知如下数据集,绘制出数据集的散点图并给出能够和所有散点拟合出最好的一条直线

  2. import numpy as np import matplotlib.pyplot as plt # 算法应用,单变量线性回归&梯度下降:已知如下数据集,绘制出数据集的散点图并给出能够和所有散点拟合出最好的一条直线 # 预测函数 def getHypo(X, theta): return np.dot(X, theta) # 代价函数 def getCost(h, y): m = len(h) return (1.0 / 2*m) * np.sum(np.square
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:50kb
    • 提供者:weixin_38645862
  1. 利用Batch梯度下降法求解线性回归方程

  2. import numpy as np import matplotlib.pyplot as plt def loadDataSet(fileName,delim = '\t'): fr = open(fileName) stringArr = [line.strip().split(delim) for line in fr.readlines()] datArr = [list(map(float, line)) for line in stringArr]
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:193kb
    • 提供者:weixin_38584148
  1. 在P上执行的M的自定义的L到L的S特殊的道路的客户的权益

  2. 本文提出一种新的自回归全潜结构投影算法(AR一T PL S),该方法将输入输出数据投影到四个子空间中,分别是质量变量预测值生成的主元子空间和残差子空间,过程变量残差生成的主元子空间和残差子空间,并同时建立相应的统计量分别对质量变量和过程变量中与质量变量无关的部分进行故障检测。和z HOU等人提出的对PLs改进的全潜结构投影算法(T IPLS)中非线性分解偏最小二乘算法(N IPA LS)复杂的转化过程,并克服了Y IN等人提出的改进的PL s方法中过程残差仍包含不适合使用Q统计量来监控的穿透方差
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:283kb
    • 提供者:weixin_38748718
  1. shapley:具有基尼系数的Shaple值回归-源码

  2. 使用具有基尼系数的Shapley值回归 这是用于使用基尼系数运行Shapley值回归的代码。 训练模型后,我们想了解每个预测变量如何对模型预测做出贡献。 解决此问题的一种方法是使用Shapley值回归(SVR)。 传统的SVR方法适用于线性回归模型,并使用Shapley值分解R平方。 该代码使用基尼系数代替R平方,因此它不仅可以应用于线性回归模型,而且可以应用于决策树,神经网络等各种不同模型。 当前支持的型号 当前,此代码仅支持线性回归模型和对数线性回归模型。 对数线性回归模型是使用对数函数转换
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:853kb
    • 提供者:weixin_42166626
  1. 机器学习–回归

  2. 有监督学习 回归 分类 无监督学习 聚类 m:训练样本的数量 x:输入变量,特征 y:输出变量,目标变量 (x,y):一个训练样本 (x(i),y(i)):第i个训练样本 hypothesis: hθ(x)=θ!+θ2x θi:模型参数 代价函数 回归模型 线性回归 梯度下降算法 最小化J a:=b 将a的值置为b α:学习速率 线性回归算法:梯度下降法+平方误差函数 batch梯度下降算法 线代: 向量: n*1矩阵 多元线性回归 梯度下降算法使用技巧 1.特征缩
  3. 所属分类:其它

« 12 3 »