您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于逻辑回归法的滑坡危险度区划研究

  2. 基于逻辑回归法的滑坡危险度区划研究,一个学习逻辑回归的算法
  3. 所属分类:电子政务

    • 发布日期:2013-04-12
    • 文件大小:489kb
    • 提供者:zzx_dl2012
  1. R语言 所有分类数据回归

  2. #glmnet包含有线性回归,逻辑回归,泊松计数模型,cox回归模型,多分类逻辑回归多响应线性回归 #阿法系数=0是岭回归,阿法系数=1,是lasso回归 ############################################################ data(QuickStartExample) #20 Independent variables and 1 dependent variable fit<-glmnet(x,y) #查看计算路径 print(f
  3. 所属分类:讲义

    • 发布日期:2017-08-30
    • 文件大小:1kb
    • 提供者:qq_36813206
  1. BAT机器学习面试1000题系列

  2. BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 4
  3. 所属分类:机器学习

    • 发布日期:2018-03-07
    • 文件大小:10mb
    • 提供者:qq_38873863
  1. 斯坦福Ng机器学习课程笔记(中文版)

  2. 【第1讲】 机器学习的动机与应用 【第2讲】 监督学习应用-线性回归 【第3讲】 线性回归的概率解释、局部加权回归、逻辑回归 【第4讲】 牛顿法、一般线性模型 【第5讲】 生成学习算法、高斯判别分析、朴素贝叶斯算法 【第6讲】 事件模型、函数间隔与几何间隔 【第7讲】 最优间隔分类器、拉格朗日对偶、支持向量机 【第8讲】 核方法、序列最小优化算法 【第9讲】 经验风险最小化 【第10讲】 交叉验证、特征选择 【第11讲】 贝叶斯统计、机器学习应用建议 【第12讲】 $k$-means算法、高斯
  3. 所属分类:讲义

    • 发布日期:2018-04-14
    • 文件大小:6mb
    • 提供者:difstone
  1. 线性回归预测

  2. • 逻辑回归是线性回归的一种,线性回归是回归的一种 • 线性回归可以用在预测或分类,多维度(feature)线性问题求解上 • 可以用最小二乘法,梯度下降法求解线性预测函数的系数 • 梯度下降法的核心步骤是:设置系数范围,设定系数梯度,固定其他系数,对某一个系数穷举求方差最小最优解
  3. 所属分类:Java

    • 发布日期:2018-04-26
    • 文件大小:181kb
    • 提供者:hyy80688
  1. 应用预测建模 Applied Predictive Modeling

  2. 译者序 前言 第1章 导论 1.1 预测与解释 1.2 预测模型的关键部分 1.3 专业术语 1.4 实例数据集和典型数据场景 1.5 概述 1.6 符号 第一部分 一般策略 第2章 预测建模过程简介 2.1 案例分析:预测燃油效能 2.2 主题 2.3 总结 第3章 数据预处理 3.1 案例分析:高内涵筛选中的细胞分组 3.2 单个预测变量数据变换 3.3 多个预测变量数据变换 3.4 处理缺失值 3.5 移除预测变量 3.6 增加预测变量 3.7 区间化预测变量 3.8 计算 习题 第4章
  3. 所属分类:机器学习

    • 发布日期:2018-06-14
    • 文件大小:74mb
    • 提供者:u011051172
  1. 机器学习:牛顿方法实现逻辑回归

  2. 实验步骤与内容: 1. 下载数据包ex3Data.zip并解压。 2. 对于这个练习,假设一所高中有一个数据集,代表40名被录取的学生和40名未被录取的学生。 每个(x (i),y(i)) 数据包括两个标准化考试中学生的分数和学生是否被录取的标签。任务是建立一个二元分类模型,根据学生在两次考试中的成绩来估计大学录取机会。 3. polt data:使用不同的符号来表示录取结果,画出图像。 4. 假设模型的函数为sigmoid function: 进行求最优解的代价函数cost function
  3. 所属分类:机器学习

  1. 机器学习算法笔记

  2. 本文总结博客中关于机器学习十大算法的详细过程,进行汇总,包括广义线性模型、softmax 回归 、逻辑回归、梯度下降法、Logistic 回归与牛顿迭代法、两种梯度下降法、相对熵(KL 散度)、K-Means 聚类算法 、朴素贝叶斯分类、决策树之 ID3 算法 、决策树之 C4.5 算法、 决策树之 CART 算法、随机森林、K-D 树、KNN 算法、BFGS 算法、L-BFGS 算法、文本特征属性选择。 十九、矩阵求导解最小二乘问题 二十、局部加权回归 二十一、最小二乘的概率解释
  3. 所属分类:机器学习

    • 发布日期:2018-11-21
    • 文件大小:1mb
    • 提供者:u013940210
  1. Logistic算法(随机梯度下降法)的Python代码和数据样本

  2. 资源中包含随机梯度下降逻辑回归算法的Python代码和测试数据,python的版本为3.6,您运行代码前,将测试文件路径修改为您本地的存储路径,使用pycharm平台运行即可。
  3. 所属分类:机器学习

    • 发布日期:2019-03-12
    • 文件大小:5kb
    • 提供者:leaf_zizi
  1. 数据预处理-特征选择

  2. 关于数据预处理,特征选择的主要技术原理,包括特征离散化,特征交叉,单特征/多特征AUC,残差分析,方差选择法,卡方检验,互信息特征选择,逻辑回归计算特征重要度,距离相关系数,衡量数据分布的箱线图介绍等。
  3. 所属分类:机器学习

    • 发布日期:2019-04-27
    • 文件大小:1mb
    • 提供者:h_sem
  1. 对数几率回归(逻辑回归)梯度下降优化

  2. 对数几率回归(Logistic Regression),又称为逻辑回归的python实现,并且通过梯度下降法进行优化
  3. 所属分类:机器学习

    • 发布日期:2020-02-16
    • 文件大小:1kb
    • 提供者:qq_43116030
  1. 逻辑回归.zip

  2. 机器学习中的逻辑回归实验,有一组学生高考成绩及录取情况数据集,训练一个逻辑回归模型,使之可以对一组成绩进行分类,判断这组成绩是否能被学校录取。通过两种方法(牛顿法和梯度下降法)分别优化逻辑回归模型中的theta值,并依据所得的theta值绘制决策边界,利用所得的回归模型进行预测。
  3. 所属分类:机器学习

    • 发布日期:2019-07-14
    • 文件大小:3kb
    • 提供者:qq_37665301
  1. 逻辑斯蒂回归于最大熵模型笔记

  2. 此文档为阅读李航老师的统计学习法逻辑斯蒂回归于最大熵模型章节的笔记
  3. 所属分类:讲义

    • 发布日期:2019-02-23
    • 文件大小:1mb
    • 提供者:yolohohohoho
  1. 应用逻辑斯谛回归函数确定煤与瓦斯突出预测敏感指标

  2. 利用SPSS软件,根据逻辑斯谛回归模型确定突出预测时的敏感指标,对某煤矿掘进工作面的突出预测指标样本进行分析,发现SPSS逻辑斯谛回归所确定的敏感指标与"三率"法结论一致,且逻辑斯谛回归是将定量与定性参数结合回归,所得结论更具说服力,更科学合理。
  3. 所属分类:其它

    • 发布日期:2020-06-24
    • 文件大小:392kb
    • 提供者:weixin_38588592
  1. python 牛顿法实现逻辑回归(Logistic Regression)

  2. 本文采用的训练方法是牛顿法(Newton Method)。 代码 import numpy as np class LogisticRegression(object): """ Logistic Regression Classifier training by Newton Method """ def __init__(self, error: float = 0.7, max_epoch: int = 100): """ :param error: float, if
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:102kb
    • 提供者:weixin_38575421
  1. 逻辑回归(LR)公式推导及代码实现

  2. 文章目录构造hypothesis构造损失函数通过“梯度下降法”求参数 θ\thetaθ 的更新式代码实现References 逻辑回归是用来解决分类问题用的,与线性回归不同的是,逻辑回归输出的不是具体的值,而是一个概率。除去了sigmoid函数的逻辑归回和线性回归几乎是一样的。 构造hypothesis 逻辑回归的HHH可以看做是一个线性回归方程的结果经过一个sigmoid函数得到的结果(为正样本的概率),逻辑回归的假设函数如下: hθ(x)=g(θTx)=11+e−θTx h _ { \the
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:224kb
    • 提供者:weixin_38631329
  1. 逻辑斯蒂回归的PPT展示

  2. 本PDF从逻辑斯蒂分布、二项逻辑斯蒂回归模型、时间对数几率、极大似然估计法、模型应用等五个版块简述了逻辑斯蒂回归模型,含有Python代码。
  3. 所属分类:讲义

    • 发布日期:2021-03-09
    • 文件大小:2mb
    • 提供者:qq_41385438
  1. python编写Logistic逻辑回归

  2. 用一条直线对数据进行拟合的过程称为回归。逻辑回归分类的思想是:根据现有数据对分类边界线建立回归公式。 公式表示为: 一、梯度上升法 每次迭代所有的数据都参与计算。 for 循环次数:         训练 代码如下: import numpy as np import matplotlib.pyplot as plt def loadData(): labelVec = [] dataMat = [] with open('testSet.txt') as f:
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:73kb
    • 提供者:weixin_38692184
  1. 机器学习——从线性回归到逻辑回归【附详细推导和代码】

  2. 本文始发于个人公众号:TechFlow,原创不易,求个关注 在之前的文章当中,我们推导了线性回归的公式,线性回归本质是线性函数,模型的原理不难,核心是求解模型参数的过程。通过对线性回归的推导和学习,我们基本上了解了机器学习模型学习的过程,这是机器学习的精髓,要比单个模型的原理重要得多。 新关注和有所遗忘的同学可以点击下方的链接回顾一下之前的线性回归和梯度下降的内容。 一文讲透梯度下降法 详细推导线性回归模型 回归与分类 在机器学习当中,模型根据预测结果的不同分为两类,如果我们希望模型预测一
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:309kb
    • 提供者:weixin_38715097
  1. 对数几率回归(逻辑回归)

  2. 文章目录一、对数几率和对数几率回归二、Sigmoid函数三、极大似然法四、梯度下降法四、Python实现 一、对数几率和对数几率回归   在对数几率回归中,我们将样本的模型输出y∗y^*y∗定义为样本为正例的概率,将y∗1−y∗\frac{y^*}{1-y^*}1−y∗y∗​定义为几率(odds),几率表示的是样本作为正例的相对可能性。将几率取对便可以得到对数几率(log odds,logit)。 logit=log⁡y∗1−y∗logit=\log\frac{y^*}{1-y^*}logit=
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:80kb
    • 提供者:weixin_38613330
« 12 3 4 »