点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - 逻辑回归法
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
基于逻辑回归法的滑坡危险度区划研究
基于逻辑回归法的滑坡危险度区划研究,一个学习逻辑回归的算法
所属分类:
电子政务
发布日期:2013-04-12
文件大小:489kb
提供者:
zzx_dl2012
R语言 所有分类数据回归
#glmnet包含有线性回归,逻辑回归,泊松计数模型,cox回归模型,多分类逻辑回归多响应线性回归 #阿法系数=0是岭回归,阿法系数=1,是lasso回归 ############################################################ data(QuickStartExample) #20 Independent variables and 1 dependent variable fit<-glmnet(x,y) #查看计算路径 print(f
所属分类:
讲义
发布日期:2017-08-30
文件大小:1kb
提供者:
qq_36813206
BAT机器学习面试1000题系列
BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 4
所属分类:
机器学习
发布日期:2018-03-07
文件大小:10mb
提供者:
qq_38873863
斯坦福Ng机器学习课程笔记(中文版)
【第1讲】 机器学习的动机与应用 【第2讲】 监督学习应用-线性回归 【第3讲】 线性回归的概率解释、局部加权回归、逻辑回归 【第4讲】 牛顿法、一般线性模型 【第5讲】 生成学习算法、高斯判别分析、朴素贝叶斯算法 【第6讲】 事件模型、函数间隔与几何间隔 【第7讲】 最优间隔分类器、拉格朗日对偶、支持向量机 【第8讲】 核方法、序列最小优化算法 【第9讲】 经验风险最小化 【第10讲】 交叉验证、特征选择 【第11讲】 贝叶斯统计、机器学习应用建议 【第12讲】 $k$-means算法、高斯
所属分类:
讲义
发布日期:2018-04-14
文件大小:6mb
提供者:
difstone
线性回归预测
• 逻辑回归是线性回归的一种,线性回归是回归的一种 • 线性回归可以用在预测或分类,多维度(feature)线性问题求解上 • 可以用最小二乘法,梯度下降法求解线性预测函数的系数 • 梯度下降法的核心步骤是:设置系数范围,设定系数梯度,固定其他系数,对某一个系数穷举求方差最小最优解
所属分类:
Java
发布日期:2018-04-26
文件大小:181kb
提供者:
hyy80688
应用预测建模 Applied Predictive Modeling
译者序 前言 第1章 导论 1.1 预测与解释 1.2 预测模型的关键部分 1.3 专业术语 1.4 实例数据集和典型数据场景 1.5 概述 1.6 符号 第一部分 一般策略 第2章 预测建模过程简介 2.1 案例分析:预测燃油效能 2.2 主题 2.3 总结 第3章 数据预处理 3.1 案例分析:高内涵筛选中的细胞分组 3.2 单个预测变量数据变换 3.3 多个预测变量数据变换 3.4 处理缺失值 3.5 移除预测变量 3.6 增加预测变量 3.7 区间化预测变量 3.8 计算 习题 第4章
所属分类:
机器学习
发布日期:2018-06-14
文件大小:74mb
提供者:
u011051172
机器学习:牛顿方法实现逻辑回归
实验步骤与内容: 1. 下载数据包ex3Data.zip并解压。 2. 对于这个练习,假设一所高中有一个数据集,代表40名被录取的学生和40名未被录取的学生。 每个(x (i),y(i)) 数据包括两个标准化考试中学生的分数和学生是否被录取的标签。任务是建立一个二元分类模型,根据学生在两次考试中的成绩来估计大学录取机会。 3. polt data:使用不同的符号来表示录取结果,画出图像。 4. 假设模型的函数为sigmoid function: 进行求最优解的代价函数cost function
所属分类:
机器学习
发布日期:2018-10-08
文件大小:870byte
提供者:
wozenmezhemeshuai
机器学习算法笔记
本文总结博客中关于机器学习十大算法的详细过程,进行汇总,包括广义线性模型、softmax 回归 、逻辑回归、梯度下降法、Logistic 回归与牛顿迭代法、两种梯度下降法、相对熵(KL 散度)、K-Means 聚类算法 、朴素贝叶斯分类、决策树之 ID3 算法 、决策树之 C4.5 算法、 决策树之 CART 算法、随机森林、K-D 树、KNN 算法、BFGS 算法、L-BFGS 算法、文本特征属性选择。 十九、矩阵求导解最小二乘问题 二十、局部加权回归 二十一、最小二乘的概率解释
所属分类:
机器学习
发布日期:2018-11-21
文件大小:1mb
提供者:
u013940210
Logistic算法(随机梯度下降法)的Python代码和数据样本
资源中包含随机梯度下降逻辑回归算法的Python代码和测试数据,python的版本为3.6,您运行代码前,将测试文件路径修改为您本地的存储路径,使用pycharm平台运行即可。
所属分类:
机器学习
发布日期:2019-03-12
文件大小:5kb
提供者:
leaf_zizi
数据预处理-特征选择
关于数据预处理,特征选择的主要技术原理,包括特征离散化,特征交叉,单特征/多特征AUC,残差分析,方差选择法,卡方检验,互信息特征选择,逻辑回归计算特征重要度,距离相关系数,衡量数据分布的箱线图介绍等。
所属分类:
机器学习
发布日期:2019-04-27
文件大小:1mb
提供者:
h_sem
对数几率回归(逻辑回归)梯度下降优化
对数几率回归(Logistic Regression),又称为逻辑回归的python实现,并且通过梯度下降法进行优化
所属分类:
机器学习
发布日期:2020-02-16
文件大小:1kb
提供者:
qq_43116030
逻辑回归.zip
机器学习中的逻辑回归实验,有一组学生高考成绩及录取情况数据集,训练一个逻辑回归模型,使之可以对一组成绩进行分类,判断这组成绩是否能被学校录取。通过两种方法(牛顿法和梯度下降法)分别优化逻辑回归模型中的theta值,并依据所得的theta值绘制决策边界,利用所得的回归模型进行预测。
所属分类:
机器学习
发布日期:2019-07-14
文件大小:3kb
提供者:
qq_37665301
逻辑斯蒂回归于最大熵模型笔记
此文档为阅读李航老师的统计学习法逻辑斯蒂回归于最大熵模型章节的笔记
所属分类:
讲义
发布日期:2019-02-23
文件大小:1mb
提供者:
yolohohohoho
应用逻辑斯谛回归函数确定煤与瓦斯突出预测敏感指标
利用SPSS软件,根据逻辑斯谛回归模型确定突出预测时的敏感指标,对某煤矿掘进工作面的突出预测指标样本进行分析,发现SPSS逻辑斯谛回归所确定的敏感指标与"三率"法结论一致,且逻辑斯谛回归是将定量与定性参数结合回归,所得结论更具说服力,更科学合理。
所属分类:
其它
发布日期:2020-06-24
文件大小:392kb
提供者:
weixin_38588592
python 牛顿法实现逻辑回归(Logistic Regression)
本文采用的训练方法是牛顿法(Newton Method)。 代码 import numpy as np class LogisticRegression(object): """ Logistic Regression Classifier training by Newton Method """ def __init__(self, error: float = 0.7, max_epoch: int = 100): """ :param error: float, if
所属分类:
其它
发布日期:2020-12-16
文件大小:102kb
提供者:
weixin_38575421
逻辑回归(LR)公式推导及代码实现
文章目录构造hypothesis构造损失函数通过“梯度下降法”求参数 θ\thetaθ 的更新式代码实现References 逻辑回归是用来解决分类问题用的,与线性回归不同的是,逻辑回归输出的不是具体的值,而是一个概率。除去了sigmoid函数的逻辑归回和线性回归几乎是一样的。 构造hypothesis 逻辑回归的HHH可以看做是一个线性回归方程的结果经过一个sigmoid函数得到的结果(为正样本的概率),逻辑回归的假设函数如下: hθ(x)=g(θTx)=11+e−θTx h _ { \the
所属分类:
其它
发布日期:2020-12-21
文件大小:224kb
提供者:
weixin_38631329
逻辑斯蒂回归的PPT展示
本PDF从逻辑斯蒂分布、二项逻辑斯蒂回归模型、时间对数几率、极大似然估计法、模型应用等五个版块简述了逻辑斯蒂回归模型,含有Python代码。
所属分类:
讲义
发布日期:2021-03-09
文件大小:2mb
提供者:
qq_41385438
python编写Logistic逻辑回归
用一条直线对数据进行拟合的过程称为回归。逻辑回归分类的思想是:根据现有数据对分类边界线建立回归公式。 公式表示为: 一、梯度上升法 每次迭代所有的数据都参与计算。 for 循环次数: 训练 代码如下: import numpy as np import matplotlib.pyplot as plt def loadData(): labelVec = [] dataMat = [] with open('testSet.txt') as f:
所属分类:
其它
发布日期:2021-01-21
文件大小:73kb
提供者:
weixin_38692184
机器学习——从线性回归到逻辑回归【附详细推导和代码】
本文始发于个人公众号:TechFlow,原创不易,求个关注 在之前的文章当中,我们推导了线性回归的公式,线性回归本质是线性函数,模型的原理不难,核心是求解模型参数的过程。通过对线性回归的推导和学习,我们基本上了解了机器学习模型学习的过程,这是机器学习的精髓,要比单个模型的原理重要得多。 新关注和有所遗忘的同学可以点击下方的链接回顾一下之前的线性回归和梯度下降的内容。 一文讲透梯度下降法 详细推导线性回归模型 回归与分类 在机器学习当中,模型根据预测结果的不同分为两类,如果我们希望模型预测一
所属分类:
其它
发布日期:2021-01-20
文件大小:309kb
提供者:
weixin_38715097
对数几率回归(逻辑回归)
文章目录一、对数几率和对数几率回归二、Sigmoid函数三、极大似然法四、梯度下降法四、Python实现 一、对数几率和对数几率回归 在对数几率回归中,我们将样本的模型输出y∗y^*y∗定义为样本为正例的概率,将y∗1−y∗\frac{y^*}{1-y^*}1−y∗y∗定义为几率(odds),几率表示的是样本作为正例的相对可能性。将几率取对便可以得到对数几率(log odds,logit)。 logit=logy∗1−y∗logit=\log\frac{y^*}{1-y^*}logit=
所属分类:
其它
发布日期:2021-01-20
文件大小:80kb
提供者:
weixin_38613330
«
1
2
3
4
»