点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - boosting学习算法
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Boosting原理及应用
关于机器学习中boosting算法的详细介绍,适合入门级的同学
所属分类:
其它
发布日期:2009-10-16
文件大小:751kb
提供者:
azaaza1111
boost_code.rar
把弱分类器变为强分类器,集成学习算法boosting
所属分类:
其它
发布日期:2010-07-09
文件大小:748kb
提供者:
baodinglucy
boosting学习算法的课件
boosting学习算法的课件,适合入门者.
所属分类:
其它
发布日期:2010-09-07
文件大小:193kb
提供者:
liupengpeng2006
集成学习(Bagging ,Boosting ,AdaBoost) PPT
集成学习Bagging ,Boosting等介绍的PPT。集成方法是构建一种对单个分类器进行集成的学习算法,将各分类器的分类结果以一定的方式集成起来实现对新数据点进行分类,其中单个分类器是独立的且不要求分类精度很高。通过这种方式,大大提高了集成系统的性能。
所属分类:
专业指导
发布日期:2011-09-15
文件大小:1mb
提供者:
xidianliutingting
一种新的不平衡数据学习算法PCBoost
不平衡数据学习资料,利用重采样和boosting技术分析不平衡数据
所属分类:
专业指导
发布日期:2014-01-30
文件大小:514kb
提供者:
lijun05
基于实例和特征的迁移学习算法研究
Boosting for Transfer Learning作者的硕士学位论文,可以作为Boosting for Transfer Learning的补充材料学习,当中有很详细的公式推导,以及参数设计的理论支撑。是学习Transfer Learning的好资料。
所属分类:
专业指导
发布日期:2014-09-23
文件大小:3mb
提供者:
linzhineng44
BOOSTING分类器
Boosting, 也称为增强学习或提升法 , 是一种重要的集成学习技术 , 能够将预测精度仅比随 机猜度略高的弱学习器增强为预测精度高的强学习器 , 这在直接构造强学习器非常困难的 情况下 , 为学习算法的设计提供了一种有效的新思路和新方法 . 作为一种元算法框架 , Boosting 几乎可以应用于所有目前流行的机器学习算法以进一步加强原算法的预测精度 , 应用十分广泛 , 产生了极大的影响 . 而 AdaBoost 正是其中最成功的代表 , 被评为数据挖掘 十大算法之一
所属分类:
专业指导
发布日期:2015-03-20
文件大小:503kb
提供者:
yinghuochong819
机器学习面试必会算法集合
机器学习面试必会算法集合,xgboost调参,boosting,LR,梯度下降,过拟合问题,HMM算法,FFM算法,SVD算法,SVM算法,决策树算法,随机森林算法等等
所属分类:
机器学习
发布日期:2018-05-14
文件大小:11mb
提供者:
caibing12
大话Adaboost算法
AdaBoost算法是一种集成学习(ensemble learning)方法。集成学习是机器学习中的一类方法,它对多个机器学习模型进行组合形成一个精度更高的模型,参与组合的模型称为弱学习器(weak learner)。在预测时使用这些弱学习器模型联合起来进行预测;训练时需要用训练样本集依次训练出这些弱学习器。典型的集成学习算法是随机森林和boosting算法,而AdaBoost算法是boosting算法的一种实现版本。
所属分类:
机器学习
发布日期:2018-06-26
文件大小:418kb
提供者:
sigai_csdn
集成学习boosting系列算法简述
集成学习boosting系列算法简述,主要是笔者自己在学习这块相关理论时的一些总结。
所属分类:
机器学习
发布日期:2018-11-05
文件大小:14mb
提供者:
weixin_43609776
经典机器学习算法优缺点比较.docx
决策树,朴素贝叶斯,Logistic回归,KNN,Libsvm/liblinear,boosting,GDBT(MART)迭代决策树等优缺点比较
所属分类:
教育
发布日期:2020-07-28
文件大小:13kb
提供者:
zjh123zjh123
集成学习算法
集成学习算法集成学习的基本原理BaggingBoosting随机森林 集成学习的基本原理 Bagging Boosting 随机森林 随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。该分类器最早由Leo Breiman和Adele Cutler提出,并被注册成了商标。 随机森林相对于Bagging,既对样本做随机,又对变量做随机。 随机森林的优点: 1)对于很多种资料,它可以产生高准确度的分类器; 2)它可以处理大量的输入变数; 3)它可以在决定类别时,评估变数的重要性; 4)
所属分类:
其它
发布日期:2021-01-07
文件大小:348kb
提供者:
weixin_38653085
Markov-Miml:基于Markov链的多实例多标签学习算法
本文的主要目的是提出一种高效,新颖的基于马尔可夫链的多实例多标签(Markov-Miml)学习算法,以评估与多个实例的对象相关的一组标签的重要性。 该算法计算标签的等级以指示一组标签对对象的重要性。 我们的方法是利用实例和对象标签之间的关系。 对象的类标签的等级取决于(i)该对象的实例袋与其他对象的实例袋之间的亲和度度量,以及(ii)相似对象的类标签的等级。 一个对象,其中包含一袋实例,这些实例与具有特定等级标签的高等级的其他对象的实例袋高度相似,该对象将获得该等级标签的高等级。 对基准数据的实
所属分类:
其它
发布日期:2021-03-03
文件大小:892kb
提供者:
weixin_38695159
机器学习算法Boosting
本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y=F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少
所属分类:
其它
发布日期:2021-02-24
文件大小:810kb
提供者:
weixin_38653040
R数据分析之AdaBoost算法
Boosting算法是简单有效、易使用的建模方法。AdaBoost(自适应提升算法)通常被称作世界上现成的最好分类器。Boosting算法使用其他的弱学习算法建立多个模型,对数据集中对结果影响较大的对象增加权重,一系列的模型被创建,然后调整那些影响分类的模型的对象权重值,实际上,模型的权重值从一个模型到另一个模型震荡。最后的模型由一系列的模型组合而成,每个模型的输出都根据相应的成绩被赋予权重值。我们注意到,如果数据失效或者弱分类器过于复杂都会导致boosting失败。Boosting有些类似于随
所属分类:
其它
发布日期:2021-02-24
文件大小:367kb
提供者:
weixin_38705014
机器学习算法——集成方法(Ensemble)之Stacking
本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是:①弱分类器模型的形式②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集成(homogenousensembles)方法;而今天我将主要对一种目前在kaggl
所属分类:
其它
发布日期:2021-02-24
文件大小:463kb
提供者:
weixin_38553478
basicMLpy:实现简单有效的机器学习算法和技术的软件包-源码
基本MLpy basicMLpy是一个实现简单机器学习算法的软件包。 它目前包含七个模块,这些模块实施了多种机器学习技术以进行监督学习。 basicMLpy.regression模块包含以下功能: 线性回归 岭回归 basicMLpy.classification模块包含以下功能: 通过IRLS(迭代加权最小二乘)算法进行多类分类 basicMLpy.nearest_neighbors模块包含以下功能: K最近邻算法的实现,可以同时满足分类和回归问题 basicMLpy.model_se
所属分类:
其它
发布日期:2021-02-19
文件大小:15kb
提供者:
weixin_42100032
机器学习算法Boosting
本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y =F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。 定性输出称为分类,或者说是离散变量预测。
所属分类:
其它
发布日期:2021-01-27
文件大小:808kb
提供者:
weixin_38614268
R数据分析之AdaBoost算法
Boosting算法是简单有效、易使用的建模方法。AdaBoost(自适应提升算法)通常被称作世界上现成的最好分类器。Boosting算法使用其他的弱学习算法建立多个模型,对数据集中对结果影响较大的对象增加权重,一系列的模型被创建,然后调整那些影响分类的模型的对象权重值,实际上,模型的权重值从一个模型到另一个模型震荡。最后的模型由一系列的模型组合而成,每个模型的输出都根据相应的成绩被赋予权重值。我们注意到,如果数据失效或者弱分类器过于复杂都会导致boosting失败。Boosting有些类似于随
所属分类:
其它
发布日期:2021-01-27
文件大小:365kb
提供者:
weixin_38628310
机器学习算法——集成方法(Ensemble)之Stacking
本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。 集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是: ①弱分类器模型的形式 ②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集
所属分类:
其它
发布日期:2021-01-27
文件大小:462kb
提供者:
weixin_38638596
«
1
2
3
4
»