您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Boosting原理及应用

  2. 关于机器学习中boosting算法的详细介绍,适合入门级的同学
  3. 所属分类:其它

    • 发布日期:2009-10-16
    • 文件大小:751kb
    • 提供者:azaaza1111
  1. tradaboost算法

  2. 迁移学习目前是机器学习中的热门领域,有代表的“Boosting for Transfer Learning”,tradaboost算法是该文章的精髓
  3. 所属分类:C/C++

  1. 集成学习boosting算法综述

  2. 详细解释了boosing算法及其原理 kzxsfing是近年来机器学习领域中一种流行的、用来提高学习精度的算法.本文首先以AdaBoost为铡对 I陪y.ysting算法进行简单的介绍,并对Boosting的各种不同理论分析进行概括,然后介绍了Boosting在回归问题中的 理沦研究,最后对Boosting的应用以及未来的研究方向进行了讨论.
  3. 所属分类:电信

    • 发布日期:2011-11-16
    • 文件大小:423kb
    • 提供者:z85343619
  1. 机器学习数学基础

  2. 大纲 • 涵盖由浅入深的一系列机器学习技术 • 将会学到: o PCA, MDS, K-mean, 基于频谱的聚类方法,贝叶斯分类,boosting, logistic回归,决策树,EM算法,隐马尔可夫模型,卡尔曼滤波…… • 讲述算法、理论、应用背后的故事 • 将会既有趣又辛苦 大纲 • 涵盖由浅入深的一系列机器学习技术 • 将会学到: o PCA, MDS, K-mean, 基于频谱的聚类方法,贝叶斯分类,boosting, logistic回归,决策树,EM算法,隐马尔可夫模型,卡尔曼滤
  3. 所属分类:专业指导

    • 发布日期:2013-06-13
    • 文件大小:3mb
    • 提供者:u011055553
  1. The Boosting Approach to Machine Learning An Overview

  2. 机器学习:Ada boost算法简介,推倒,应用
  3. 所属分类:互联网

    • 发布日期:2013-10-27
    • 文件大小:188kb
    • 提供者:u012259202
  1. A Short Introduction to Boosting

  2. 机器学习:Ada boost算法简介,推倒,应用
  3. 所属分类:互联网

    • 发布日期:2013-10-27
    • 文件大小:113kb
    • 提供者:u012259202
  1. 一种新的不平衡数据学习算法PCBoost

  2. 不平衡数据学习资料,利用重采样和boosting技术分析不平衡数据
  3. 所属分类:专业指导

    • 发布日期:2014-01-30
    • 文件大小:514kb
    • 提供者:lijun05
  1. c++,线性代数,图像处理,机器学习,函数库

  2. 高质量,高度优化,可读性强,自己实现的,非常全面的c++函数库,适用于线性代数,图像处理,里面实现了向量,矩阵运算。图像卷积。线性回归,kmeans算法,svd分解,omp算法,还有boosting分类器等等。
  3. 所属分类:C++

    • 发布日期:2014-11-24
    • 文件大小:70kb
    • 提供者:solarforward
  1. BOOSTING分类器

  2. Boosting, 也称为增强学习或提升法 , 是一种重要的集成学习技术 , 能够将预测精度仅比随 机猜度略高的弱学习器增强为预测精度高的强学习器 , 这在直接构造强学习器非常困难的 情况下 , 为学习算法的设计提供了一种有效的新思路和新方法 . 作为一种元算法框架 , Boosting 几乎可以应用于所有目前流行的机器学习算法以进一步加强原算法的预测精度 , 应用十分广泛 , 产生了极大的影响 . 而 AdaBoost 正是其中最成功的代表 , 被评为数据挖掘 十大算法之一
  3. 所属分类:专业指导

    • 发布日期:2015-03-20
    • 文件大小:503kb
    • 提供者:yinghuochong819
  1. 中国科学院大数据机器学习课程作业

  2. 共4次作业,包括随机采样,boosting,chow_liu算法。包括文档和matlab程序
  3. 所属分类:机器学习

    • 发布日期:2017-12-27
    • 文件大小:519kb
    • 提供者:liuheng0111
  1. BAT机器学习面试1000题系列

  2. BAT机器学习面试1000题系列 1 前言 1 BAT机器学习面试1000题系列 2 1 归一化为什么能提高梯度下降法求解最优解的速度? 22 2 归一化有可能提高精度 22 3 归一化的类型 23 1)线性归一化 23 2)标准差标准化 23 3)非线性归一化 23 35. 什么是熵。机器学习 ML基础 易 27 熵的引入 27 3.1 无偏原则 29 56. 什么是卷积。深度学习 DL基础 易 38 池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n) 40 随机梯度下降 4
  3. 所属分类:机器学习

    • 发布日期:2018-03-07
    • 文件大小:10mb
    • 提供者:qq_38873863
  1. 机器学习面试必会算法集合

  2. 机器学习面试必会算法集合,xgboost调参,boosting,LR,梯度下降,过拟合问题,HMM算法,FFM算法,SVD算法,SVM算法,决策树算法,随机森林算法等等
  3. 所属分类:机器学习

    • 发布日期:2018-05-14
    • 文件大小:11mb
    • 提供者:caibing12
  1. 大话Adaboost算法

  2. AdaBoost算法是一种集成学习(ensemble learning)方法。集成学习是机器学习中的一类方法,它对多个机器学习模型进行组合形成一个精度更高的模型,参与组合的模型称为弱学习器(weak learner)。在预测时使用这些弱学习器模型联合起来进行预测;训练时需要用训练样本集依次训练出这些弱学习器。典型的集成学习算法是随机森林和boosting算法,而AdaBoost算法是boosting算法的一种实现版本。
  3. 所属分类:机器学习

    • 发布日期:2018-06-26
    • 文件大小:418kb
    • 提供者:sigai_csdn
  1. 山世光-课件Boosting

  2. 山世光-课件Boosting, 独立于算法的机器学习
  3. 所属分类:讲义

    • 发布日期:2018-01-26
    • 文件大小:1mb
    • 提供者:ll1042668699
  1. 经典机器学习算法优缺点比较.docx

  2. 决策树,朴素贝叶斯,Logistic回归,KNN,Libsvm/liblinear,boosting,GDBT(MART)迭代决策树等优缺点比较
  3. 所属分类:教育

    • 发布日期:2020-07-28
    • 文件大小:13kb
    • 提供者:zjh123zjh123
  1. 机器学习算法Boosting

  2. 本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y=F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。定性输出称为分类,或者说是离散变量预测。举个例子:预测明天的气温是多少
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:810kb
    • 提供者:weixin_38653040
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是:①弱分类器模型的形式②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集成(homogenousensembles)方法;而今天我将主要对一种目前在kaggl
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:463kb
    • 提供者:weixin_38553478
  1. basicMLpy:实现简单有效的机器学习算法和技术的软件包-源码

  2. 基本MLpy basicMLpy是一个实现简单机器学习算法的软件包。 它目前包含七个模块,这些模块实施了多种机器学习技术以进行监督学习。 basicMLpy.regression模块包含以下功能: 线性回归 岭回归 basicMLpy.classification模块包含以下功能: 通过IRLS(迭代加权最小二乘)算法进行多类分类 basicMLpy.nearest_neighbors模块包含以下功能: K最近邻算法的实现,可以同时满足分类和回归问题 basicMLpy.model_se
  3. 所属分类:其它

    • 发布日期:2021-02-19
    • 文件大小:15kb
    • 提供者:weixin_42100032
  1. 机器学习算法Boosting

  2. 本文来自于标点符网站,本文将详细介绍机器学习中的两大类:监督学习和非监督学习,以及最主要的三种集成学习框架,希望对您的学习有所帮助。机器学习通常会被分为2大类:监督学习和非监督学习。在监督学习中,训练数据由输入和期望的输出组成,然后对非训练数据进行预测输出,也就是找出输入x与输出y之间的函数关系F:y =F(x)。根据输出的精确特性又可以分为分类和回归。分类和回归的区别在于输出变量的类型。定量输出称为回归,或者说是连续变量预测。 定性输出称为分类,或者说是离散变量预测。
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:808kb
    • 提供者:weixin_38614268
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。 集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是: ①弱分类器模型的形式 ②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:462kb
    • 提供者:weixin_38638596
« 12 »