您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Bagging, Boosting, and C4.5 集成分类算法比较

  2. Bagging, Boosting, and C4.5 集成分类算法比较
  3. 所属分类:C

    • 发布日期:2010-01-10
    • 文件大小:291840
    • 提供者:qqqqpppp1
  1. 机器学习工具包spider工具包

  2. matlab语言编写的机器学习的各种常用算法,包括svm,adboost,bagging,svm,决策树,贝叶斯准则等机器学习常用算法
  3. 所属分类:其它

    • 发布日期:2013-03-12
    • 文件大小:4194304
    • 提供者:orientsurge163
  1. 基于并行计算的文本分类技术

  2. 针对传统文本分类方法对于海量数据分类速度慢精度差等问题,将并行计算应用到文本分类领域,设计了一套基于MapReduce的并行化文本分类框架,结合Bagging算法思想提出了支持向量机的并行训练方法,并在Hadoop云计算平台上进行了实验,实验结果表明该分类方法具有较快的分类速度和较高的分类精度。
  3. 所属分类:算法与数据结构

    • 发布日期:2018-06-30
    • 文件大小:372736
    • 提供者:qq_28339273
  1. Iterative Bagging和MultiBoosting 算法python实现

  2. Iterative Bagging和MultiBoosting 算法实现。并且比较了bias和variance的值。
  3. 所属分类:机器学习

    • 发布日期:2019-01-25
    • 文件大小:5120
    • 提供者:weixin_43986128
  1. 数据挖掘十大算法思维导图

  2. 数据挖掘十大算法思维导图:(1)聚类:k-Means;(2)分类:C4.5、kNN、Naive Bayes、CART;(3) Bagging and Boosting:AdaBoost;(4) 统计学习:SVM、EM;(5)链接挖掘:PageRank;(6)关联分析:Apriori。
  3. 所属分类:机器学习

    • 发布日期:2019-05-27
    • 文件大小:62464
    • 提供者:loadbalancing
  1. 高级算法_one.docx

  2. 高级算法_task1,内容有:随机森林算法梳理 集成学习的概念 个体学习器的概念 boosting bagging的概念、异同点 理解不同的结合策略(平均法,投票法,学习法) 随机森林的思想 随机森林的推广 随机森林的优缺点 随机森林在sklearn中的参数解释 随机森林的应用场景
  3. 所属分类:深度学习

    • 发布日期:2019-08-07
    • 文件大小:257024
    • 提供者:qq_40441895
  1. 集成学习算法

  2. 集成学习算法集成学习的基本原理BaggingBoosting随机森林 集成学习的基本原理 Bagging Boosting 随机森林 随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。该分类器最早由Leo Breiman和Adele Cutler提出,并被注册成了商标。 随机森林相对于Bagging,既对样本做随机,又对变量做随机。 随机森林的优点: 1)对于很多种资料,它可以产生高准确度的分类器; 2)它可以处理大量的输入变数; 3)它可以在决定类别时,评估变数的重要性; 4)
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:356352
    • 提供者:weixin_38653085
  1. XGBoost 算法原理

  2. 一、简介 XGBoost(eXtreme Gradient Boosting)是GBDT(Gradient Boosting Decision Tree)的一种实现。GBDT又是提升树(Boosting Tree)的一种优化模型。Boosting则是集成学习的一种算法。 1.1 梯度提升树(Gradient Boosting Decison Tree, GBDT) 之前提到的 Bagging 的思想比较简单,即每一次从原始数据中根据均匀概率分布有放回的抽取和原始数据大小相同的样本集合,样本点可
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38608866
  1. 机器学习——基于Bagging的集成学习:随机森林(Random Forest)及python实现

  2. 基于Bagging的集成学习:随机森林的原理及其实现引入Bagging装袋随机森林随机森林分类随机森林回归python实现随机森林分类随机森林回归 引入 “三个臭皮匠赛过诸葛亮”——弱分类器组合成强分类器。 Q1.什么是随机森林? 随机森林顾名思义就是一片森林,其中有各种各样的树,其实,随机森林是基于决策树构成的,一片森林中的每一颗树就是一个决策树。想了解决策树算法详情请戳☞决策树原理及其实现☜ Q2.为什么叫随机森林? 随机森林中“随机”一词主要在于两点:“随机”取样;“随机”抽取特征。 了解
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:238592
    • 提供者:weixin_38663443
  1. 基于Bagging的概率神经网络集成分类算法

  2. 基于Bagging的概率神经网络集成分类算法
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:517120
    • 提供者:weixin_38531788
  1. 集成学习之bagging、boosting及AdaBoost的实现

  2. 前面博客分享,我们已经讲解了不少分类算法,有knn、决策树、朴素贝叶斯、逻辑回归、svm。我们知道,当坐重要决定时,大家可能都会考虑吸取多个专家而不是一个人的意见。机器学习处理问题时同样如此。集成学习(ensemblelearning)通过构建并结合多个学习器来完成学习任务,有时被称为多分类器学习系统、基于委员会的学习等。下图显示出集成学习的一般结构:先产生一组“个体学习器”,再用某种策略将它们结合起来。我们前面已经分享了五种不同的分类算法,我们可以将其用不同的分类器组合起来,这种组合结果则被称
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:352256
    • 提供者:weixin_38699784
  1. 机器学习中的算法:决策树模型组合之GBDT

  2. 本文来自于csdn,本文从informationgain和决策树两个方面介绍了机器学习的算法,希望对您的学习有帮助。决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等。但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的。模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几百
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:188416
    • 提供者:weixin_38582909
  1. 机器学习实战之AdaBoost算法

  2. 前面几章的介绍了几种分类算法,当然各有优缺。如果将这些不同的分类器组合起来,就构成了我们今天要介绍的集成方法或者说元算法。集成方法有多种形式:可以使多种算法的集成,也可以是一种算法在不同设置下的集成,还可以将数据集的不同部分分配不同的分类器,再将这些分类器进行集成。adaBoost分类器就是一种元算法分类器,adaBoost分类器利用同一种基分类器(弱分类器),基于分类器的错误率分配不同的权重参数,最后累加加权的预测结果作为输出。在介绍adaBoost之前,我们首先大致介绍一种基于数据随机重抽样
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:306176
    • 提供者:weixin_38670186
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是:①弱分类器模型的形式②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集成(homogenousensembles)方法;而今天我将主要对一种目前在kaggl
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:474112
    • 提供者:weixin_38553478
  1. 通俗解释随机森林算法

  2. 首先我们来复习一下之前介绍过的两个机器学习模型:Bagging和DecisionTree。Bagging是通过bootstrap的方式,从原始的数据集D中得到新的D^;然后再使用一些basealgorithm对每个D^都得到相应的gt;最后将所有的gt通过投票uniform的形式组合成一个G,G即为我们最终得到的模型。DecisionTree是通过递归形式,利用分支条件,将原始数据集D切割成一个个子树结构,长成一棵完整的树形结构。DecisionTree最终得到的G(x)是由相应的分支条件b(x
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:923648
    • 提供者:weixin_38506138
  1. 集成学习之bagging、boosting及AdaBoost的实现

  2. 前面博客分享,我们已经讲解了不少分类算法,有knn、决策树、朴素贝叶斯、逻辑回归、svm。我们知道,当坐重要决定时,大家可能都会考虑吸取多个专家而不是一个人的意见。机器学习处理问题时同样如此。集成学习(ensemblelearning)通过构建并结合多个学习器来完成学习任务,有时被称为多分类器学习系统、基于委员会的学习等。下图显示出集成学习的一般结构:先产生一组“个体学习器”,再用某种策略将它们结合起来。我们前面已经分享了五种不同的分类算法,我们可以将其用不同的分类器组合起来,这种组合结果则被称
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:352256
    • 提供者:weixin_38589774
  1. 机器学习中的算法:决策树模型组合之GBDT

  2. 本文来自于csdn,本文从information gain和决策树两个方面介绍了机器学习的算法,希望对您的学习有帮助。决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图片展示出来)等。但是同时,单决策树又有一些不好的地方,比如说容易over-fitting,虽然有一些方法,如剪枝可以减少这种情况,但是还是不够的。模型组合(比如说有Boosting,Bagging等)与决策树相关的算法比较多,这些算法最终的结果是生成N(可能会有几
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:188416
    • 提供者:weixin_38628183
  1. 机器学习实战之AdaBoost算法

  2. 前面几章的介绍了几种分类算法,当然各有优缺。如果将这些不同的分类器组合起来,就构成了我们今天要介绍的集成方法或者说元算法。集成方法有多种形式:可以使多种算法的集成,也可以是一种算法在不同设置下的集成,还可以将数据集的不同部分分配不同的分类器,再将这些分类器进行集成。adaBoost分类器就是一种元算法分类器,adaBoost分类器利用同一种基分类器(弱分类器),基于分类器的错误率分配不同的权重参数,最后累加加权的预测结果作为输出。在介绍adaBoost之前,我们首先大致介绍一种基于数据随机重抽样
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:289792
    • 提供者:weixin_38722193
  1. 机器学习算法——集成方法(Ensemble)之Stacking

  2. 本文来自于csdn,本文是基于《kaggle比赛集成指南》来进行总结的概述什么是集成学习,以及目前较为常用的技术。 集成方法是指由多个弱分类器模型组成的整体模型,我们需要研究的是: ①弱分类器模型的形式 ②这些弱分类器是如何组合为一个强分类器学习过机器学习相关基础的童鞋应该知道,集成学习有两大类——以Adaboost为代表的Boosting和以RandomForest为代表的Bagging。它们在集成学习中属于同源集
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:473088
    • 提供者:weixin_38638596
  1. 通俗解释随机森林算法

  2. 首先我们来复习一下之前介绍过的两个机器学习模型:Bagging和DecisionTree。Bagging是通过bootstrap的方式,从原始的数据集D中得到新的D^;然后再使用一些base algorithm对每个D^都得到相应的gt;最后将所有的gt通过投票uniform的形式组合成一个G,G即为我们最终得到的模型。Decision Tree是通过递归形式,利用分支条件,将原始数据集D切割成一个个子树结构,长成
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:923648
    • 提供者:weixin_38607552
« 1 23 4 »