您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Bagging算法在中文文本分类中的应用

  2. Bagging算法在中文文本分类中的应用
  3. 所属分类:其它

    • 发布日期:2009-12-18
    • 文件大小:199kb
    • 提供者:flygeniuslx
  1. 集成学习(Bagging ,Boosting ,AdaBoost) PPT

  2. 集成学习Bagging ,Boosting等介绍的PPT。集成方法是构建一种对单个分类器进行集成的学习算法,将各分类器的分类结果以一定的方式集成起来实现对新数据点进行分类,其中单个分类器是独立的且不要求分类精度很高。通过这种方式,大大提高了集成系统的性能。
  3. 所属分类:专业指导

  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

    • 发布日期:2015-04-13
    • 文件大小:5mb
    • 提供者:u013566228
  1. bagging算法python组件

  2. bagging 是bootstrap aggregating的缩写,它首次介绍是在L. Breiman, Bagging predictors, Mach. Learn. 24 (2) (1996) 123--140 ,是第一批用于多分类器集成算法。该集成方法包括在一个训练集合上重复训练得到的多个分类器。
  3. 所属分类:Python

    • 发布日期:2015-04-19
    • 文件大小:11mb
    • 提供者:u013566228
  1. 集成算法讲解ppt

  2. 集成算法PPT包括Bagging和AdaBoost
  3. 所属分类:讲义

    • 发布日期:2015-11-05
    • 文件大小:448kb
    • 提供者:zhaohoutao
  1. Spark下BP神经网络并行化算法研究

  2. BP算法(反向传播算法)以其良好的非线性逼近能力、泛化能力以及实用性成为了人工神经网络训练算法中应用最为广泛的算法。但同时使用BP算法又存在收敛速度较慢、易陷入局部极小值等问题。为了将BP算法用于大规模数据分类问题,采用MapReduce思想,将大数据集切分成若干小的数据集来并行加速处理,同时引入Bagging算法的思想来综合并行结果,提高分类的准确率。通过在各个节点上根据子数据集独立地训练各个BP神经网络,直至各网络收敛,再将各节点上的网络收集起来进行集成,形成最终的分类器。基于Spark平
  3. 所属分类:spark

    • 发布日期:2018-06-22
    • 文件大小:1mb
    • 提供者:qq_28339273
  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

    • 发布日期:2019-02-11
    • 文件大小:5mb
    • 提供者:linfeiyu2007
  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

    • 发布日期:2019-03-19
    • 文件大小:5mb
    • 提供者:carocaro
  1. 集成学习(AdaBoost、Bagging)

  2. 包含基于决策树桩进行集成的AdaBoost、Bagging算法,并实现对学习结果的可视化。“*”表示支撑超平面边界的点,“+”、“-”分别表示正反例数据点,青色线条为集学习器(决策树桩)分类边界。
  3. 所属分类:机器学习

    • 发布日期:2020-03-15
    • 文件大小:14kb
    • 提供者:mddh_123
  1. Bagging算法.zip

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:算法与数据结构

    • 发布日期:2020-01-17
    • 文件大小:14mb
    • 提供者:weixin_42687126
  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

    • 发布日期:2019-04-20
    • 文件大小:5mb
    • 提供者:lisha1002
  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

    • 发布日期:2020-06-18
    • 文件大小:5mb
    • 提供者:limeng918
  1. 基于sklearn实现Bagging算法(python)

  2. 主要为大家详细介绍了基于sklearn实现Bagging算法,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:62kb
    • 提供者:weixin_38630324
  1. 基于sklearn实现Bagging算法(python)

  2. 本文使用的数据类型是数值型,每一个样本6个特征表示,所用的数据如图所示: 图中A,B,C,D,E,F列表示六个特征,G表示样本标签。每一行数据即为一个样本的六个特征和标签。 实现Bagging算法的代码如下: from sklearn.ensemble import BaggingClassifier from sklearn.tree import DecisionTreeClassifier from sklearn.preprocessing import StandardScaler
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:98kb
    • 提供者:weixin_38687199
  1. Python使用sklearn实现的各种回归算法示例

  2. 本文实例讲述了Python使用sklearn实现的各种回归算法。分享给大家供大家参考,具体如下: 使用sklearn做各种回归 基本回归:线性、决策树、SVM、KNN 集成方法:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees 1. 数据准备 为了实验用,我自己写了一个二元函数,y=0.5*np.sin(x1)+ 0.5*np.cos(x2)+0.1*x1+3。其中x1的取值范围是0~50,x2的取值范围是-10~10,x1和x2的训练集一共有5
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:421kb
    • 提供者:weixin_38668776
  1. 集成学习算法

  2. 集成学习算法集成学习的基本原理BaggingBoosting随机森林 集成学习的基本原理 Bagging Boosting 随机森林 随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。该分类器最早由Leo Breiman和Adele Cutler提出,并被注册成了商标。 随机森林相对于Bagging,既对样本做随机,又对变量做随机。 随机森林的优点: 1)对于很多种资料,它可以产生高准确度的分类器; 2)它可以处理大量的输入变数; 3)它可以在决定类别时,评估变数的重要性; 4)
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:348kb
    • 提供者:weixin_38653085
  1. 机器学习——基于Bagging的集成学习:随机森林(Random Forest)及python实现

  2. 基于Bagging的集成学习:随机森林的原理及其实现引入Bagging装袋随机森林随机森林分类随机森林回归python实现随机森林分类随机森林回归 引入 “三个臭皮匠赛过诸葛亮”——弱分类器组合成强分类器。 Q1.什么是随机森林? 随机森林顾名思义就是一片森林,其中有各种各样的树,其实,随机森林是基于决策树构成的,一片森林中的每一颗树就是一个决策树。想了解决策树算法详情请戳☞决策树原理及其实现☜ Q2.为什么叫随机森林? 随机森林中“随机”一词主要在于两点:“随机”取样;“随机”抽取特征。 了解
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:233kb
    • 提供者:weixin_38663443
  1. 基于改进Bagging算法的高斯过程集成软测量建模

  2. 基于改进Bagging算法的高斯过程集成软测量建模
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:313kb
    • 提供者:weixin_38691453
  1. 用Python实现随机森林算法的示例

  2. 拥有高方差使得决策树(secision tress)在处理特定训练数据集时其结果显得相对脆弱。bagging(bootstrap aggregating 的缩写)算法从训练数据的样本中建立复合模型,可以有效降低决策树的方差,但树与树之间有高度关联(并不是理想的树的状态)。 随机森林算法(Random forest algorithm)是对 bagging 算法的扩展。除了仍然根据从训练数据样本建立复合模型之外,随机森林对用做构建树(tree)的数据特征做了一定限制,使得生成的决策树之间没有关联,
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:106kb
    • 提供者:weixin_38555350
« 12 3 4 »