您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 回归方法和机器学习方法以及R代码实现

  2. R语言回归方法和机器学习方法的讲解,课件是pdf形式 R代码-机器学习方法包括决策树、随机森林、svm、神经网络、boosting、bagging以及各种回归方法 其中包含一些数据及例子以供参考。
  3. 所属分类:讲义

    • 发布日期:2015-05-11
    • 文件大小:12mb
    • 提供者:letsgoaway
  1. weka源码学习

  2. 目录 Weka 开发[1]-Instances类 1 Weka开发[2]-分类器类 2 Weka开发[3]-Evaluation类 3 Weka开发[4]-特征选择 4 Weka开发[5]-半监督算法 6 Weka开发[0]-导入Weka包 8 半监督算法工具SVMlin使用 12 半监督算法工具SVMlin读取数据代码介绍 14 Weka开发[6]-参数设置 16 Weka开发[7]-LibSVM 17 Weka开发[8]-ID3源码介绍 18 Weka开发[9]—KMeans源码介绍 21
  3. 所属分类:其它

    • 发布日期:2018-02-02
    • 文件大小:669kb
    • 提供者:qq_34936033
  1. MultiBoosting Iterative Bagging

  2. MultiBoosting、Iterative Bagging的python实现,代码通俗易懂。
  3. 所属分类:讲义

    • 发布日期:2018-02-03
    • 文件大小:81kb
    • 提供者:u013161323
  1. sklearn0.19中文文档

  2. sklearn0.19中文文档 PDF格式高清。 .1. 广义线性模型 1.1.1. 普通最小二乘法 1.1.1.1. 普通最小二乘法复杂度 1.1.2. 岭回归 1.1.2.1. 岭回归的复杂度 1.1.2.2. 设置正则化参数:广义交叉验证 1.1.3. Lasso 1.1.3.1. 设置正则化参数 1.1.3.1.1. 使用交叉验证 1.1.3.1.2. 基于信息标准的模型选择 1.1.3.1.3. 与 SVM 的正则化参数的比较 1.1.4. 多任务 Lasso 1.1.5. 弹性网络
  3. 所属分类:机器学习

    • 发布日期:2018-10-30
    • 文件大小:14mb
    • 提供者:hardpen2013
  1. bagging算法

  2. Bagging的策略: 从样本集中用Bootstrap采样选出n个样本 在所有属性上 对这n个样本建立分类器(CART or SVM or ) 重复以上两步m次 i e build m个分类器(CART or SVM or ) 将数据放在这m个分类器上跑 最后vote看到底分到哪一类
  3. 所属分类:讲义

  1. scikit-learn-0.21.3-中文文档.pdf

  2. scikit-learn 是基于 Python 语言的机器学习工具 简单高效的数据挖掘和数据分析工具 可供大家在各种环境中重复使用 建立在 NumPy ,SciPy 和 matplotlib 上 开源,可商业使用 - BSD许可证1.监督学习 1广义线性模型 °1.1.1普通最小二乘法 1.1.2岭回归 1.1.3LaSs0 o1.1.4多任务 Lasso 115弹性网络 o116多任务弹性网络 1.1.7最小角回归 1.1. 8 LARS Lasso 1.19正交匹配追踪法(OMP 1.1.1
  3. 所属分类:机器学习

    • 发布日期:2019-08-24
    • 文件大小:40mb
    • 提供者:h394266861
  1. 数据集分析报告.docx

  2. 文档第一部分为Bagging与boosting之间的区别,第二部分是为对五个数据集进行相关性分析,缺失性分析,和噪声数据发现,第三部分是使用随机森林,支持向量机等八个算法对五个数据集进行分类,对比八个算法对五个数据集的分类精度。代码部分在此处:https://download.csdn.net/download/qq_30814185/11338531
  3. 所属分类:机器学习

    • 发布日期:2019-07-13
    • 文件大小:935kb
    • 提供者:qq_30814185
  1. 新闻情感方向判断方法、电子设备及计算机可读存储介质.pdf

  2. 使用深度学习和模型的方法,判断非结构化文本的情绪倾向CN107688651A 权利要求书 2/2页 若从该待预测新闻的标题和正文中没有识别出所述第一文件中的事件关键词,且没有 识别岀与所述第二文件中的事件正则表达式符合的内容,则将所述预定的机器学习算法获 取的该待预测新闻的情感分数作为该待预测新闻的最终评分。 8.如权利要求7所述的新闻情感方向判断方法,其特征在于,所述调整所述预定的机器 学习算法获取的该待狈测新闻的情感分数还包括: 若从该待预测新闻的标题和正文中识别出与所述第二文件中的事件正则
  3. 所属分类:机器学习

    • 发布日期:2019-07-12
    • 文件大小:634kb
    • 提供者:lanhao5635865
  1. python 进行各种回归

  2. 基本回归:线性、决策树、SVM、KNN 集成方法:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees ##学会了数据分层抽样,以及各种回归的代码书写。可能还需要注意调参等。 继续学习网址:使用sklearn做各种回归 数据准备 from matplotlib import pyplot as plt %matplotlib inline plt.style.use('fivethirtyeight') #设置matplotlib作图风格 impo
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:105kb
    • 提供者:weixin_38697659
  1. 基于sklearn实现Bagging算法(python)

  2. 本文使用的数据类型是数值型,每一个样本6个特征表示,所用的数据如图所示: 图中A,B,C,D,E,F列表示六个特征,G表示样本标签。每一行数据即为一个样本的六个特征和标签。 实现Bagging算法的代码如下: from sklearn.ensemble import BaggingClassifier from sklearn.tree import DecisionTreeClassifier from sklearn.preprocessing import StandardScaler
  3. 所属分类:其它

    • 发布日期:2021-01-01
    • 文件大小:98kb
    • 提供者:weixin_38687199
  1. Python使用sklearn实现的各种回归算法示例

  2. 本文实例讲述了Python使用sklearn实现的各种回归算法。分享给大家供大家参考,具体如下: 使用sklearn做各种回归 基本回归:线性、决策树、SVM、KNN 集成方法:随机森林、Adaboost、GradientBoosting、Bagging、ExtraTrees 1. 数据准备 为了实验用,我自己写了一个二元函数,y=0.5*np.sin(x1)+ 0.5*np.cos(x2)+0.1*x1+3。其中x1的取值范围是0~50,x2的取值范围是-10~10,x1和x2的训练集一共有5
  3. 所属分类:其它

    • 发布日期:2020-12-26
    • 文件大小:421kb
    • 提供者:weixin_38668776
  1. 决策树与随机森林

  2. 本文于cnblogs,介绍了决策树的生成,Bagging策略,python实现代码等。首先,在了解树模型之前,自然想到树模型和线性模型有什么区别呢?其中最重要的是,树形模型是一个一个特征进行处理,之前线性模型是所有特征给予权重相加得到一个新的值。决策树与逻辑回归的分类区别也在于此,逻辑回归是将所有特征变换为概率后,通过大于某一概率阈值的划分为一类,小于某一概率阈值的为另一类;而决策树是对每一个特征做一个划分。另外逻辑回归只能找到线性分割(输入特征x与logit之间是线性的,除非对x进行多维映射)
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:555kb
    • 提供者:weixin_38705723
  1. Ensembles_of_Oblique_Decision_Trees-源码

  2. 倾斜决策树的合奏 作者:Torsha Majumder 电子邮件: 背景 该存储库包含几种与Scikit-Learn的Bagging分类器兼容的决策树算法。 有关完整的实验设置和结果,请检查。 如果您认为此代码有用,请引用我的工作。 引文 Majumder,T.(2020年)。 倾斜决策树的合奏[德克萨斯大学达拉斯分校的硕士学位论文]。 UTD论文和学位论文。 实验 本实验考虑的决策树: * Standard Decision Tree with Bagging * Oblique Clas
  3. 所属分类:其它

  1. 决策树与随机森林

  2. 本文于cnblogs,介绍了决策树的生成,Bagging策略,python 实现代码等。首先,在了解树模型之前,自然想到树模型和线性模型有什么区别呢?其中最重要的是,树形模型是一个一个特征进行处理,之前线性模型是所有特征给予权重相加得到一个新的值。决策树与逻辑回归的分类区别也在于此,逻辑回归是将所有特征变换为概率后,通过大于某一概率阈值的划分为一类,小于某一概率阈值的为另一类;而决策树是对每一个特征做一个划分。另外逻辑回归只能找到线性分割(输入特征x与logit之间是线性的,除非对x进行多维映射
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:555kb
    • 提供者:weixin_38609401