您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Spark ml pipline交叉验证之朴素贝叶斯.docx

  2. Spark ml pipline交叉验证之朴素贝叶斯 模型训练 输入参数 训练代码 模型评估 输入参数 评估代码
  3. 所属分类:spark

    • 发布日期:2019-09-03
    • 文件大小:21504
    • 提供者:q18729096963
  1. 多层感知机(MLP)(三层)(UCI乳腺癌数据库)(k折交叉验证)(反向传递)(机器学习,神经网络)

  2. 多层感知机(MLP)(三层)(UCI乳腺癌数据库)(k折交叉验证)(反向传递)(机器学习,神经网络)
  3. 所属分类:机器学习

    • 发布日期:2020-05-28
    • 文件大小:6144
    • 提供者:weixin_33270475
  1. python实现交叉验证

  2. 实现数据的交叉验证划分。 对于带标签的所有数据data.csv,其中最后一列为标签,将该数据划分为训练集train_i.csv和测试集test_i.csv。其中i表示的是第i折数据。
  3. 所属分类:其它

    • 发布日期:2020-07-11
    • 文件大小:1024
    • 提供者:weixin_39913518
  1. 6,交叉验证.ipynb

  2. 6,交叉验证.ipynb
  3. 所属分类:机器学习

    • 发布日期:2020-07-30
    • 文件大小:12288
    • 提供者:weixin_46072771
  1. 使用sklearn的cross_val_score进行交叉验证实例

  2. 今天小编就为大家分享一篇使用sklearn的cross_val_score进行交叉验证实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-17
    • 文件大小:135168
    • 提供者:weixin_38671819
  1. sklearn和keras的数据切分与交叉验证的实例详解

  2. 主要介绍了sklearn和keras的数据切分与交叉验证的实例详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:63488
    • 提供者:weixin_38587705
  1. 决策树代码Python(包含GINI,信息熵构建方法,10折交叉验证,Adaboost以及Boost方法)

  2. 决策树代码Python(包含GINI,信息熵构建方法,10折交叉验证,Adaboost以及Boost方法)
  3. 所属分类:讲义

    • 发布日期:2016-12-27
    • 文件大小:54272
    • 提供者:bigfish_yukang
  1. Python sklearn KFold 生成交叉验证数据集的方法

  2. 今天小编就为大家分享一篇Python sklearn KFold 生成交叉验证数据集的方法,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-19
    • 文件大小:46080
    • 提供者:weixin_38631182
  1. coursera斯坦福机器学习公开课作业5(交叉验证)

  2. coursera斯坦福机器学习公开课作业5(交叉验证),已通过submission,供大家学习参考
  3. 所属分类:专业指导

    • 发布日期:2015-12-13
    • 文件大小:226304
    • 提供者:u011772859
  1. 交叉验证神经网络matlab

  2. 提供交叉验证神经网络matlab代码,供大家学习。
  3. 所属分类:专业指导

    • 发布日期:2020-11-15
    • 文件大小:2048
    • 提供者:qq_34989861
  1. Python sklearn KFold 生成交叉验证数据集的方法

  2. 源起: 1.我要做交叉验证,需要每个训练集和测试集都保持相同的样本分布比例,直接用sklearn提供的KFold并不能满足这个需求。 2.将生成的交叉验证数据集保存成CSV文件,而不是直接用sklearn训练分类模型。 3.在编码过程中有一的误区需要注意: 这个sklearn官方给出的文档 >>> import numpy as np >>> from sklearn.model_selection import KFold >>> X =
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:49152
    • 提供者:weixin_38697123
  1. 简单粗暴理解与实现机器学习之K-近邻算法(十):交叉验证,网格搜索(模型选择与调优)API、鸢尾花案例增加K值调优

  2. K-近邻算法 文章目录K-近邻算法学习目标1.10 交叉验证,网格搜索1 什么是交叉验证(cross validation)1.1 分析1.2 为什么需要交叉验证**问题:那么这个只是对于参数得出更好的结果,那么怎么选择或者调优参数呢?**2 什么是网格搜索(Grid Search)3 交叉验证,网格搜索(模型选择与调优)API:4 鸢尾花案例增加K值调优 学习目标 掌握K-近邻算法实现过程 知道K-近邻算法的距离公式 知道K-近邻算法的超参数K值以及取值问题 知道kd树实现搜索的过程 应用KN
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:115712
    • 提供者:weixin_38658568
  1. 使用sklearn的cross_val_score进行交叉验证实例

  2. 在构建模型时,调参是极为重要的一个步骤,因为只有选择最佳的参数才能构建一个最优的模型。但是应该如何确定参数的值呢?所以这里记录一下选择参数的方法,以便后期复习以及分享。 (除了贝叶斯优化等方法)其它简单的验证有两种方法: 1、通过经常使用某个模型的经验和高超的数学知识。 2、通过交叉验证的方法,逐个来验证。 很显然我是属于后者所以我需要在这里记录一下 sklearn 的 cross_val_score: 我使用是cross_val_score方法,在sklearn中可以使用这个方法。交叉验证的原
  3. 所属分类:其它

    • 发布日期:2020-12-20
    • 文件大小:137216
    • 提供者:weixin_38611388
  1. Python实现K折交叉验证法的方法步骤

  2. 学习器在测试集上的误差我们通常称作“泛化误差”。要想得到“泛化误差”首先得将数据集划分为训练集和测试集。那么怎么划分呢?常用的方法有两种,k折交叉验证法和自助法。介绍这两种方法的资料有很多。下面是k折交叉验证法的python实现。 ##一个简单的2折交叉验证 from sklearn.model_selection import KFold import numpy as np X=np.array([[1,2],[3,4],[1,3],[3,5]]) Y=np.array([1,2,3,4
  3. 所属分类:其它

    • 发布日期:2020-12-31
    • 文件大小:40960
    • 提供者:weixin_38604916
  1. 机器学习 评估指标之交叉验证

  2. 1、交叉验证 通俗的讲就是将样本均分为几等份,拿出某一(几)份作为测试样本,剩下的作为训练样本,去预测得到相应指标(准确率,召回率,f1等),再抽取另一份(几份)作为测试样本,剩下的作为训练样本,去预测得到相应指标(准确率,召回率,f1等) ,使得每一份样本都参与到测试集中,最终返回一个指标列表。 作用 1、交叉验证用于评估模型的预测性能,尤其是训练好的模型在新数据上的表现,可以在一定程度上减小过拟合。 2、还可以从有限的数据中获取尽可能多的有效信息。 2、案例代码 数据下载地址 链接: ht
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:36864
    • 提供者:weixin_38592643
  1. HLS_KNN_KFold:KNN使用的火车测试数据的交叉验证-源码

  2. HLS_KNN_K折叠 对KNN使用的火车/测试数据进行交叉验证。
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:1048576
    • 提供者:weixin_42131013
  1. 使用Bouligand影响函数对核方法进行交叉验证的有效近似

  2. 使用Bouligand影响函数对核方法进行交叉验证的有效近似
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:177152
    • 提供者:weixin_38671048
  1. 通过通用交叉验证改善ESVM

  2. 通过通用交叉验证改善ESVM
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:1013760
    • 提供者:weixin_38661852
  1. 防止交叉验证与内核稳定性过度拟合

  2. 内核选择对于内核方法至关重要。 交叉验证(CV)是一种广泛接受的内核选择方法。 但是,基于CV的估计值通常显示出较高的方差,因此易于过度拟合。 为了防止高方差,我们首先提出了一种新的稳定性版本,称为内核稳定性。 这种稳定性量化了核矩阵相对于训练集变化的扰动。 然后,我们建立了内核稳定性和CV方差之间的联系。 通过限制导出的方差上限,我们提出了一种内核选择准则,该准则可以防止CV的高方差,从而保证良好的泛化性能。 此外,我们导出了用于估计内核稳定性的封闭形式,从而使基于内核稳定性的标准在计算上更加
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:331776
    • 提供者:weixin_38659789
  1. LAB4-EOML:Regresión线性Polinomial con交叉验证-源码

  2. LAB4-EOML Regresión线性Polinomial con交叉验证
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:1048576
    • 提供者:weixin_42149153
« 1 23 4 5 6 7 8 9 10 ... 50 »