您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 文本挖掘tmSVM开源项目包含Python和Java两种版本带参考文档

  2. 文本挖掘tmSVM开源项目集成libSVM和liblinear包含Python和Java两种版本带PDF源码参考文档 简介 文本挖掘无论在学术界还是在工业界都有很广泛的应用场景。而文本分类是文本挖掘中一个非常重要的手段与技术。现有的分类技术都已经非常成熟,SVM、KNN、Decision Tree、AN、NB在不同的应用中都展示出较好的效果,前人也在将这些分类算法应用于文本分类中做出许多出色的工作。但在实际的商业应用中,仍然有很多问题没有很好的解决,比如文本分类中的高维性和稀疏性、类别的不平衡
  3. 所属分类:Python

    • 发布日期:2014-02-23
    • 文件大小:3mb
    • 提供者:vcfriend
  1. 模型验证与模型选择

  2. 模型验证与模型选择 模型复杂度 过于简单的模型预测精度不够,但是过于复杂的模型反映了数据中过多的噪音,该模型运用于其它数据集进行预测时,同样偏差较大。 这种过于复杂的模型称为过拟合。
  3. 所属分类:算法与数据结构

    • 发布日期:2018-07-20
    • 文件大小:1mb
    • 提供者:qilong0
  1. 斯坦福吴恩达教授机器学习课程讲义,作业及解析

  2. 网易公开课斯坦福吴恩达教授机器学习课程讲义,作业及解析,配合视频学习更加高效易懂,含有各种公式的推导步骤: [第1集] 机器学习的动机与应用 [第2集] 监督学习应用.梯度下降 [第3集] 欠拟合与过拟合的概念 [第4集] 牛顿方法 [第5集] 生成学习算法 [第6集] 朴素贝叶斯算法 [第7集] 最优间隔分类器问题 [第8集] 顺序最小优化算法 [第9集] 经验风险最小化 [第10集] 特征选择 [第11集] 贝叶斯统计正则化 [第12集] K-means算法 [第13集] 高斯混合模型 [
  3. 所属分类:机器学习

    • 发布日期:2018-09-24
    • 文件大小:6mb
    • 提供者:ly5201314666
  1. 统计学习方法_李航

  2. 统计学习是计算机及其应用领域的一门重要的学科。本书全面系统地介绍了统计学习的主要方法,特别是监督学习方法,包括感知机、k近邻法、朴素贝叶斯法、决策树、逻辑斯谛回归与最大熵模型、支持向量机、提升方法、em算法、隐马尔可夫模型和条件随机场等。除第1章概论和最后一章总结外,每章介绍一种方法。叙述从具体问题或实例入手,由浅入深,阐明思路,给出必要的数学推导,便于读者掌握统计学习方法的实质,学会运用。为满足读者进一步学习的需要,书中还介绍了一些相关研究,给出了少量习题,列出了主要参考文献。 《统计学习方法
  3. 所属分类:机器学习

  1. 中南大学计算机学院梁毅雄老师授课-数字图像处理-考试要点答案整理

  2. 中南大学计算机学院梁毅雄老师授课考试要点答案整理。此文档受众:中南大学!计算机学院!梁毅雄老师授课学生!数字图像处理!中南大学计算机学院梁毅雄老师授课考试重点整理 2019.07.03 Canny边绿检测算法 基本原理 图象边缘检测必须满足两个条件:一能有效地抑制噪声;二必须尽量精确确 定边缘的位置。 从数学上表达了三个准则[信噪比准则(低错误率)、定位精度准则、单边缘 响应准则」,并寻找表达式的最佳解 属于先平滑后求导的方法 步骤 1)使用高欺滤波器,以平滑图像,滤除噪声。 2)计算图像中每个
  3. 所属分类:讲义

    • 发布日期:2019-07-04
    • 文件大小:5mb
    • 提供者:sinat_31857633
  1. 过拟合与模型选择

  2. BAT算法工程师深入详细地讲解过拟合与模型选择,带你轻松入门机器学习!
  3. 所属分类:机器学习

    • 发布日期:2019-07-03
    • 文件大小:132mb
    • 提供者:weixin_45246409
  1. 2020四级人工智能自然语言处理与识别方向模拟卷/上海市高等学校信息技术水平考试试卷/四级人工智能

  2. 2020年上海市高等学校信息技术水平考试试卷 四级 人工智能(自然语言处理与识别方向 模拟卷) (本试卷考试时间 150 分钟) 一、单选题 ( 本大题 15 道小题 ,每小题 1 分,共 15 分),从下面题目给出的A、B、C、D四个可供选择的答案中选择一个正确答案。 1.在回归模型中,下列____在权衡欠拟合和过拟合中影响最大。 A.多项式阶数 B.更新权重 w 时,使用的是矩阵求逆还是梯度下降 C.使用常数项 D.增加数据量 2.A和B分别代表两个事件,如果P(A, B)降低,同时P
  3. 所属分类:软考等考

    • 发布日期:2020-12-07
    • 文件大小:55kb
    • 提供者:qq_36866850
  1. 欠拟合和过拟合&&梯度消失和梯度爆炸&&循环神经网络进阶

  2. 一.欠拟合和过拟合 1.1训练误差与泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 1.2 模型选择 1.2.1 验证数据集 从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:325kb
    • 提供者:weixin_38688097
  1. 伯禹AI – task03 过拟合、欠拟合及其解决方案 -梯度消失与爆炸、循环神经网络进阶

  2. 在介绍以上概念之前要理解 训练集、测试集与验证集的区分:     从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。不可以使用测试数据选择模型,如调参。由于无法从训练误差估计泛化误差,因此也不应只依赖训练数据选择模型。鉴于此,我们可以预留一部分在训练数据集和测试数据集以外的数据来进行模型选择。这部分数据被称为验证数据集,简称验证集(validation set)。例如,我们可以从给定的训练集中随机选取一小部分作为验证集,而将剩余部分作为真正的训练集。     训练误差(traini
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:254kb
    • 提供者:weixin_38608189
  1. 过拟合与欠拟合

  2. 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。计算训练误差和泛化误差可以使用之前介绍过的损失函数,例如线性回归用到的平方损失函数和softmax回归用到的交叉熵损失函数。 机器学习模型应关注降低泛化误差。 模型选择 验证数据集 从严格
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:47kb
    • 提供者:weixin_38670297
  1. 过拟合、欠拟合学习笔记

  2. 探究模型训练中经常出现的两类典型问题: 一类是欠拟合,另一类是过拟合. 1.欠拟合 模型无法得到较低的训练误差,将这一现象成为欠拟合. 2.过拟合 模型的训练误差远小于它在测试集上的误差,称这一现象为过拟合. 可能导致这两种拟合问题的因素有很多,比如模型复杂度和训练集大小. 模型复杂度 随着模型复杂度增加,训练误差波动降低,平均训练误差降低趋向于0,而测试误差波动上升,平均测试误差先降低后升高。这个现象说明训练误差不能代替测试误差来作为模型选择和评价的手段。随着模型复杂度变化,训练误差与测试误差
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:38kb
    • 提供者:weixin_38726441
  1. 动手学深度学习笔记3过拟合、欠拟合

  2. 一、欠拟合与过拟合 误差: 训练误差(training error):指模型在训练数据集上表现出的误差 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。机器学习模型应关注降低泛化误差。 Q:如何计算误差?A:引入损失函数(MSE、交叉熵损失)。 验证集:从严格意义上讲,测试集只能在所有超参数和模型参数选定后使用一次。因为不可以使用测试数据选择模型,如调参。所以引入验证集(从训练集中划分出部分验证集),即预
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:365kb
    • 提供者:weixin_38713009
  1. 过拟合、欠拟合 & 梯度消失、梯度爆炸 & 循环神经网络进阶

  2. 过拟合、欠拟合 过拟合、欠拟合的概念 权重衰减 丢弃法 训练误差与泛化误差 训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出的误差,后者指模型在任意一个测试数据样本上表现出的误差的期望,并常常通过测试数据集上的误差来近似。 模型选择 min⁡θ1N∑i=1NL(yi,fθ(xi))+λ∣∣θ∣∣2\min_{\theta}\frac{1}{N}\sum_{i=1}^{N}L(y_i,f_{\theta}(x_
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:127kb
    • 提供者:weixin_38544152
  1. 一种面向高维数据的迭代式Lasso特征选择方法

  2. Lasso方法与其他特征选择一样,对高维海量或高维小样本数据集的特征选择容易出现计算开销过大或过学习问题(过拟合)。为解决此问题,提出一种改进的Lasso方法:迭代式Lasso方法。迭代式Lasso方法首先将特征集分成K份,对第一份特征子集进行特征提取,将所得特征加入第二份,再对第二份特征进行特征提取;然后将所得特征加入第三份,依次迭代下去,直到第K份,得到最终特征子集。实验表明,迭代式Lasso方法能够很好地对高维海量或高维小样本数据集进行特征选择,是一种有效的特征选择方法。目前,此方法已经很
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:220kb
    • 提供者:weixin_38663193
  1. 《动手学深度学习》——笔记2

  2. 第二次打卡内容 Task1 过拟合欠拟合,梯度消失,爆炸,LSTM,GRU Tsak2 机器翻译,Seq2Seq, Transformer Task3 卷积神经网络基础和进阶,leNet 过拟合与欠拟合 过拟合:泛化误差高于训练误差,原因是模型过于复杂或者训练数据集比较小。当模型过于复杂时,可以简化模型参数或者加入L2正则化对参数进行惩罚,也可以采用丢弃法泛化误差不会随着训练数据集里的样本数量增加儿增大,所以通常选择大一些的训练数据集。 欠拟合:无法得到较低的训练误差。原因是训练数据集不够或者模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:356kb
    • 提供者:weixin_38537689
  1. 深度学习基础3——过拟合欠拟合、梯度消失与梯度爆炸、常见循环神经网络

  2. 深度学习基础3 文章目录深度学习基础3一、过拟合欠拟合1.概念2.解决过拟合欠拟合的方法(1)权重缩减(2)丢弃法二、梯度消失与梯度爆炸1.消失与爆炸2.随机初始化3.影响模型效果的其他因素三、循环神经网络进阶1.门控循环神经网络/门控循环单元(GRU)2.LSTM:长短期记忆3.深度循环神经网络(Deep RNN)4.双向循环神经网络(BRNN)   一、过拟合欠拟合 1.概念 欠拟合:训练误差(训练集的损失函数的值)较大。 过拟合:训练误差远远小于泛化误差(任意测试样本误差的期望)。 验证集
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:305kb
    • 提供者:weixin_38606639
  1. 过拟合与欠拟合、梯度消失与爆炸、RNN进阶

  2. 过拟合与欠拟合 专业名词解释: 泛化误差(generalization error):指模型在任意一个测试数据样本上表现出来的误差的期望,我们通常用测试集上的误差来近似看待. 验证集(validation set):预留一部分训练数据集出来用于验证和看模型的表现结果,并用来进行模型选择 K折交叉验证(K-fold cross-validation):针对训练数据不够用时的一种改善方法。把原始训练数据集分割成不重合的K份子数据集,然后做K次的训练和验证,最后对这K次的训练误差和验证误差分别求平均
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:314kb
    • 提供者:weixin_38717171
  1. 动手学习深度学习|过拟合、欠拟合及其解决方案

  2. 一 过拟合与欠拟合及其解决方案 过拟合、欠拟合的概念 权重衰减 丢弃法 1 训练误差与泛化误差 训练误差:在训练集上的数据误差; 泛化误差:在其他任意数据集上的误差的期望,常用测试集误差来近似 模型选择:通常用验证集来进行模型选择 K折交叉验证:将数据集分成相等的K个子数据集来进行K次训练和验证,每次将其中1个当作验证集进行验证模型,另外K-1个数据集进行训练,最后K次后取训练误差的均值和验证误差的均值 2 过拟合和欠拟合 过拟合:训练集的误差远小于测试集的误差 欠拟合:模型无法得到较小的训
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:55kb
    • 提供者:weixin_38627826
  1. 强化属性依赖关系的K阶贝叶斯分类模型

  2. 经典K阶贝叶斯分类模型(KDB)进行属性排序时,仅考虑类变量与决策属性间的直接相关,而忽略以决策属性为条件二者之间的条件相关.针对以上问题,在KDB结构的基础上,以充分表达属性间的依赖信息为原则,强化属性间的依赖关系,提升决策属性对分类的决策表达,利用类变量与决策属性间的条件互信息优化属性次序,融合属性约简策略剔除冗余属性,降低模型结构复杂带来的过拟合风险,根据贪婪搜索策略选择最优属性并构建模型结构.在UCI机器学习数据库中数据集的实验结果表明,该模型相比于KDB而言,具有更好的分类精度和突出的
  3. 所属分类:其它

    • 发布日期:2021-01-12
    • 文件大小:648kb
    • 提供者:weixin_38609247
  1. 具有过度拟合功能的大数据在线相似性学习

  2. 在本文中,我们提出了一个通用模型来解决大数据在线相似性学习中的过拟合问题,该模型通常由两种冗余产生:1)特征冗余,即训练数据中存在冗余(无关)特征; 2)等级冗余,即非冗余(或相关)功能位于低等级空间中。 为了克服这些问题,我们的模型旨在通过检测度量矩阵中的多余行和列并将剩余矩阵约束到低秩空间来获得简单而健壮的度量矩阵。 为了减少特征冗余,我们采用组稀疏正则化(即l2; 1-norm)来鼓励稀疏特征集。 为了解决等级冗余,我们采用低等级正则化,即最大范数,而不是像使用核范数的传统模型那样计算SV
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:810kb
    • 提供者:weixin_38548589
« 12 »