您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 感知器MATLAB算法

  2. 用MATLAB实现感知器线性分类。只要训练样本集是线性可分的,对于任意的初值 a(1) ,经过有限次叠代,算法必定收敛。 感知器是最简单可以“学习”的机器,可以解决线性可分的问题。当样本线性不可分时,感知器算法不会收敛。实际应用中直接使用感知器的场合并不多,但他是很多复杂算法的基础。
  3. 所属分类:机器学习

    • 发布日期:2018-03-28
    • 文件大小:382byte
    • 提供者:zhouxiaozhouer
  1. Deeplearning深度学习笔记v5.6_吴恩达.zip

  2. 一直以为机器学习的重点在于设计精巧、神秘的算法来模拟人类解决问题。学了这门课程才明白如何根据实际问题优化、调整模型更为重要。事实上,机器学习所使用的核心算法几十年来都没变过。 什么是机器学习呢?以二类分类监督学习为例,假设我们已经有了一堆训练数据,每个训练样本可以看作n维空间里的一个点,那么机器学习的目标就是利用统计算法算出一个将这个n维空间分成两个部分(也就是把空间切成两半)的分界面,使得相同类别的训练数据在同一个部分里(在分界面的同侧)。而所用的统计算法无非是数学最优化理论的那些算法,梯度
  3. 所属分类:深度学习

    • 发布日期:2019-05-24
    • 文件大小:22mb
    • 提供者:qq_23094611
  1. 机器学习概念.pdf

  2. 介绍了机器学习中,监督学习、无监督学习、过拟合,以及采取相关的措施进行处理。6考虑下面样本特征为二维欧式空间点的两分类问题的训练集,分别用最近邻法和三近邻法给出测试样本点(1,1)的 类别 x0011122 1+ 2|+ 2 解:(1)计算距离 (x, y)Distance-(1, 1) (-1,1)Y(-1-12+(1-1)2)=2 (0,1)v(0-1)2+(1-1)^2)=1+ (02)(0-1y2+(2-1)^2)= (1,1)Y(1-1)2+(-1-1)^2)=2 (10)v(1-1)
  3. 所属分类:机器学习

    • 发布日期:2019-07-26
    • 文件大小:438kb
    • 提供者:qiu1440528444
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1mb
    • 提供者:abacaba
  1. 机器学习算法基础学习总结

  2. 机器学习算法基础学习总结2.基本算法 2.1 Logistic回归 优点:计算代价不高,易于理解和实现。 缺点:容易欠拟合,分类精度可能不高 适用数据类型:数值型和标称型数据。 类别:分类算法。 试用场景:解决二分类问题。 简述: Logistic回归算法基于 Sigmoid函数,或者说 Sigmoid就是逻辑回归函数。 Sigmoid函数定义如下:1/(1-exp(-z))。函数值域范围(0,1)。可以用来做分 类器。 Sigmoid函数的函数曲线如下: 逻辑凹归模型分解如下:(1)首先将不同
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:305kb
    • 提供者:abacaba
  1. 机器学习25:可能导致训练网络不收敛的几种原因

  2. 机器学习25:可能导致训练网络不收敛的几种原因 1.可能导致训练网络不收敛的几个原因:         (1)没有做数据归一化;         (2)没有检查过预处理结果和最终的训练测试结果;         (3)没有做数据预处理;         (4)没有使用正则化;         (5)Batch Size设的太大;         (6)学习率设的不合适;         (7)最后一层的激活函数错误;         (8)网络存在坏梯度,比如当Relu对负值的梯度为0,反向传播
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:31kb
    • 提供者:weixin_38725450
  1. 机器学习中梯度下降的几种方式

  2. 批量梯度下降 定义:批量梯度下降的一次训练喂入训练集中的所有数据,使用所有数据来更新权重,也就是batch_size=训练集大小 算法 3. 特点 求和中的运算都是向量运算 参数的更新需要计算所有数据的平均值之后才能进行更新,更新缓慢,时间复杂度是O(n),但是下降路径十分平滑 随机梯度下降 定义:每次进行参数更新的时候仅仅使用数据集中的一个数据,也即batch_size = 1 算法 特点 更新参数的时候每次只用计算一个数据,因此能够更快地更新参数 但是因为每次只使用了一个数据,所以更新参
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:291kb
    • 提供者:weixin_38616359
  1. 提高加权ELM以实现不平衡学习

  2. 用于单层前馈神经网络(SLFN)的极限学习机(ELM)是一种强大的机器学习技术,并且以其快速的学习速度和良好的泛化性能而受到关注。 最近,提出了加权ELM来处理具有不平衡类分布的数据。 加权ELM的关键本质是为每个训练样本分配了额外的权重。 尽管提供了一些经验加权方案,但是如何确定更好的样本权重仍然是一个悬而未决的问题。 在本文中,我们提出了一种Boosting加权ELM,它将加权ELM无缝地嵌入到经过修改的AdaBoost框架中,以解决上述问题。 直观地,反映训练样本重要性的AdaBoost框
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:559kb
    • 提供者:weixin_38506182