您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 数据结构与算法---C++版(Adam Drozdek)书中的源代码

  2. 数据结构与算法---C++版(Adam Drozdek)书中的源代码
  3. 所属分类:其它

    • 发布日期:2009-12-10
    • 文件大小:55kb
    • 提供者:yu654321
  1. 数据结构与算法C 数据结构与算法C

  2. [数据结构与算法C..版].Data.Structures.and.Algorithms.in.C...(Adam.Drozdek).2nd.Ed.2001
  3. 所属分类:C++

    • 发布日期:2011-07-13
    • 文件大小:26mb
    • 提供者:Augusdi
  1. 朴素贝叶斯分类算法

  2. 本文档由@Joe Chael提供。下面的例子分为3类: {Short,Tall,Medium},Height为连续属性,假定该属性服从高斯分布 ,数据集如表4-5所示,请用贝叶斯分类方法对例子t=(Adam,M,1.95m)进行分类。详情请参见http://blog.csdn.net/qingdujun/article/details/46598187
  3. 所属分类:数据库

    • 发布日期:2015-06-23
    • 文件大小:179kb
    • 提供者:u012339743
  1. Adam_ A Method for Stochastic Optimization.pdf

  2. 深度学习ADAM算法,分享给大家学习。 We introduce Adam, an algorithm for first-order gradient-based optimization of stochastic objective functions, based on adaptive estimates of lower-order moments. The method is straightforward to implement, is computationally eff
  3. 所属分类:深度学习

    • 发布日期:2017-09-06
    • 文件大小:571kb
    • 提供者:qq_17241683
  1. 深度学习优化算法大全

  2. 深度学习优化算法,3种梯度下降方法,多种梯度下降优化算法(动量法,Nesterov,Adagrad,Adadelta,RMSprop,Adam等优化器),算法可视化及优化器选择,优化SGD
  3. 所属分类:深度学习

    • 发布日期:2018-10-08
    • 文件大小:1mb
    • 提供者:qq_21997625
  1. 基于PSO-Adam-GRU的煤矿瓦斯浓度预测模型

  2. 煤矿瓦斯浓度的精准预测是矿井瓦斯防治的关键。为了准确可靠地预测工作面瓦斯浓度,提出了一种基于门控循环单元方法的工作面瓦斯浓度预测模型。采用邻近均值法对数据缺失值和异常值进行补全,采用MinMaxScaler方法对实验数据进行归一化处理,为了提高模型精度和稳定性,采用粒子群算法和Adam算法对GRU超参数进行优化,从而构建了基于PSO-Adam-GRU的工作面瓦斯浓度预测模型。以崔家沟煤矿生产监测数据为样本数据进行模型训练,采用平均绝对误差、均方根误差、运行时间3种评价指标对预测模型性能进行评估,
  3. 所属分类:其它

  1. 梯度下降算法分析的总结ppt

  2. 常见梯度下降算法latex版本的ppt,主要描述了梯度下降变体BGD,SGD,MBGD,梯度优化算法Momentum、Nesterov accelerated gradient、AdaGrad、RMSProp、Adadelta、Adam,以及如何去选择和使用他们
  3. 所属分类:深度学习

  1. 机器学习中的最优化算法总结

  2. 机器学习中的最优化算法总结下图给出了这些算法的分类与它们之间的关系: 接下来我们将按照这张图来展开进行讲解。 费马定理 对于一个可导函数,寻找其极值的统一做法是寻找导数为0的点,即费马定理。微积分中的 这一定理指出,对于可导函数,在极值点处导数必定为0: 对于多元函数,则是梯度为0 导数为0的点称为驻点。需要注意的是,导数为0只是函数取得极值的必要条件而不是充分条 件,它只是疑似极值点。是不是极值,是极大值还是极小值,还需要看更高阶导数。对于 元函数,假设x是驻点 如果 (x)>0,则在该
  3. 所属分类:机器学习

    • 发布日期:2019-07-02
    • 文件大小:557kb
    • 提供者:abacaba
  1. 各种梯度下降法(SGD、Momentum、NAG、Aagrad、RMSProp、Adam)matlab实现

  2. 里面有各种梯度下降法:SGD、Momentum、NAG、Aagrad、RMSProp、Adam算法代码;
  3. 所属分类:其它

    • 发布日期:2020-06-07
    • 文件大小:4kb
    • 提供者:caojianfa969
  1. 《机器学习从入门到入职》深度学习不同梯度下降算法比较代码keras

  2. 深度学习中,不同梯度下降算法的比较。代码框架用keras。算法包括'sgd', 'rmsprop', 'adagrad', 'adadelta', 'adam', 'nadam‘,《机器学习从入门到入职》
  3. 所属分类:深度学习

    • 发布日期:2020-07-29
    • 文件大小:2kb
    • 提供者:qq_38649386
  1. 改进布谷鸟算法在水质传感器部署上的应用

  2. 针对传统无线传感器网络随机部署分布不均的问题,基于Adam优化算法改进布谷鸟算法的寻优过程,用学习率衰减法改进布谷鸟算法的淘汰概率。以网络覆盖率为优化目标,通过建立网络覆盖率的数学模型来描述水质传感器网络节点覆盖优化问题,最后通过原始的布谷鸟算法与其他3种改进算法的对比,证明改进的布谷鸟算法可以使用较少的迭代次数,使水质传感器网络达到更佳的覆盖性能。
  3. 所属分类:其它

    • 发布日期:2020-10-15
    • 文件大小:521kb
    • 提供者:weixin_38551205
  1. 神经网络预测优化控制算法(用EVC++实现)

  2. 基于嵌入式控制器的变风量空调智能控制系统。介绍了神经网络预测优化控制系统开发和实现方面的内容,其中硬件部分基于研华公司工业级网络化控制器ADAM6500和ADAM系列I/O模块实现,软件部分通过Embeded Visual C++和Windows CE实现。
  3. 所属分类:C++

    • 发布日期:2008-12-13
    • 文件大小:29kb
    • 提供者:zhuweimingok
  1. Adam优化算法原理详解(吴恩达深度学习笔记)

  2. 在介绍Adam之前首先介绍一下momentum和RMSprop优化算法。 一、momentum 1、指数加权平均数 指数加权平均数不仅考虑了当前数值也涵盖了以前的数据对现在的影响。 解释指数加权平均值名称的由来: 指数加权平均值的应用: 使用这种方法进行数据的估计可能不是最精确的,但是这种方法计算简单,节省内存。 指数加权平均数因为设置的第0个值为0,所以对于前几个数都会出现严重的偏差,所以引入了偏差修正。 2.指数加权平均数的偏差修正 3.momentum算法 此算法是梯度下降算法的一种改进
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:454kb
    • 提供者:weixin_38516863
  1. 吴恩达深度学习:第二课,第二周:优化算法

  2. 文章目录Mini-batch 梯度下降法符号定义前向传播后向传播理解mini-batch 梯度下降法J代价函数的不同用1个样本为一个mini-batch和全部样本为一个mini-batch举例合理的簇大小指数加权平均理解指数加权平均指数加权平均的偏差修正动量梯度下降法优化成本函数RMSprop算法Adam 优化算法算法公式:该算法的超参数学习率衰减局部最优的问题 Mini-batch 梯度下降法 首先需要将数据集取为子集Mini-batch,然后进行训练 符号定义 引入了大括号t来代表不同的m
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:492kb
    • 提供者:weixin_38681147
  1. keras_rectified_adam:在Keras中实施整流的Adam-源码

  2. 修正亚当为凯拉斯 修正Keras港口,摘自 修正的ADAM 上面的图片来自本文。 本文的众多贡献之一是,有预热的亚当往往比没有预热的亚当表现更好。 但是,当亚当在没有预热的情况下使用时,在初始迭代期间,梯度具有较大的方差。 这种较大的差异会导致最小值的过冲,从而导致较差的最优值。 另一方面,热身是在前几个时期以非常低的学习率进行训练的想法,以抵消这一较大的差异。 然而,预热的程度-应该使用多长时间和什么学习速率需要广泛的超参数搜索,这通常是昂贵的。 因此,整流ADAM提出了一种动态方差减少
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:486kb
    • 提供者:weixin_42151036
  1. quantum_computation:用于实现和实验量子算法的代码-源码

  2. 量子计算 我将在此存储库中实现各种量子算法。 该存储库使用Cirq和Tensorflow Quantum。 如果有时间,我将在其中的每一个上制作视频,当我这样做时,链接将在此处: 实施算法 TensorFlow-Quantum(TFQ)和Cirq 用于不同TFQ实验的代码。 包括原始代码和教程(以及从pennylane到tfq的翻译教程)。 有关以下内容的视频讨论: : 目前包括: 单Qubit分类器 用QML解决XOR 复制“用量子变分电路进行强化学习” TFQ中的量子近似优化算
  3. 所属分类:其它

  1. 利用Matlab构建深度前馈神经网络以及各类优化算法的应用(SGD、mSGD、AdaGrad、RMSProp、Adam)-附件资源

  2. 利用Matlab构建深度前馈神经网络以及各类优化算法的应用(SGD、mSGD、AdaGrad、RMSProp、Adam)-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-05
    • 文件大小:106byte
    • 提供者:weixin_42186728
  1. 利用Matlab构建深度前馈神经网络以及各类优化算法的应用(SGD、mSGD、AdaGrad、RMSProp、Adam)-附件资源

  2. 利用Matlab构建深度前馈神经网络以及各类优化算法的应用(SGD、mSGD、AdaGrad、RMSProp、Adam)-附件资源
  3. 所属分类:互联网

    • 发布日期:2021-03-02
    • 文件大小:23byte
    • 提供者:weixin_42204453
  1. 基于适应性矩估计的偏振控制算法

  2. 偏振控制可以有效恢复光纤传输过程中因相位偏移而受损的偏振态,是量子通信、光纤传感以及相干光通信等领域中的关键技术。提出了一种基于适应性矩估计(Adam)的偏振控制算法,建立了相应的偏振控制系统模型。基于该模型对Adam偏振控制算法进行了数值仿真,并与经典的随机梯度下降(SGD)算法进行了对比,同时分析了控制精度和噪声幅度对偏振控制效果的影响。仿真结果表明,该算法可以快速收敛到目标偏振态,在衰减率为0.03、噪声幅度为0.003、偏振迭代步数为53时,控制精度可达10 -4。与SGD算法相比,平均
  3. 所属分类:其它

  1. 算法排名-源码

  2. 算法排名 节目“ Serwis do rankowania algorytmow” Adam Stec,Jakub Kowalczyk Opis:计划umozliwiajacy proste porownywanie algorytmow ewolucyjnych。 Stworzony z mysla o testowaniu rozwiazan z CEC2017 i CEC2013上的Zostal。 (Dalsza rozbudowana w pelni mozliwa) 实现C ++语
  3. 所属分类:其它

    • 发布日期:2021-02-16
    • 文件大小:12mb
    • 提供者:weixin_42160425
« 12 3 4 »