您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 多项式拟合正弦函数

  2. 实验要求: 1. 生成数据,加入噪声; 2. 用高阶多项式函数拟合曲线; 3. 用解析解求解两种loss的最优解(无正则项和有正则项) 4. 优化方法求解最优解(梯度下降,共轭梯度); 5. 用你得到的实验数据,解释过拟合。 6. 用不同数据量,不同超参数,不同的多项式阶数,比较实验效果。 7. 语言不限,可以用matlab,python。求解解析解时可以利用现成的矩阵求逆。梯度下降,共轭梯度要求自己求梯度,迭代优化自己写。不许用现成的平台,例如pytorch,tensorflow的自动微分工
  3. 所属分类:机器学习

    • 发布日期:2018-10-14
    • 文件大小:6kb
    • 提供者:qinglingls
  1. MIMO系统中的智能天线技术与空时码快速解码的研究.pdf

  2. MIMO系统中的智能天线技术与空时码快速解码的研究杭州屯f科技大学硕士学位论文 ABSTRACT With the development of communication technology and the growing demand for a variety of applications, communications networks are undergoing great change. It is can be expected that mobile communicati
  3. 所属分类:电信

    • 发布日期:2019-06-29
    • 文件大小:2mb
    • 提供者:qq_42079146
  1. 解决Pytorch训练过程中loss不下降的问题

  2. 今天小编就为大家分享一篇解决Pytorch训练过程中loss不下降的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-18
    • 文件大小:34kb
    • 提供者:weixin_38550722
  1. 解决keras GAN训练是loss不发生变化,accuracy一直为0.5的问题

  2. 主要介绍了解决keras GAN训练是loss不发生变化,accuracy一直为0.5的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
  3. 所属分类:其它

    • 发布日期:2020-09-16
    • 文件大小:74kb
    • 提供者:weixin_38657835
  1. tensorflow使用L2 regularization正则化修正overfitting过拟合方式

  2. L2正则化原理: 过拟合的原理:在loss下降,进行拟合的过程中(斜线),不同的batch数据样本造成红色曲线的波动大,图中低点也就是过拟合,得到的红线点低于真实的黑线,也就是泛化更差。 可见,要想减小过拟合,减小这个波动,减少w的数值就能办到。 L2正则化训练的原理:在Loss中加入(乘以系数λ的)参数w的平方和,这样训练过程中就会抑制w的值,w的(绝对)值小,模型复杂度低,曲线平滑,过拟合程度低(奥卡姆剃刀),参考公式如下图: (正则化是不阻碍你去拟合曲线的,并不是所有参数都会被无脑抑制
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:98kb
    • 提供者:weixin_38712899
  1. tensorflow使用L2 regularization正则化修正overfitting过拟合方式

  2. L2正则化原理: 过拟合的原理:在loss下降,进行拟合的过程中(斜线),不同的batch数据样本造成红色曲线的波动大,图中低点也就是过拟合,得到的红线点低于真实的黑线,也就是泛化更差。 可见,要想减小过拟合,减小这个波动,减少w的数值就能办到。 L2正则化训练的原理:在Loss中加入(乘以系数λ的)参数w的平方和,这样训练过程中就会抑制w的值,w的(绝对)值小,模型复杂度低,曲线平滑,过拟合程度低(奥卡姆剃刀),参考公式如下图: (正则化是不阻碍你去拟合曲线的,并不是所有参数都会被无脑抑制
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:98kb
    • 提供者:weixin_38556822
  1. keras学习率余弦退火CosineAnnealing

  2. keras学习率余弦退火CosineAnnealing1.引言2.余弦退火的原理3.keras实现 1.引言 当我们使用梯度下降算法来优化目标函数的时候,当越来越接近Loss值的全局最小值时,学习率应该变得更小来使得模型不会超调且尽可能接近这一点,而余弦退火(Cosine annealing)可以通过余弦函数来降低学习率。余弦函数中随着x的增加余弦值首先缓慢下降,然后加速下降,再次缓慢下降。这种下降模式能和学习率配合,以一种十分有效的计算方式来产生很好的效果。 在论文Stochastic Gr
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:186kb
    • 提供者:weixin_38672807
  1. [Machine Learning] 交叉熵损失函数 v.s. 平方损失函数(CrossEntropy Loss v.s. Square Loss)

  2. 思考 我们会发现,在机器学习实战中,做分类问题的时候经常会使用一种损失函数(Loss Function)——交叉熵损失函数(CrossEntropy Loss)。但是,为什么在做分类问题时要用交叉熵损失函数而不用我们经常使用的平方损失函数呢? 这时候就应该想一下,损失函数需要做什么?怎样的损失函数才是最合适的? 一般而言,我们都希望损失函数能够做到,当我们预测的值跟目标值越远时,在更新参数的时候,应该减去一个更大的值,做到更快速的下降,并且不容易遇到陷入局部最优、鞍点以及平坦区域等问题。具体可看
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:85kb
    • 提供者:weixin_38720256
  1. keras做CNN的训练误差loss的下降操作

  2. 采用二值判断如果确认是噪声,用该点上面一个灰度进行替换。 噪声点处理:对原点周围的八个点进行扫描,比较。当该点像素值与周围8个点的值小于N时,此点为噪点 。 处理后的文件大小只有原文件小的三分之一,前后的图片内容肉眼几乎无法察觉。 但是这样处理后图片放入CNN中在其他条件不变的情况下,模型loss无法下降,二分类图片,loss一直在8-9之间。准确率维持在0.5,同时,测试集的训练误差持续下降,但是准确率也在0.5徘徊。大概真是需要误差,让优化方法从局部最优跳出来。 使用的activation
  3. 所属分类:其它

    • 发布日期:2021-01-19
    • 文件大小:85kb
    • 提供者:weixin_38565818