您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. softmax解决缓慢学习的推导

  2. ===================================================本文主要是基于二次代价函数在BP神经网络中出现的缓慢学习问题,提出利用softmax柔性最大值函数与对数似然代价函数解决缓慢学习问题。 本文适用于Neural network and machine learning 的学习。 ==================================================
  3. 所属分类:深度学习

    • 发布日期:2018-04-04
    • 文件大小:134kb
    • 提供者:qq_34103961
  1. 【BP神经网络优化】梯度下降法的其他形式

  2. ================================================== 本文主要讲在BP神经网络中除了梯度下降法之外可以优化代价函数的其他方法 适用于 Neural networks and deep learning本书的学习 ==================================================
  3. 所属分类:深度学习

    • 发布日期:2018-04-10
    • 文件大小:447kb
    • 提供者:qq_34103961
  1. 机器学习算法详解

  2. 机器学习算法详解▪ 一、线性回归 ◦ 1、代价函数 ◦ 2、梯度下降算法 ◦ 3、均值归一化 ◦ 4、最终运行结果 ◦ 5、使用scikit-learn库中的线性模型实现 ▪ 二、逻辑回归 ◦ 1、代价函数 ◦ 2、梯度 ◦ 3、正则化 ◦ 4、S型函数(即) ◦ 5、映射为多项式 ◦ 6、使用的优化方法 ◦ 7、运行结果 ◦ 8、使用scikit-learn库中的逻辑回归模型实现 ▪ 逻辑回归_手写数字识别_OneVsAll ◦ 1、随机显示100个数字 ◦ 2、OneVsAll ◦ 3、手
  3. 所属分类:Python

    • 发布日期:2018-04-12
    • 文件大小:3mb
    • 提供者:yuyuyuxiaolei
  1. BP反向传播神经网络介绍及公式推导

  2. 神经网络中的反向传播(BackPropagation)介绍及公式推导 神经网络中的激活函数的作用,最常用的两个激活函数Sigmoid 和TanH 代价函数对介绍二次代价函数(Quadratic Cost),交叉熵代价函数(Cross-entropy Cost)
  3. 所属分类:深度学习

    • 发布日期:2018-07-08
    • 文件大小:382kb
    • 提供者:qq_38562705
  1. Keras中文手册

  2. Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版
  3. 所属分类:讲义

    • 发布日期:2018-09-18
    • 文件大小:3mb
    • 提供者:yanghefeng22
  1. 基于神经网络和模糊逻辑的接入网络选择方法

  2. 本发明公开了一种基于神经网络和模糊逻辑的接入网络选择方法。主要解决网络选择过程中候选网络未来负载变化和参数不确定性对用户性能的影响问题。实现过程是:各候选网络基站收集所在网络当前的负载信息以及用户接收到的信号强度信息;利用集成BP神经网络预测各候选网络未来负载的变化趋势;利用归一化和模糊逻辑处理网络负载和用户接收信号强度;利用代价函数计算候选网络的技术指标;利用多目标决策综合衡量网络的技术指标、网络参数和用户需求,得到各个候选网络的适宜接入度;各个基站将所在网络的适宜接入度通过无线使能器发送给
  3. 所属分类:其它

    • 发布日期:2018-11-23
    • 文件大小:566kb
    • 提供者:ever_157
  1. 5-3tensorboard 网络运行

  2. 载入数据集 mnist=input_data.read_data_sets("MNIST_data",one_hot=True) #设定训练批次的大小 batch_size=50 #计算多少个批次 n_batch=mnist.train.num_examples//batch_size def variable_summaries(var): with tf.name_scope(summaries): mean=tf.reduce_mean(var) tf.summary.scalar(
  3. 所属分类:深度学习

    • 发布日期:2019-04-21
    • 文件大小:10kb
    • 提供者:liliancheng868
  1. Keras中文文档.pdf

  2. Keras官方文档PDF版,带书签,一共307页,完整版,目前最好的版本!欢迎下载!model train on batch(x batch, y batch) 只需一行代码就能评估模型性能: loss and metrics modelevaluate(x test, y test, batch size=128) 或者对新的数据生成预测: classes =model predictx test, batch size=128) 构建一个问答系统,一个图像分类模型,一个神经图灵机,或者其他的
  3. 所属分类:深度学习

    • 发布日期:2019-09-03
    • 文件大小:12mb
    • 提供者:dzgybd
  1. 生成对抗网络(GANs)最新家谱:为你揭秘GANs的前世今生

  2. 生成对抗网络( AN)一经提出就风光无限,更是被Yann L un誉为“十年来机器学 习领域最有趣的想法”。 GAN“左右互搏”的理念几乎众所周知,但正如卷积神经网络(CNN)一样,GAN发展 至今已经衍生出了诸多变化形态。望伪图像的分布尽可能地接近真图像。或者,简单来说,我们想要伪图像尽可能看起 来像真的一样。 值得一提的是,因为GANs是用极小化极大算法做优化的,所以训练过程可能会很不稳 定。不过你可以使用一些“小技巧”来获得更稳健的训练过程。 在下面这个视频中,你可以看到GANs所生成图片
  3. 所属分类:深度学习

    • 发布日期:2019-07-02
    • 文件大小:1mb
    • 提供者:abacaba
  1. pytorch学习(九)——交叉熵代价函数原理及其在MNIST手写数字识别中的应用

  2. 上传时间:2020/11/09 最后测试:2020/11/09 内容:pytorch框架:交叉熵代价函数原理及其在MNIST手写数字识别中的应用(神经网络) 其他:pytorch学习练习代码 相关介绍:https://blog.csdn.net/jerry_liufeng/article/details/109573157
  3. 所属分类:深度学习

    • 发布日期:2020-11-09
    • 文件大小:256kb
    • 提供者:jerry_liufeng
  1. 吴恩达机器学习______学习笔记记录#九、神经网络–学习

  2. 9.1 代价函数  首先引入一些便于稍后讨论的新标记方法:        假设神经网络的训练样本有m个,每个包含一组输入x和一组输出信号y,L表示神经网络层数, 我们回顾逻辑回归问题中我们的代价函数为:       在逻辑回归中,我们只有一个输出变量,又称标量(scalar),也只有一个因变量y,但是在神经网络中,我们可以有很多输出变量,我们的是一个维度为K的向量,并且我们训练集中的因变量也是同样维度的一个向量,因此我们的代价函数会比逻辑回归更加复杂一些,为:         这个看起来复杂很
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:711kb
    • 提供者:weixin_38627104
  1. 【神经网络】{5} ——拟合神经网络参数的代价函数(学习笔记)

  2. 此处开始谈论一个学习算法,它能在给定训练集时,为神经网络拟合参数。 和我们讨论的大多数学习算法一样,我们将从拟合神经网络参数的代价函数开始讲起。 重点讲解神经网络在分类问题中的应用。 假设我们有一个与上图类似的神经网络结构: 再假设我们有一个像这样的训练集: 其中有m组训练样本(x ^(i), y ^(i))。 用大写字母L来表示这个神经网络结构的总层数。(对于上图的网络结构,能够得出L = 4。) 接着用s_l来表示第l层的单元数,也就是神经元的数量,这其中不包括第L层的偏差单元。 我
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:186kb
    • 提供者:weixin_38584043
  1. 神经网络的原理和BP算法

  2. 神经网络,中间我们假设有一个合适的θ矩阵,来完成我们的前向传播,那么我们如何来选择θ呢?开始我们的讨论内容,构造一个神经网络,使用反向传播求解θ。神经网络模型:说明:L:神经网络层数Sl:第l层神经元个数K:输出的多分类情况中的分类数这时候,要求一个好的神经网络就要对所有的边权θ进行优化,这时候我们想到的是损失函数和梯度下降。图中,我们看出神经网络的代价函数是逻辑回归代价函数的一种普遍化表达,我们可以理解为有多个逻辑回归单元。所以,如果是二分类问题代价函数是逻辑回归的代价函数形式,如果是多分类,
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:806kb
    • 提供者:weixin_38626242
  1. 复杂背景下车型识别分类器

  2. 细粒度车型图像的类间特征差异小,在复杂图片背景中识别干扰因素多。为提高模型在复杂背景中对图像的特征提取能力和识别准确度,提出了基于支持向量机(SVM)和深度卷积神经网络(DCNN)的分类器集成模型Softmax-SVM。它将交叉熵代价函数与hinge损失函数相结合,代替Softmax函数层,减少了过拟合的发生。同时,设计了一个10层的DCNN提取特征,避免了手工提取特征的难题。实验数据集为复杂背景下的27类精细车型图像,尤其还包含同一汽车厂商的相近车型。实验结果表明,在不进行大量预处理的前提下,
  3. 所属分类:其它

  1. 神经网络的原理和BP算法

  2. 神经网络,中间我们假设有一个合适的θ矩阵,来完成我们的前向传播,那么我们如何来选择θ呢?开始我们的讨论内容,构造一个神经网络,使用反向传播求解θ。神经网络模型:说明:L:神经网络层数Sl:第l层神经元个数K:输出的多分类情况中的分类数 这时候,要求一个好的神经网络就要对所有的边权θ进行优化,这时候我们想到的是损失函数和梯度 下降。图中,我们看出神经网络的代价函数是逻辑回归代价函数的一种普遍化表达,我们可以理解为有多个 逻辑回归单元。所以,如果是二分类问题代价函数是逻辑回归的代价函数形式,如果是
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:806kb
    • 提供者:weixin_38590996
  1. 利用退火回归神经网络极值搜索算法求纳什均衡解

  2. 针对如何解算n人非合作的动态博弈对策中的纳什均衡解问题, 提出一种利用退火回归神经网络极值搜索算法解算纳什均衡解的方法.在动态博弈对策问题中, 将每个竞争者视为一个代价函数, 利用此算法可以使每个代价函数均收敛于其最小值,从而获得此对策的纳什均衡解.此算法不限制代价函数的具体形式, 同时由于摒弃了正弦激励信号, 解决了一般极值搜索算法中存在的输出量"颤动” 现象和控制量来回切换问题,改善了系统的动态性能.
  3. 所属分类:其它

    • 发布日期:2021-01-15
    • 文件大小:308kb
    • 提供者:weixin_38610682
  1. 部分精英策略并行遗传优化的神经网络盲均衡

  2. 针对高维非凸代价函数下神经网络盲均衡算法收敛速度慢、容易陷入局部极小值的缺点,提出了一种组群并行遗传优化神经网络的方法。根据神经网络拓扑结构进行个体编码,设置控制码和权重系数码以实现对网络拓扑结构和网络权重同时优化。优化迭代过程中根据适应度对个体排序分组,以融合不同遗传算子条件下遗传算法的优势。部分精英策略有效避免最优个体把持进化过程引发早熟的现象。非线性信道条件下的仿真结果证明方法具有更好的收敛性能。
  3. 所属分类:其它

    • 发布日期:2021-01-14
    • 文件大小:386kb
    • 提供者:weixin_38663443