您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ANFIS实验,隶属函数解决分片不连续性的原理

  2. 通过ANFIS程序的编写,理解和掌握分片连续线性逼近的一些原理,了解隶属函数解决分片不连续性的原理、前馈神经网络的后向传播求梯度的方法以及区域划分数目对逼近效果的影响。
  3. 所属分类:网络基础

    • 发布日期:2009-07-03
    • 文件大小:5kb
    • 提供者:newhuahua2009
  1. 有理式二阶前向型神经网络

  2. 文章提出了二阶有理式多层前债神经网络的数学模型.有理式多层神经网络的思想来源于函数 退近理论中的有理式退近.有理式前馈神经网络模型是传统前债神经网络模型的推广,能有效地求解函 数退近问题.文幸给出了有理式多层神经网络的学习算法.即误差反传播学习界法
  3. 所属分类:网络基础

    • 发布日期:2010-03-07
    • 文件大小:189kb
    • 提供者:letmeleave
  1. mnist手写字符识别前向传播程序

  2. mnist手写字符识别前向传播文件,来源于“中国大学mooc——曹健老师的Tensorflow笔记”
  3. 所属分类:机器学习

    • 发布日期:2018-10-09
    • 文件大小:2kb
    • 提供者:bydingdong
  1. 前向传播与反向传播

  2. 人工智能技术是现代社会非常火的一门技术,前向传播与后向传播为其中的一项重要技术
  3. 所属分类:机器学习

    • 发布日期:2018-10-21
    • 文件大小:506kb
    • 提供者:weixin_42269719
  1. 2. 三层简单神经网络的前向传播算法.ipynb

  2. 三层简单的神经网络的前向传播算法,适合初学者学习借鉴
  3. 所属分类:深度学习

  1. 卷积神经网络前向及反向传播过程数学解析.pdf

  2. 本文为作者本人对卷积神经网络的前向及反向传播过程数学推导的总结笔记,对深度学习初学者来说是个对卷积神经网络深度了解很好的机会,是自己搭建卷积神经网络的理论支持,欢迎下载,共同进步
  3. 所属分类:深度学习

    • 发布日期:2020-04-14
    • 文件大小:1mb
    • 提供者:qq_42109740
  1. 两环散射振幅:双前向极限和色运动学对偶

  2. 在杨米尔斯理论和引力理论中,我们为散射振幅的两环n点D维积分被提出了新的公式。 循环被整数被写为树级三价图的双前极限,并且是从两个循环散射方程的形式主义推论得出的。 我们讨论了非超对称理论的公式与最大超对称理论的公式的Neveu-Schwarz区段之间的关系,这可以从抗扭弦中得出。 循环被积物的一个重要属性是它们以包括线性传播子的表示形式表示。 此表示形式展示了色运动学对偶的一个循环级版本,它直接从树级通过双前向极限进行跟踪。
  3. 所属分类:其它

    • 发布日期:2020-04-05
    • 文件大小:996kb
    • 提供者:weixin_38686924
  1. 机器学习——神经网络(前向传播).pdf

  2. 本人通过观看吴恩达机器学习视频所记录的笔记,比较潦草,有兴趣的可以看一看。 知识点概要: 1、非线性假设 2、神经元与大脑 3、模型的展示 4、简单例子讲解 5、多元分类
  3. 所属分类:机器学习

    • 发布日期:2020-03-28
    • 文件大小:5mb
    • 提供者:qq_42604176
  1. 深度学习入门课程---实现Pooling层的前向传播与反向传播视频教程.mp4

  2. 深度学习入门课程---实现Pooling层的前向传播与反向传播视频教程,希望能够学习者提供帮助,实现对Pooling层的前向传播与反向传播基础知识的掌握与理解,为后续学习做好铺垫,实现Pooling层的前向传播与反向传播知识的灵活运用
  3. 所属分类:深度学习

    • 发布日期:2020-02-07
    • 文件大小:44mb
    • 提供者:zsb8888
  1. 深度学习入门课程---实现卷积层的前向传播与反向传播视频教程.mp4

  2. 深度学习入门课程---实现卷积层的前向传播与反向传播视频教程,希望能够学习者提供帮助,实现对卷积层的前向传播与反向传播基础知识的掌握与理解,为后续学习做好铺垫,实现卷积层的前向传播与反向传播的灵活运用
  3. 所属分类:深度学习

    • 发布日期:2020-02-07
    • 文件大小:27mb
    • 提供者:zsb8888
  1. 神经网络前向传播在GPU上的实现

  2. 基于CUDA架构在GPU上实现了神经网络前向传播算法,该算法利用神经网络各层内神经元计算的并行性,每层使用一个Kernel函数来并行计算该层神经元的值,每个Kernel函数都根据神经网络的特性和CUDA架构的特点进行优化。实验表明,该算法比普通的CPU上的算法快了约7倍。研究结果对于提高神经网络的运算速度以及CUDA的适用场合都有参考价值。
  3. 所属分类:其它

    • 发布日期:2020-10-20
    • 文件大小:159kb
    • 提供者:weixin_38729108
  1. MINIST手写识别(前向传播的python实现)

  2. 目录数据集的读取神经网络的推理批处理 数据集的读取 以“(训练图像,训练标签),(测试图像,测试标签)”的形式读入的MNIST数据 import sys, os sys.path.append(os.pardir) # 为了导入父目录中的文件而进行的设定 from dataset.mnist import load_mnist (x_train, t_train), (x_test, t_test) = load_mnist(flatten=True, normalize=False) # fl
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:52kb
    • 提供者:weixin_38748210
  1. 风格迁移2-06:MUNIT(多模态无监督)-源码无死角解析(3)-模型框架(前向传播)

  2. 以下链接是个人关于 MUNIT(多模态无监督)-图片风格转换,的所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信 a944284742 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。 风格迁移2-00:MUNIT(多模态无监督)-目录-史上最新无死角讲解 前言 根据上一篇博客,可以知道,模型的构建代码为 train.py 中的如下部分: # Setup model and data loader, 根据配置创建模型 if opt
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:59kb
    • 提供者:weixin_38513669
  1. 风格迁移2-06:MUNIT(多模态无监督)-源码无死角解析(3)-模型框架(前向传播)

  2. 以下链接是个人关于 MUNIT(多模态无监督)-图片风格转换,的所有见解,如有错误欢迎大家指出,我会第一时间纠正。有兴趣的朋友可以加微信 a944284742 相互讨论技术。若是帮助到了你什么,一定要记得点赞!因为这是对我最大的鼓励。 风格迁移2-00:MUNIT(多模态无监督)-目录-史上最新无死角讲解 前言 根据上一篇博客,可以知道,模型的构建代码为 train.py 中的如下部分: # Setup model and data loader, 根据配置创建模型 if opt
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:59kb
    • 提供者:weixin_38640242
  1. 【神经网络】{1} ——向量化、前向传播(学习笔记)

  2. 上一篇博客中讲述了怎样用数学来定义或者计算神经网络的假设函数。 现在来学习一下如何高效进行计算和向量化的实现方法。更重要的是,搞明白为什么这样是表示神经网络的好的方法,并且明白它们如何帮助我们学习复杂的非线性假设函数。 以这个神经网络为例: 计算出假设输出的步骤是上边的这些方程,通过这些方程,我们计算出三个隐藏单元的激活值,然后利用这些值来计算最终输出,假设函数h(x)。 接下来,定义一些额外的项: 定义为z^(2)_1,这样一来就有: 以此类推…… (上标2表示第2层) 这些z值都是线性
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:243kb
    • 提供者:weixin_38518668
  1. 基于Simulink平台的脉冲神经网络前向传播模型的建立与仿真

  2. 基于Simulink平台的脉冲神经网络前向传播模型的建立与仿真
  3. 所属分类:其它

  1. 卷积神经网络反向传播理论推导

  2. 本文来自于csdn,本文首先简单介绍CNN的结构,并不作详细介绍.然后讲解反向传播理论。本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导,还是有很多细节地方需要思考的,比如1、在前向传播的过程中,卷积层的输入,是通过卷积核与前一层的输出特征图卷积得来的,那么在反向传播的过程中该怎么处理?这个就与全连接神经网络不同了。2、由于在前向传播的时候,池化层会对前
  3. 所属分类:其它

  1. 卷积神经网络反向传播理论推导

  2. 本文来自于csdn,本文首先简单介绍CNN的结构,并不作详细介绍.然后讲解反向传播理论。本文只要讲解CNN的反向传播,CNN的反向传播,其实并不是大多所说的和全连接的BP类似,CNN的全连接部分的BP是与它相同,但是CNN中卷积--池化、池化--卷积部分的BP是不一样的,仔细推导,还是有很多细节地方需要思考的,比如1、在前向传播的过程中,卷积层的输入,是通过卷积核与前一层的输出特征图卷积得来的,那么在反向传播的过程中该怎么处理?这个就与全连接神经网络不同了。2、由于在前向传播的时候,池化层会对前
  3. 所属分类:其它

  1. 003_wz_wed_DL_课程一第二周编程题——前向传播.pdf

  2. 003_wz_wed_DL_课程一第二周编程题——前向传播.pdf
  3. 所属分类:讲义

    • 发布日期:2021-01-25
    • 文件大小:1mb
    • 提供者:qq_40869711
  1. 神经网络的前向传播和反向传播推导

  2. 神经网络的前向传播和反向传播推导 x1x_{1}x1​和x2x_{2}x2​表示输入 wijw_{ij}wij​表示权重 bijb_{ij}bij​表示偏置 σi\sigma_{i}σi​表示激活函数,这里使用sigmoid激活函数 outoutout表示输出 yyy表示真实值 η\etaη表示学习率 前向传播 h1=w11x1+w13x2+b11h_{1}=w_{11}x_{1}+w_{13}x_{2}+b_{11}h1​=w11​x1​+w13​x2​+b11​,α1=σ(h1)=11+e
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:99kb
    • 提供者:weixin_38571544
« 12 3 4 5 6 7 8 9 10 »