您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Recurrent Neural Networks Tutorial (RNN)

  2. 本文是在自然语言处理上应用比较好的深度网络RNN,包含RNN的入门讲解、代码实现
  3. 所属分类:其它

    • 发布日期:2016-01-29
    • 文件大小:1048576
    • 提供者:yinfeihu
  1. batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现

  2. batch normalization 和 layer normalization 在RNN(LSTM、GRU)上的TensorFlow实现;运行无误,示例为mnist手写体识别
  3. 所属分类:Python

    • 发布日期:2017-04-19
    • 文件大小:808960
    • 提供者:xwd18280820053
  1. tensorflow官方中文文档

  2. TensorFlow 表达了高层次的机器学习计算,大幅简化了第一代系统,并且具备更好的灵活性和可延展性。TensorFlow一大亮点是支持异构设备分布式计算,它能够在各个平台上自动运行模型,从手机、单个CPU / GPU到成百上千GPU卡组成的分布式系统。[1] 从目前的文档看,TensorFlow支持CNN、RNN和LSTM算法,这都是目前在Image,Speech和NLP最流行的深度神经网络模型。
  3. 所属分类:深度学习

    • 发布日期:2017-09-15
    • 文件大小:6291456
    • 提供者:legend_hua
  1. 黄文坚-TensorFlow 实战中文版 完整版 pdf

  2. 在《TensorFlow实战》中,讲述了TensorFlow的基础原理,TF和其他框架的异同。并用具体的代码完整地实现了各种类型的深度神经网络:AutoEncoder、MLP、CNN(AlexNet,VGGNet,Inception Net,ResNet)、Word2Vec、RNN(LSTM,Bi-RNN)、Deep Reinforcement Learning(Policy Network、Value Network)。
  3. 所属分类:机器学习

    • 发布日期:2017-12-15
    • 文件大小:90177536
    • 提供者:xpqingchuyulan
  1. 华泰证券-人工智能选股之循环神经网络模型

  2. 神经网络是近年来迅猛发展的人工智能的核心技术,本篇报告选取具有时 间序列预测能力的循环神经网络作为研究对象,对传统RNN、LSTM、GRU 三种循环神经网络模型进行系统性的测试。在月频的多因子选股方面,循 环神经网络具有出色的样本外预测平均正确率,但是样本外平均AUC 值表 现一般。神经网络在年化超额收益率、信息比率上优于线性回归算法,但 是最大回撤普遍大于线性回归算法。在目前测试的所有神经网络模型中, LSTM 表现最好,GRU 的表现和LSTM 相近
  3. 所属分类:金融

    • 发布日期:2018-07-05
    • 文件大小:1048576
    • 提供者:lxy122425
  1. 长短时记忆神经网络(LSTM)介绍及公式推导

  2. 长短时记忆网络(Long Short Term Memory Network, LSTM),它有效地解决了原始循环神经网络(RNN)的缺陷,在语音识别、图片描述、自然语言处理等许多领域中成功应用。本文讲解由三个Gate(input、forget、output)和一个cell 单元组成的基础LSTM 网络。
  3. 所属分类:深度学习

    • 发布日期:2018-07-08
    • 文件大小:247808
    • 提供者:qq_38562705
  1. 长短时记忆神经网络(LSTM-2)型介绍及公式推导

  2. 长短时记忆网络(Long Short Term Memory Network, LSTM),它有效地解决了原始循环神经网络(RNN)的缺陷,在语音识别、图片描述、自然语言处理等许多领域中成功应用。(LSTM-2)型引入了Ct,Ct-1记忆对神经网络的影响,这个算法的预测效果要更好。
  3. 所属分类:深度学习

    • 发布日期:2018-07-08
    • 文件大小:199680
    • 提供者:qq_38562705
  1. 用于序列学习的RNN\、LSTM的review

  2. RNN入门文献资料,讲述RNN过渡到LSTM的系统理论,值得入手
  3. 所属分类:深度学习

    • 发布日期:2018-09-18
    • 文件大小:998400
    • 提供者:qq_33792911
  1. 21个项目玩转深度学习代码

  2. 读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移应用,还可以使用神经网络生成图像和文本,进行时间序列预测、搭建机器翻译引擎,训练机器玩游戏。全书共包含21 个项目,分为深度卷积网络、RNN网络、深度强化学习三部分。读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow 的过程变得轻松和高效。
  3. 所属分类:深度学习

    • 发布日期:2018-10-19
    • 文件大小:158334976
    • 提供者:weixin_43330397
  1. LSTM human activity recognition

  2. 信号数据的采集来自于嵌入在智能手机中的加速度传感器,实验选用了人类日常行为中的六类常见行为,分别为:走路、慢跑、上楼梯、下楼梯、坐、站立,数据收集后,对数据进行特征抽取,抽取后的特征使用支持向量机的分类功能对特征进行分类,最后识别出人类的六类行为。
  3. 所属分类:深度学习

    • 发布日期:2018-10-20
    • 文件大小:269312
    • 提供者:pumpkin_love
  1. LSTM理论分析

  2. 此为英文文档,内容(按在文档中出现的顺序排列):RNN、BPTT、Vanishing Gradient Problem、Weight Conflict Problem、Treating Vanishing Gradient: Constant Error Carrousel (CEC)、Treating Wight Conflict: Gating Function、CEC + Gates(LSTM)、Why LSTM solves the problem、Experiment : two-s
  3. 所属分类:深度学习

    • 发布日期:2018-11-28
    • 文件大小:111616
    • 提供者:weixin_41906326
  1. 神经网络结构族谱

  2. 各种类型的神经网络结构图谱,P、FF、RBF、DFF、RNN、LSTM、GRU、AE、VAE、DAE、SAE、MC、HN、BM、RBM、DBN、DCN、DN、DCIGN、GAN、LSM、ELM、ESN、DRN、KN、SVM、NTM,没找到免分数的选项,只好最低1分了。
  3. 所属分类:深度学习

    • 发布日期:2019-01-09
    • 文件大小:476160
    • 提供者:topsoftbj
  1. pytorch实现RNN实验.rar

  2. 参考链接:https://blog.csdn.net/qq_37534947/article/details/110442147,包含手动是实现RNN、pytorch实现RNN、LSTM、GRU。
  3. 所属分类:互联网

    • 发布日期:2020-12-01
    • 文件大小:137363456
    • 提供者:qq_37534947
  1. 使用python实现语音文件的特征提取方法

  2. 概述 语音识别是当前人工智能的比较热门的方向,技术也比较成熟,各大公司也相继推出了各自的语音助手机器人,如百度的小度机器人、阿里的天猫精灵等。语音识别算法当前主要是由RNN、LSTM、DNN-HMM等机器学习和深度学习技术做支撑。但训练这些模型的第一步就是将音频文件数据化,提取当中的语音特征。 MP3文件转化为WAV文件 录制音频文件的软件大多数都是以mp3格式输出的,但mp3格式文件对语音的压缩比例较重,因此首先利用ffmpeg将转化为wav原始文件有利于语音特征的提取。其转化代码如下: f
  3. 所属分类:其它

    • 发布日期:2020-12-24
    • 文件大小:106496
    • 提供者:weixin_38628990
  1. Pytorch实现LSTM和GRU示例

  2. 为了解决传统RNN无法长时依赖问题,RNN的两个变体LSTM和GRU被引入。 LSTM Long Short Term Memory,称为长短期记忆网络,意思就是长的短时记忆,其解决的仍然是短时记忆问题,这种短时记忆比较长,能一定程度上解决长时依赖。 上图为LSTM的抽象结构,LSTM由3个门来控制,分别是输入门、遗忘门和输出门。输入门控制网络的输入,遗忘门控制着记忆单元,输出门控制着网络的输出。最为重要的就是遗忘门,可以决定哪些记忆被保留,由于遗忘门的作用,使得LSTM具有长时记忆的功能。对
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:284672
    • 提供者:weixin_38677244
  1. 深度学习之RNN、LSTM及正向反向传播原理

  2. 综述  RNN( Recurrent Neural Network 循环(递归)神经网络) 跟人的大脑记忆差不多。我们的任何决定,想法都是根据我们之前已经学到的东西产生的。RNN通过反向传播和记忆机制,能够处理任意长度的序列,在架构上比前馈神经网络更符合生物神经网络的结构,它的产生也正是为了解决这类问题而应用而生的。     RNN及改进的LSTM等深度学习模型都是基于神经网络而发展的起来的认知计算模型。从原理来看,它们都是源于认知语言学中的“顺序像似性”原理:文字符号与其上下文构成一个“像”,
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:153600
    • 提供者:weixin_38610870
  1. 【人工智能学习】【十二】机器翻译及相关技术

  2. 机器翻译及相关技术 机器翻译(MT)是将一种语言转换成另一种语言,语言之间表达一个含义用的词汇量是不同的,之前讲到的RNN、LSTM、GRU【人工智能学习】【十一】循环神经网络进阶里的输出要么是多对多、要么多对一。参考【人工智能学习】【六】循环神经网络里的图。比如翻译“我我是中国人”——>“I am Chinese”,就会把5个字符翻译成3个词,这种前后不等长的问题是机器翻译要解决的问题。下面介绍Encoder-Decoder模型,在NLP中是一个非常基础的模型。 Encoder-Deco
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:315392
    • 提供者:weixin_38635092
  1. 简单理解LSTM长短期记忆网络

  2. LSTM(Long Short Term Memory,长短期记忆网络)介绍 介绍:LSTM,也就是长短期记忆网络,是一种 RNN 特殊的类型,可以学习长期依赖信息。要想较好理解LSTM请先查看之前写的RNN的简单理解文章。在传统RNN训练经常会出现无法解决长期依赖、梯度消失和梯度爆炸的问题,学习能力有限,在实际任务中的效果往往达不到预期效果。此时引入LSTM,LSTM是RNN的一种变体,是为了解决长期依赖问题而专门设计出来的,可以对有价值的信息进行长期记忆,减小了循环神经网络的学习难度。 应用
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:173056
    • 提供者:weixin_38685831
  1. 深度学习基础3——过拟合欠拟合、梯度消失与梯度爆炸、常见循环神经网络

  2. 深度学习基础3 文章目录深度学习基础3一、过拟合欠拟合1.概念2.解决过拟合欠拟合的方法(1)权重缩减(2)丢弃法二、梯度消失与梯度爆炸1.消失与爆炸2.随机初始化3.影响模型效果的其他因素三、循环神经网络进阶1.门控循环神经网络/门控循环单元(GRU)2.LSTM:长短期记忆3.深度循环神经网络(Deep RNN)4.双向循环神经网络(BRNN)   一、过拟合欠拟合 1.概念 欠拟合:训练误差(训练集的损失函数的值)较大。 过拟合:训练误差远远小于泛化误差(任意测试样本误差的期望)。 验证集
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:312320
    • 提供者:weixin_38606639
  1. python使用RNN实现文本分类

  2. 本文实例为大家分享了使用RNN进行文本分类,python代码实现,供大家参考,具体内容如下 1、本博客项目由来是oxford 的nlp 深度学习课程第三周作业,作业要求使用LSTM进行文本分类。和上一篇CNN文本分类类似,本此代码风格也是仿照sklearn风格,三步走形式(模型实体化,模型训练和模型预测)但因为训练时间较久不知道什么时候训练比较理想,因此在次基础上加入了继续训练的功能。 2、构造文本分类的rnn类,(保存文件为ClassifierRNN.py) 2.1 相应配置参数因为
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:125952
    • 提供者:weixin_38661128
« 12 3 »