点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - rnn训练过程
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
深度学习技术介绍
主要的深度学习关键技术介绍,包括深度学习的一般训练过程,词向量,RNN,CNN等。
所属分类:
深度学习
发布日期:2018-01-26
文件大小:824kb
提供者:
su_pc
Keras中文手册
Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版
所属分类:
讲义
发布日期:2018-09-18
文件大小:3mb
提供者:
yanghefeng22
21个项目玩转深度学习代码
读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移应用,还可以使用神经网络生成图像和文本,进行时间序列预测、搭建机器翻译引擎,训练机器玩游戏。全书共包含21 个项目,分为深度卷积网络、RNN网络、深度强化学习三部分。读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow 的过程变得轻松和高效。
所属分类:
深度学习
发布日期:2018-10-19
文件大小:151mb
提供者:
weixin_43330397
pytorch-基于RNN的MNIST手写数据集识别
代码是利用pytorch框架实现的,识别过程是利用循环神经网络RNN进行训练。
所属分类:
深度学习
发布日期:2019-04-23
文件大小:3kb
提供者:
yuanky214
tensorflow21个项目玩转深度学习源代码.zip
《21 个项目玩转深度学习——基于TensorFlow 的实践详解》以实践为导向,深入介绍了深度学习技术和TensorFlow 框架编程内容。 通过本书,读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移应用,还可以使用神经网络生成图像和文本,进行时间序列预测、搭建机器翻译引擎,训练机器玩游戏。全书共包含21 个项目,分为深度卷积网络、RNN网络、深度强化学习三部分。读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorF
所属分类:
深度学习
发布日期:2019-05-24
文件大小:152mb
提供者:
qq_23094611
模式识别期末复习资料(试卷+PPT内容精选+考点重点归纳总结).zip
重点: 感知器,(批处理算法,改进);如何做多类分类(一对多,多对一),svm;反向传播算法(优缺点);卷积神经网络(如何构造,怎么解释,自组织映射的原理,径向基函数也看看);RNN,STLM作为了解;聚类:如何从混合密度估计到kmeans;准则;挑战性问题;层次聚类;谱聚类(原理,写出一种算法,基本计算过程)。强调问题的描述!!建模!!有无标签,原理(准则,如反向传播-误差传播),任务。adaboost的原理,基本智能过程,为什么有效(最大margin算法-支持向量机)。adaboost那节课
所属分类:
教育
发布日期:2020-03-27
文件大小:8mb
提供者:
qq_36918538
RNN算法推导过程及代码.zip
对循环神经网络的简单认识及一些主要数学过程的推导的文档和应用matlab代码编写一个简单的循环神经网络进行预测的一个matlab程序。
所属分类:
深度学习
发布日期:2019-08-17
文件大小:1mb
提供者:
qq_40680151
基于RNN的化工过程软测量模型研究_陆婷.caj
基于RNN的化工过程软测量模型研究论文,研究了基于回归神经网络(RNN)为化工颜料锌钡白建立质量指标软测量模型的问题。利用SPSS统计软件对过程历史数据行预分析处理,进而利用这些数据训练回归神经网络,建立质量指标消色力的软测量模型。针对回归神经网络训练效率低,泛化能力差等问题,尝试引入一种初始权值优化方法加以改进。仿真结果表明,利用回归神经网络可以为此类化工过程建立具有一定预测能力的软测量模型,引入的初始权值优化方法有助于提高回归神经网络初始训效率,但模型的泛化能力还有待进一步改进。
所属分类:
制造
发布日期:2020-07-11
文件大小:61kb
提供者:
weixin_47743186
NLP-Demo全套代码及数据
这是一个练手MLP、CNN、RNN的demo,pytorch实现。包含预处理,数据加载,模型构建,训练,测试,性能展示训练模型全套。细致讲解整个代码实现过程的每一步。
所属分类:
机器学习
发布日期:2020-07-20
文件大小:356mb
提供者:
maguanzhan7939
基于循环神经网络(RNN)实现影评情感分类
使用循环神经网络(RNN)实现影评情感分类 作为对循环神经网络的实践,我用循环神经网络做了个影评情感的分类,即判断影评的感*彩是正面的,还是负面的。 选择使用RNN来做情感分类,主要是因为影评是一段文字,是序列的,而RNN对序列的支持比较好,能够“记忆”前文。虽然可以提取特征词向量,然后交给传统机器学习模型或全连接神经网络去做,也能取得很好的效果,但只从端对端的角度来看的话,RNN无疑是最合适的。 以下介绍实现过程。 一、数据预处理 本文中使用的训练数据集为https://www.cs.cor
所属分类:
其它
发布日期:2020-12-25
文件大小:119kb
提供者:
weixin_38741966
TextRNN pytorch 面向对象实践
TextRNN pytorch 实践 前言Embedding面向对象编程实现 TextRNN准备数据实现数据集转换:配置参数TextRNN 实现使用TextRNN训练 和测试数据数据集下载: 前言 首先吐槽一下 ,研究机器学习深度学习的时候 发现 各路大神 都是面向过程编程 ,非常简单的东西看的也是云里雾里,代码面向对象编程 很多东西一看就能看明白, 希望借此能抛砖引玉。 另外命名也喜欢用 驼峰命名法 Embedding 理解 textRNN 之前 首先得理解 Embedding ,把这
所属分类:
其它
发布日期:2020-12-21
文件大小:74kb
提供者:
weixin_38584148
《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer
机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
所属分类:
其它
发布日期:2021-01-07
文件大小:342kb
提供者:
weixin_38653602
Recurrent_GRF_Prediction:存储库支持“预测在上坡和下坡运行期间加速度计的连续地面反作用力-源码
预测上坡和下坡行驶期间来自加速度计的连续地面反作用力:递归神经网络解决方案 瑞安·阿尔坎塔拉(Ryan Alcantara) 该存储库包含一个示例,该示例说明了在运行过程中如何使用递归神经网络(RNN)从加速度计数据预测地面反作用力(GRF)数据。如果使用此存储库中的代码或数据,请引用相关的出版物: 储存库内容 data/ :包含示例加速度计数据,GRF数据,条件/人口统计数据和RNN模型文件。 Train_RNN.ipynb :笔记本示例,说明如何准备数据和训练RNN以根据加速度计数据预测G
所属分类:
其它
发布日期:2021-03-20
文件大小:27mb
提供者:
weixin_42144604
Deep_Learning_Copy_Memory_Task:使用自我实现的LSTM,RNN和MLP层在递归神经网络中实现复制记忆任务-源码
复制内存任务 :memo: 关于该项目 :open_book: 该项目是建设2个项目。 LSRMcell,RNNcell和线性层的自我实现。 自我执行复制内存任务。 该项目是在使用PyTorch进行深度学习的微型项目过程中的大学任务。 LSTM.py -LSTM单元的自我实现RNN.py -rnn单元的自我实现MLP.py-线性的自我实现copy_task_base.py-具有3种不同模型的复制任务的自我实现 设置 :gear: 确保您的计算机上安装了python 3.6或更高版本。 克
所属分类:
其它
发布日期:2021-03-13
文件大小:8kb
提供者:
weixin_42128393
statistics_model:统计学系模型实现-源码
统计学习模型学习笔记 记录统计学习模型学习过程中的笔记,其中包括使用sklearn来测试模型,同时包括自己构建模型来实现模型的训练等等。 统计学系方法概论 感知机 k近邻法 k均值 增加k-means聚类算法。 朴素贝叶斯法 决策树 逻辑斯蒂回归与最大熵模型 其中增加了线性回归的推导。 支持向量机 提升方法 AdaBoost 增加AdaBoost方法。 EM算法及其推广 隐马尔可夫模型 条件随机场 深度学习 额外增加神经网络这一章节补充神经网络相关知识,主要是BP误差反向传播算法的推导。 有线电
所属分类:
其它
发布日期:2021-03-11
文件大小:1mb
提供者:
weixin_42144707
基于Transformer模型的智能问答原理详解
图一就是Transformer模型的框架,不过这里的encoder和decoder不再是RNN结构,拆开来看,细节如图二:原始论文里,作者设置了6层encoder与6层decoder结构。至于为什么是6,这就是一个超参数而已,可以根据实际情况设置为其他值。从图二中可以看到,计算流程是:输入的句子经过逐层编码后,最上层的encoder会输出中间结果,这个中间结果在每一层decoder中都会用到。同时decoder的计算也是从下往上进行,直到最后输出预测结果。这里省略的是最下层decoder的输入:
所属分类:
其它
发布日期:2021-02-24
文件大小:924kb
提供者:
weixin_38691006
na-源码
关于rnnXna rnnXna是用于训练递归神经网络(RNN)的工具,用于对DNA和RNA序列数据集进行分类和回归模型。 工具支持训练和掠夺模式,可以使用经过训练的模型来推断关于新输入日期集的新预测。 安装与设定 rnnXna可以使用Anaconda软件包管理器(Conda)安装,而无需解决任何依赖性问题。 如果安装了anaconda或miniconda程序包管理器,只需运行以下命令以安装rnnXna及其依赖项。 conda install -c gabaldonlab rnnxna
所属分类:
其它
发布日期:2021-02-24
文件大小:68mb
提供者:
weixin_42112685
Data_mining_HW5-假新闻检测2-源码
Data_mining_HW5-假新闻检测2 同HW4针对假新闻作分析,预测一则新闻是否可靠 资料集共有两个: 1:假0:真分别利用RNN与LSTM对“ train.csv”的资料建模,对“ test.csv”测试计算准确度 使用Keras或Tensorflow来完成 注:“ test.csv”的标签在“ sample_submission.csv”里面 作业流程: 资料前处理: 一种。读取资料,利用分割符号切割字串,建立train&test之DataFrame b。去除停顿词 C。文字转
所属分类:
其它
发布日期:2021-02-23
文件大小:9mb
提供者:
weixin_42125770
AIR-System-Training:基于RNN的AIR系统的数据预处理和培训-源码
空气系统训练 基于RNN的AIR系统的数据预处理和培训 培训管道培训每个分类RNN的过程如下: 步骤1-将训练数据的文件列表作为其自己的熊猫数据帧加载到内存中。 每个数据框列出了CSV的文件名,这些文件名包含相应集合(训练,验证和测试)的数据流序列。 步骤2 –对于数据框中列出的每个文件名,都会生成相应的y值/输出列表,以表示列出的每个流的二进制分类。 步骤3-将数据帧中表示的每个流文件作为流步骤/序列的列表/数组加载到内存中。 第4步-序列填充/截断–超过10000步/序列的负载流将通
所属分类:
其它
发布日期:2021-02-09
文件大小:6kb
提供者:
weixin_42121905
基于Transformer模型的智能问答原理详解
图一就是Transformer模型的框架,不过这里的encoder和decoder不再是RNN结构,拆开来看,细节如图二:原始论文里,作者设置了6层encoder与6层decoder结构。至于为什么是6,这就是一个超参数而已,可以根据实际情况设置为其他值。从图二中可以看到,计算流程是:输入的句子经过逐层编码后,最上层的encoder会输出中间结果,这个中间结果在每一层decoder中都会用到。同时decoder的计算也是从下往上进行,直到最后输出预测结果。这里省略的是最下层decoder的输入:
所属分类:
其它
发布日期:2021-01-27
文件大小:924kb
提供者:
weixin_38632146
«
1
2
»