您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 深度学习技术介绍

  2. 主要的深度学习关键技术介绍,包括深度学习的一般训练过程,词向量,RNN,CNN等。
  3. 所属分类:深度学习

    • 发布日期:2018-01-26
    • 文件大小:824kb
    • 提供者:su_pc
  1. Keras中文手册

  2. Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版
  3. 所属分类:讲义

    • 发布日期:2018-09-18
    • 文件大小:3mb
    • 提供者:yanghefeng22
  1. 21个项目玩转深度学习代码

  2. 读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移应用,还可以使用神经网络生成图像和文本,进行时间序列预测、搭建机器翻译引擎,训练机器玩游戏。全书共包含21 个项目,分为深度卷积网络、RNN网络、深度强化学习三部分。读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorFlow 的过程变得轻松和高效。
  3. 所属分类:深度学习

    • 发布日期:2018-10-19
    • 文件大小:151mb
    • 提供者:weixin_43330397
  1. pytorch-基于RNN的MNIST手写数据集识别

  2. 代码是利用pytorch框架实现的,识别过程是利用循环神经网络RNN进行训练。
  3. 所属分类:深度学习

    • 发布日期:2019-04-23
    • 文件大小:3kb
    • 提供者:yuanky214
  1. tensorflow21个项目玩转深度学习源代码.zip

  2. 《21 个项目玩转深度学习——基于TensorFlow 的实践详解》以实践为导向,深入介绍了深度学习技术和TensorFlow 框架编程内容。 通过本书,读者可以训练自己的图像识别模型、进行目标检测和人脸识别、完成一个风格迁移应用,还可以使用神经网络生成图像和文本,进行时间序列预测、搭建机器翻译引擎,训练机器玩游戏。全书共包含21 个项目,分为深度卷积网络、RNN网络、深度强化学习三部分。读者可以在自己动手实践的过程中找到学习的乐趣,了解算法和编程框架的细节,让学习深度学习算法和TensorF
  3. 所属分类:深度学习

    • 发布日期:2019-05-24
    • 文件大小:152mb
    • 提供者:qq_23094611
  1. 模式识别期末复习资料(试卷+PPT内容精选+考点重点归纳总结).zip

  2. 重点: 感知器,(批处理算法,改进);如何做多类分类(一对多,多对一),svm;反向传播算法(优缺点);卷积神经网络(如何构造,怎么解释,自组织映射的原理,径向基函数也看看);RNN,STLM作为了解;聚类:如何从混合密度估计到kmeans;准则;挑战性问题;层次聚类;谱聚类(原理,写出一种算法,基本计算过程)。强调问题的描述!!建模!!有无标签,原理(准则,如反向传播-误差传播),任务。adaboost的原理,基本智能过程,为什么有效(最大margin算法-支持向量机)。adaboost那节课
  3. 所属分类:教育

    • 发布日期:2020-03-27
    • 文件大小:8mb
    • 提供者:qq_36918538
  1. RNN算法推导过程及代码.zip

  2. 对循环神经网络的简单认识及一些主要数学过程的推导的文档和应用matlab代码编写一个简单的循环神经网络进行预测的一个matlab程序。
  3. 所属分类:深度学习

    • 发布日期:2019-08-17
    • 文件大小:1mb
    • 提供者:qq_40680151
  1. 基于RNN的化工过程软测量模型研究_陆婷.caj

  2. 基于RNN的化工过程软测量模型研究论文,研究了基于回归神经网络(RNN)为化工颜料锌钡白建立质量指标软测量模型的问题。利用SPSS统计软件对过程历史数据行预分析处理,进而利用这些数据训练回归神经网络,建立质量指标消色力的软测量模型。针对回归神经网络训练效率低,泛化能力差等问题,尝试引入一种初始权值优化方法加以改进。仿真结果表明,利用回归神经网络可以为此类化工过程建立具有一定预测能力的软测量模型,引入的初始权值优化方法有助于提高回归神经网络初始训效率,但模型的泛化能力还有待进一步改进。
  3. 所属分类:制造

    • 发布日期:2020-07-11
    • 文件大小:61kb
    • 提供者:weixin_47743186
  1. NLP-Demo全套代码及数据

  2. 这是一个练手MLP、CNN、RNN的demo,pytorch实现。包含预处理,数据加载,模型构建,训练,测试,性能展示训练模型全套。细致讲解整个代码实现过程的每一步。
  3. 所属分类:机器学习

    • 发布日期:2020-07-20
    • 文件大小:356mb
    • 提供者:maguanzhan7939
  1. 基于循环神经网络(RNN)实现影评情感分类

  2. 使用循环神经网络(RNN)实现影评情感分类 作为对循环神经网络的实践,我用循环神经网络做了个影评情感的分类,即判断影评的感*彩是正面的,还是负面的。 选择使用RNN来做情感分类,主要是因为影评是一段文字,是序列的,而RNN对序列的支持比较好,能够“记忆”前文。虽然可以提取特征词向量,然后交给传统机器学习模型或全连接神经网络去做,也能取得很好的效果,但只从端对端的角度来看的话,RNN无疑是最合适的。 以下介绍实现过程。 一、数据预处理 本文中使用的训练数据集为https://www.cs.cor
  3. 所属分类:其它

    • 发布日期:2020-12-25
    • 文件大小:119kb
    • 提供者:weixin_38741966
  1. TextRNN pytorch 面向对象实践

  2. TextRNN pytorch 实践 前言Embedding面向对象编程实现 TextRNN准备数据实现数据集转换:配置参数TextRNN 实现使用TextRNN训练 和测试数据数据集下载: 前言 首先吐槽一下 ,研究机器学习深度学习的时候 发现 各路大神 都是面向过程编程 ,非常简单的东西看的也是云里雾里,代码面向对象编程 很多东西一看就能看明白, 希望借此能抛砖引玉。 另外命名也喜欢用 驼峰命名法 Embedding 理解 textRNN 之前 首先得理解 Embedding ,把这
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:74kb
    • 提供者:weixin_38584148
  1. 《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:342kb
    • 提供者:weixin_38653602
  1. Recurrent_GRF_Prediction:存储库支持“预测在上坡和下坡运行期间加速度计的连续地面反作用力-源码

  2. 预测上坡和下坡行驶期间来自加速度计的连续地面反作用力:递归神经网络解决方案 瑞安·阿尔坎塔拉(Ryan Alcantara) 该存储库包含一个示例,该示例说明了在运行过程中如何使用递归神经网络(RNN)从加速度计数据预测地面反作用力(GRF)数据。如果使用此存储库中的代码或数据,请引用相关的出版物: 储存库内容 data/ :包含示例加速度计数据,GRF数据,条件/人口统计数据和RNN模型文件。 Train_RNN.ipynb :笔记本示例,说明如何准备数据和训练RNN以根据加速度计数据预测G
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:27mb
    • 提供者:weixin_42144604
  1. Deep_Learning_Copy_Memory_Task:使用自我实现的LSTM,RNN和MLP层在递归神经网络中实现复制记忆任务-源码

  2. 复制内存任务 :memo: 关于该项目 :open_book: 该项目是建设2个项目。 LSRMcell,RNNcell和线性层的自我实现。 自我执行复制内存任务。 该项目是在使用PyTorch进行深度学习的微型项目过程中的大学任务。 LSTM.py -LSTM单元的自我实现RNN.py -rnn单元的自我实现MLP.py-线性的自我实现copy_task_base.py-具有3种不同模型的复制任务的自我实现 设置 :gear: 确保您的计算机上安装了python 3.6或更高版本。 克
  3. 所属分类:其它

  1. statistics_model:统计学系模型实现-源码

  2. 统计学习模型学习笔记 记录统计学习模型学习过程中的笔记,其中包括使用sklearn来测试模型,同时包括自己构建模型来实现模型的训练等等。 统计学系方法概论 感知机 k近邻法 k均值 增加k-means聚类算法。 朴素贝叶斯法 决策树 逻辑斯蒂回归与最大熵模型 其中增加了线性回归的推导。 支持向量机 提升方法 AdaBoost 增加AdaBoost方法。 EM算法及其推广 隐马尔可夫模型 条件随机场 深度学习 额外增加神经网络这一章节补充神经网络相关知识,主要是BP误差反向传播算法的推导。 有线电
  3. 所属分类:其它

  1. 基于Transformer模型的智能问答原理详解

  2. 图一就是Transformer模型的框架,不过这里的encoder和decoder不再是RNN结构,拆开来看,细节如图二:原始论文里,作者设置了6层encoder与6层decoder结构。至于为什么是6,这就是一个超参数而已,可以根据实际情况设置为其他值。从图二中可以看到,计算流程是:输入的句子经过逐层编码后,最上层的encoder会输出中间结果,这个中间结果在每一层decoder中都会用到。同时decoder的计算也是从下往上进行,直到最后输出预测结果。这里省略的是最下层decoder的输入:
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:924kb
    • 提供者:weixin_38691006
  1. na-源码

  2. 关于rnnXna rnnXna是用于训练递归神经网络(RNN)的工具,用于对DNA和RNA序列数据集进行分类和回归模型。 工具支持训练和掠夺模式,可以使用经过训练的模型来推断关于新输入日期集的新预测。 安装与设定 rnnXna可以使用Anaconda软件包管理器(Conda)安装,而无需解决任何依赖性问题。 如果安装了anaconda或miniconda程序包管理器,只需运行以下命令以安装rnnXna及其依赖项。 conda install -c gabaldonlab rnnxna
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:68mb
    • 提供者:weixin_42112685
  1. Data_mining_HW5-假新闻检测2-源码

  2. Data_mining_HW5-假新闻检测2 同HW4针对假新闻作分析,预测一则新闻是否可靠 资料集共有两个: 1:假0:真分别利用RNN与LSTM对“ train.csv”的资料建模,对“ test.csv”测试计算准确度 使用Keras或Tensorflow来完成 注:“ test.csv”的标签在“ sample_submission.csv”里面 作业流程: 资料前处理: 一种。读取资料,利用分割符号切割字串,建立train&test之DataFrame b。去除停顿词 C。文字转
  3. 所属分类:其它

  1. AIR-System-Training:基于RNN的AIR系统的数据预处理和培训-源码

  2. 空气系统训练 基于RNN的AIR系统的数据预处理和培训 培训管道培训每个分类RNN的过程如下: 步骤1-将训练数据的文件列表作为其自己的熊猫数据帧加载到内存中。 每个数据框列出了CSV的文件名,这些文件名包含相应集合(训练,验证和测试)的数据流序列。 步骤2 –对于数据框中列出的每个文件名,都会生成相应的y值/输出列表,以表示列出的每个流的二进制分类。 步骤3-将数据帧中表示的每个流文件作为流步骤/序列的列表/数组加载到内存中。 第4步-序列填充/截断–超过10000步/序列的负载流将通
  3. 所属分类:其它

  1. 基于Transformer模型的智能问答原理详解

  2. 图一就是Transformer模型的框架,不过这里的encoder和decoder不再是RNN结构,拆开来看,细节如图二:原始论文里,作者设置了6层encoder与6层decoder结构。至于为什么是6,这就是一个超参数而已,可以根据实际情况设置为其他值。从图二中可以看到,计算流程是:输入的句子经过逐层编码后,最上层的encoder会输出中间结果,这个中间结果在每一层decoder中都会用到。同时decoder的计算也是从下往上进行,直到最后输出预测结果。这里省略的是最下层decoder的输入:
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:924kb
    • 提供者:weixin_38632146
« 12 »