您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. python tensorflow 深度学习 学习示例程序

  2. 变量 线性回归 手写字体 逻辑回归 多层感知机 多层网络 卷积神经网络 tensorboard 显示优化记录 自编码 原理与PCA相似 长短时记忆 lstm 单词转词向量 中英文 保存和载入网络模型
  3. 所属分类:深度学习

  1. LSTM_TimeSeries_AnomalyDetection[python/Keras]

  2. 异常点检测是指寻找那些偏离标准值或正常值的数据点。异常点有几种常见的类型:短期内产生的峰值,包括最大值、最小值、以及零值;长期的数据合计与上一周期的比较等。检测方法也可以归类为两种:对数据点进行分类,标记异常与否;或是对未来数据走势做预测,给出置信区间。人工神经网络也能够进行异常检测,只是这一方式还处于科研阶段。想要提醒读者的是,尽量从简单的模型开始,针对你的具体问题进行优化,因为通用的算法并不一定是最优的。
  3. 所属分类:深度学习

    • 发布日期:2018-06-12
    • 文件大小:136kb
    • 提供者:qj8380078
  1. 将csv转换为lstm学习用的格式的一个程序,C#编写,运算速度比较慢

  2. 将csv转换为lstm学习用的格式的一个程序,C#编写,运算速度比较慢,谁能优化下,可以给他3个下载币
  3. 所属分类:C#

    • 发布日期:2018-08-25
    • 文件大小:441kb
    • 提供者:caozhy
  1. 10分钟快速入门 PyTorch

  2. PyTorch是使用GPU和CPU优化的深度学习张量库。10分钟快速入门 PyTorch,是一份简单、易学的中文教程,含开发环境和示例代码。10分钟快速入门 PyTorch (0) – 基础 10分钟快速入门 PyTorch (1) – 线性回归 10分钟快速入门 PyTorch (2) – 逻辑回归 10分钟快速入门 PyTorch (3) – 神经网络 10分钟快速入门 PyTorch (4) – CNN 10分钟快速入门 PyTorch (5) – RNN 10分钟快速入门 PyTorc
  3. 所属分类:机器学习

    • 发布日期:2019-01-16
    • 文件大小:15mb
    • 提供者:mzj180
  1. 基于PSO-Adam-GRU的煤矿瓦斯浓度预测模型

  2. 煤矿瓦斯浓度的精准预测是矿井瓦斯防治的关键。为了准确可靠地预测工作面瓦斯浓度,提出了一种基于门控循环单元方法的工作面瓦斯浓度预测模型。采用邻近均值法对数据缺失值和异常值进行补全,采用MinMaxScaler方法对实验数据进行归一化处理,为了提高模型精度和稳定性,采用粒子群算法和Adam算法对GRU超参数进行优化,从而构建了基于PSO-Adam-GRU的工作面瓦斯浓度预测模型。以崔家沟煤矿生产监测数据为样本数据进行模型训练,采用平均绝对误差、均方根误差、运行时间3种评价指标对预测模型性能进行评估,
  3. 所属分类:其它

  1. 遗传算法GA.zip

  2. 利用matlab自己写的遗传算法代码,可对数据进行预测模拟,适用于最优问题的应用选择,原理是基于达尔文的进化论。
  3. 所属分类:交通

    • 发布日期:2020-05-02
    • 文件大小:4kb
    • 提供者:qq_40988861
  1. GA优化LSTM网络.zip

  2. 用遗传算法优化对LSTM网络的层数及每层的神经元数进行优化,包括一个LSTM程序和一个GA程序,运行时只运行GA.py即可。
  3. 所属分类:算法与数据结构

    • 发布日期:2020-03-14
    • 文件大小:2kb
    • 提供者:qq_36758914
  1. PSO-LSTM.py

  2. 使用python实现了PSO算法优化LSTM参数,包括time_step,batch_size,learning rate 和 cell_size等
  3. 所属分类:机器学习

    • 发布日期:2020-01-14
    • 文件大小:12kb
    • 提供者:weizhao12345
  1. 基于深度学习的采煤机截割轨迹预测及模型优化

  2. 提高采煤机记忆截割精度对于实现采煤机截割滚筒的自动调高,提升采煤机自动化水平具有重要意义。针对目前采煤机传统记忆截割方法精度不高的问题,本文根据采煤机截割过程具有一定重复性的特点,提出了一种基于深度长短时记忆(Long Short-term Memory,LSTM)神经网络的采煤机记忆截割轨迹预测方法,通过MATLAB平台实现了模型的构建与模型参数的优化,并使用实际截割数据对深度LSTM神经网络模型进行了验证。预测实验的结果表明,深度LSTM神经网络相对于支持向量回归与梯度提升回归树算法在截割轨
  3. 所属分类:其它

  1. 基于APMSSGA-LSTM的容器云资源预测

  2. 基于APMSSGA-LSTM的容器云资源预测 谢晓兰1,2, 张征征1, 郑强清1, 陈超泉1 1 桂林理工大学信息科学与工程学院,广西 桂林 541004 2 广西嵌入式技术与智能系统重点实验室,广西 桂林 541004 摘要:容器云的发展与应用对资源的高并发、高可用、高弹性、高灵活性等的需求越来越强烈。在对容器云资源预测问题研究现状进行调查后,提出一种采用自适应概率的多选择策略遗传算法(APMSSGA)优化长短期记忆网络(LSTM)的容器云资源预测模型。实验结果表明,与简单遗传算法(SGA)
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:524kb
    • 提供者:weixin_38534683
  1. Bidirectional-stacked-RNN-with-LSTM-GRU-源码

  2. 具有LSTM GRU的双向堆叠RNN 在这里,我为Twitter情感分析数据集使用带有LSTM / GRU单元的双向堆叠RNN开发了情感分类器,。 为了开发模型,我尝试了堆叠RNN的数量,隐藏层的数量,像元类型,跳过连接,梯度修剪和丢失概率。 我使用亚当优化器和二进制交叉熵损失函数,并使用S形函数将预测对数转换为概率。 对于最佳模型,我发现: 计算每个类别的精度,召回率和F1。 绘制损耗与历时曲线和ROC曲线 我的解决方案是在PyTorch中实现的,并且该报告有据可查。 我还有一个笔记
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:88kb
    • 提供者:weixin_42113456
  1. *机器翻译团队:将TVM引入TensorFlow中以优化GPU上的神经机器翻译

  2. 本文于阿里云,神经机器翻译(NMT)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。神经机器翻译(NMT)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。最近,*集团正在为全球电子商务部署NMT服务。目前,我们正在利用Transformer[1]作为我们NMT系统的主要骨干,因为它对于经典的基于RNN/LSTM模型的高效离线训练具有较高的准确度,因此它成为了系统的核心。尽管Transformer对于离线训练阶段很友好,因为它在时间跨度上打破了依赖性,
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:515kb
    • 提供者:weixin_38697063
  1. seq2seq-attn:具有LSTM编码器解码器的序列到序列模型和注意事项-源码

  2. 注意神经网络的序列到序列学习 更新:检出的beta版本,完全支持seq2seq-attn的功能完全重写。 Seq2seq-attn将继续受支持,但是新功能和优化将集中在新代码库上。 在编码器-解码器为LSTM的情况下,以(可选)注意标准序列到序列模型的实现。 编码器可以是双向LSTM。 此外,还可以选择通过运行卷积神经网络,然后运行基于字符嵌入的用作输入)来使用字符(而不是输入单词嵌入)。 注意模型是从,Luong等。 EMNLP2015。我们将全球通用注意力模型与本文中的输入反馈方法结合使
  3. 所属分类:其它

  1. 双向LSTM-CNN的命名实体识别:双向LSTM-CNN的命名实体识别-源码

  2. 更好的NER 具有双向LSTM-CNN的命名实体识别 命名实体识别的双向LSTM_CNN的keras实现。 原始论文可以在找到 该实现与原始论文的不同之处在于: 不考虑词典 使用存储桶可加快培训速度 使用nadam优化程序代替SGD 结果 该模型在约70个时期内产生90.9%的测试F1得分。 对于给定的体系结构,本文产生的结果是91.14体系结构(带有emb + caps的BILSTM-CNN) 数据集 conll-2003 论文网络模型 使用Keras构建网络模型 运行脚本 pytho
  3. 所属分类:其它

  1. 步态数据上的预测建模:使用LSTM将预测模型应用于时序步态数据的实验的最终结果和Python代码。 “重采样和时代测试”显示了一次优化模型参数两次的第一次迭代的结果。 “批次大小和神经元测试”显示第二次测试的结果,优化了其余两个参数-源码

  2. 步态数据上的预测建模:使用LSTM将预测模型应用于时序步态数据的实验的最终结果和Python代码。 “重采样和时代测试”显示了一次优化模型参数两次的第一次迭代的结果。 “批次大小和神经元测试”显示第二次测试的结果,优化了其余两个参数
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:300kb
    • 提供者:weixin_42160425
  1. paraphrase-id-tensorflow:用于复述识别任务的各种模型和代码(Manhattan LSTM,Siamese LSTM + Matching Layer,BiMPM),特别是Quora Question Pairs数据集

  2. 释义张量流 Tensorflow(1.1.0)中实现了多种用于复述的模型和代码。 我非常小心地记录了代码,并解释了整个模型中各个步骤的操作。 希望对于那些想开始使用Tensorflow的人来说,这将是一个教学示例代码! 到目前为止,此仓库已实现: 基本的暹罗LSTM基准,大致基于的模型 如所述,带有附加“匹配层”的Siamese LSTM模型 。 的或多或少的最新的双边多视角匹配模型 。 欢迎添加更多模型/优化或修补现有模型的公关! 模型代码的大部分位于 很多数据处理代码
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:91kb
    • 提供者:weixin_42123456
  1. *机器翻译团队:将TVM引入TensorFlow中以优化GPU上的神经机器翻译

  2. 本文于阿里云,神经机器翻译(NMT)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。神经机器翻译(NMT)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。最近,*集团正在为全球电子商务部署NMT服务。目前,我们正在利用Transformer[1]作为我们NMT系统的主要骨干,因为它对于经典的基于RNN/LSTM模型的高效离线训练具有较高的准确度,因此它成为了系统的核心。尽管Transformer对于离线训练阶段很友好,因为它在时间跨度上打破了依赖性,
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:515kb
    • 提供者:weixin_38661650
  1. 基于APMSSGA-LSTM的容器云资源预测

  2. 容器云的发展与应用对资源的高并发、高可用、高弹性、高灵活性等的需求越来越强烈。在对容器云资源预测问题研究现状进行调查后,提出一种采用自适应概率的多选择策略遗传算法(APMSSGA)优化长短期记忆网络(LSTM)的容器云资源预测模型。实验结果表明,与简单遗传算法(SGA)相比,APMSSGA在LSTM参数最优解组合搜索方面更加高效,APMSSGA-LSTM模型的预测精度较高。
  3. 所属分类:其它

  1. stock-evaluation:汇编技术分析工具(EMA,布林带),基础分析,机器学习模型(LSTM,随机森林,ARIMA),传统的股票预测工具(蒙特卡洛),情绪分析(NLP)以及投资组合优化,目的是对被分析股票的未来价格走势提供更好的理

  2. 股票评估工具 此回购包含一组工具,投资者可以使用这些工具来更好地了解他/她感兴趣的股票。它不建议买卖股票,而是有助于形成对股票的有根据的猜测。潜在的未来股价走势,并因此对要分析的股票做出买/卖/持有决定。 这里包括的工具不是唯一可以使用的工具。 之所以将它们包括在内,是因为我相信没有任何一种工具或模型可以充分理解导致股价波动的所有因素。 此仓库中包含的工具集可分为: 工具-EMA信号,布林带。 -通过YahoofFinancials和YFinance API使用财务数据。 -ARIM
  3. 所属分类:其它

  1. machine_learning_portfolio:具有二次交易成本的投资组合优化-源码

  2. 具有二次交易成本的投资组合优化 market_impact_final是我们记录的代码,用于实施Frazzini等人(2018)中所述的市场影响模型。 _final_backtest是我们根据Achal(2020)的预测进行的回测,他使用RNN / LSTM / GRU对美国股票进行了非线性因子建模。 这包括优化市场影响组合和优化均值方差组合的实施 pf-daily和pf-results包含我们回测的结果
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:593kb
    • 提供者:weixin_42129300
« 12 3 »