您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译.zip

  2. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译 nmt-keras 基于 Keras ( Theano和 Tensorflow )的神经机器。库文档:nmt-keras.readthedocs.io基于的注意递归神经网络 NMT 变压器NMT模型
  3. 所属分类:其它

  1. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译.zip

  2. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译 nmt-keras 基于 Keras ( Theano和 Tensorflow )的神经机器。库文档:nmt-keras.readthedocs.io基于的注意递归神经网络 NMT 变压器NMT模型
  3. 所属分类:其它

  1. tention_keras:注意的Keras层实现-源码

  2. Keras注意层 版本 TensorFlow:1.15.0(已测试) TensorFlow:2.0(由于所有后端功能在TF 2.0中都可用,因此应该易于移植。但是尚未经过测试。) 介绍 这是Attention的实现(目前仅支持 ) 项目结构 data (Download data and place it here) |--- small_vocab_en.txt |--- small_vocab_fr.txt layers |--- attention.py (Attention im
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:118kb
    • 提供者:weixin_42109639
  1. nmt-keras:使用Keras进行神经机器翻译-源码

  2. NMT-凯拉斯 Keras的神经机器翻译。 图书馆文件: 注意递归神经网络NMT模型 变压器NMT模型 功能(除了完整的Keras宇宙外):。 :red_exclamation_mark: 多GPU训练(仅适用于Tensorflow)。 。 。 在线学习和交互式神经机器翻译(INMT)。 请参阅。 注释输入序列上的注意力模型。 支持 注意机制。 还支持双重随机注意(来自公式14) 偷看的解码器:先前生成的字是当前时间步的输入。 波束搜索解码。 集成解码( )。 具有长
  3. 所属分类:其它

  1. deep_learning_NLP:用于NLP的深度学习架构的Keras,PyTorch和NumPy实现-源码

  2. :red_heart: 适用于NLP的深度学习架构 该存储库包含一些针对NLP的深度学习架构的Keras,PyTorch和NumPy实现。 有关NLP深度学习的快速理论介绍,我建议您阅读我的。 PyTorch中的神经机器翻译(NMT) 经典seq2seq模型“基于注意力的神经机器翻译的有效方法” ( )的紧凑,功能齐全且备受好评的PyTorch实现,并支持该方法第3.1小节中介绍的三种全球注意力机制论文:(1)点,(2)常规和(3)concat,以及堆叠与非堆叠RNN编码器和解码器,以及双
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:54mb
    • 提供者:weixin_42175776