您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. nmt-keras:使用Keras进行神经机器翻译-源码

  2. NMT-凯拉斯 Keras的神经机器翻译。 图书馆文件: 注意递归神经网络NMT模型 变压器NMT模型 功能(除了完整的Keras宇宙外):。 :red_exclamation_mark: 多GPU训练(仅适用于Tensorflow)。 。 。 在线学习和交互式神经机器翻译(INMT)。 请参阅。 注释输入序列上的注意力模型。 支持 注意机制。 还支持双重随机注意(来自公式14) 偷看的解码器:先前生成的字是当前时间步的输入。 波束搜索解码。 集成解码( )。 具有长
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:2097152
    • 提供者:weixin_42136791
  1. deep_learning_NLP:用于NLP的深度学习架构的Keras,PyTorch和NumPy实现-源码

  2. :red_heart: 适用于NLP的深度学习架构 该存储库包含一些针对NLP的深度学习架构的Keras,PyTorch和NumPy实现。 有关NLP深度学习的快速理论介绍,我建议您阅读我的。 PyTorch中的神经机器翻译(NMT) 经典seq2seq模型“基于注意力的神经机器翻译的有效方法” ( )的紧凑,功能齐全且备受好评的PyTorch实现,并支持该方法第3.1小节中介绍的三种全球注意力机制论文:(1)点,(2)常规和(3)concat,以及堆叠与非堆叠RNN编码器和解码器,以及双
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:56623104
    • 提供者:weixin_42175776