您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 变压器:变压器的TensorFlow实现:您需要注意-源码

  2. [更新]TensorFlow实现 当我在2017年打开此存储库时,还没有官方代码。 我尝试按照我的理解实施该论文,但是毫不奇怪,它存在多个错误。 我意识到他们主要是由于在这里发表文章的人,所以我非常感谢他们所有人。 尽管有以及其他几个非官方的github仓库,但我还是决定更新自己的仓库。 此更新专注于: 可读/可理解的代码编写 模块化(但不要太多) 修改已知的错误。 (屏蔽,位置编码等) 更新到TF1.12。 (tf.data,...) 添加一些缺少的组件(bpe,共享的权重矩阵等)
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:801kb
    • 提供者:weixin_42131541
  1. 注意就是您所需要的所有keras:变压器的Keras + TensorFlow实现:注意就是您所需要的-源码

  2. 注意中的Transformer模型是您所需要的:Keras实现。 变压器的Keras + TensorFlow实现:“”(Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年) 用法 请参考en2de_main.py和pinyin_main.py en2de_main.py 此任务与任务相同:WM
  3. 所属分类:其它

  1. 注意就是所有您需要的pytorch:“注意就是您所需要的”中Transformer模型的PyTorch实现-源码

  2. 注意就是您所需要的:Pytorch实现 这是“”中的变压器模型的PyTorch实现(Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N.Gomez,Lukasz Kaiser,Illia Polosukhin,arxiv,2017年)。 一种新颖的序列到序列框架利用自我注意机制,而不是卷积运算或递归结构,在WMT 2014英德翻译任务上实现了最先进的表现。 (2017/06/12) 官方Ten
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:26kb
    • 提供者:weixin_42150745