您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. giza++及模型代码解析

  2. 该资源主要用于机器翻译,解决多语言翻译间的词对齐,具体包含: 1.giza-pp-v1.0.7.tar.gz 2.giza模型代码解析
  3. 所属分类:深度学习

    • 发布日期:2018-04-03
    • 文件大小:271360
    • 提供者:u013614465
  1. 平行语料,用于机器翻译等的预处理语料

  2. 平行语料库,用于机器翻译等的预处理语料。 汉英双语语料和德英双语语料,可以用来训练NMT模型,谨供学术实验用
  3. 所属分类:深度学习

    • 发布日期:2018-05-02
    • 文件大小:952320
    • 提供者:wzz555
  1. 谷歌开源神经机器翻译模型底层框架seq2seq.zip

  2. 去年,谷歌发布了 Google Neural Machine Translation (GNMT),即谷歌神经机器翻译,一个 sequence-to-sequence (“seq2seq”) 的模型。现在,它已经用于谷歌翻译的产品系统。   虽然消费者感受到的提升并不十分明显,谷歌宣称,GNMT 对翻译质量带来了巨大飞跃。   但谷歌想做的显然不止于此。其在官方博客表示:“由于外部研究人员无法获取训练这些模型的框架,GNMT 的影响力受到了束缚。”   如何把该技术的影响力最大化?答案只有一个
  3. 所属分类:其它

    • 发布日期:2019-07-19
    • 文件大小:450560
    • 提供者:weixin_39841856
  1. 5机器翻译与NLP.zip

  2. 基于深度学习的中英文翻译,基于seq2seq模型,包括课程和代码,以及数据集,代码有注释
  3. 所属分类:深度学习

    • 发布日期:2020-05-09
    • 文件大小:27262976
    • 提供者:lxhdy12345
  1. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译.zip

  2. nmt-keras, 带 Keras ( theano/tensorflow )的神经机器翻译 nmt-keras 基于 Keras ( Theano和 Tensorflow )的神经机器。库文档:nmt-keras.readthedocs.io基于的注意递归神经网络 NMT 变压器NMT模型
  3. 所属分类:其它

    • 发布日期:2019-10-09
    • 文件大小:2097152
    • 提供者:weixin_38744207
  1. 语义/句法/情节性语言模型的三种情景关联在统计翻译中的应用

  2. 最近,Cai提出了一种新的包含句义的语言的语义/句法/情节模型,同时从中推导了三种对应的机器翻译原理,首先是建立单词/短语词典,其次是翻译语法。第三,通过统计翻译来确定某些具有多种含义的单词/短语的含义。 在本文中,我们发现了这种语言模型的三种情节关联,它们在统计翻译中的应用前景广阔:1)通过行为将生/自然词和具有多种含义的短语分类,同时采用动物学/组织学/物理/类别和情感/行为/逻辑/特征/改变字符来对名词和动词进行分类,将情感/行为/逻辑/特征/改变/空间/时间特征对形容词和副词进行分类,有
  3. 所属分类:其它

    • 发布日期:2020-06-03
    • 文件大小:310272
    • 提供者:weixin_38692631
  1. NLP_机器翻译实验

  2. 本次NMT task为英文翻译为中文, 参考指标为BLEU(暂定). 实验报告(pdf) 源码; tensorboard日志文件 test2数据集结果(格式应和test1中文数据集相同). 实验报告至少应该包括: 预处理过程, 模型结构, 超参数配置, 评估方法; test1上的最终结果(非test2); 5个较低分数的翻译结果对比; attention对比: soft, hard, global, local. 如果采用transformer架构, 请加入self-attention的对比
  3. 所属分类:深度学习

    • 发布日期:2020-06-07
    • 文件大小:4194304
    • 提供者:daniellibin
  1. 【中文】【吴恩达课后编程作业】Course 5 - 序列模型 - 第三周作业 - 机器翻译与触发词检测.zip

  2. 【中文】【吴恩达课后编程作业】Course 5 - 序列模型 - 第三周作业 - 机器翻译与触发词检测
  3. 所属分类:深度学习

    • 发布日期:2020-07-06
    • 文件大小:219152384
    • 提供者:weixin_41909733
  1. 《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:271360
    • 提供者:weixin_38596485
  1. Seq2seq模型、机器翻译学习笔记

  2. Seq2seq模型 当输入和输出都是不定长序列时,可以使⽤编码器—解码器(encoder-decoder) 或者seq2seq模型。这两个模型本质上都⽤到了两个循环神经⽹络,分别叫做编码器和解码器。编码器⽤来分析输⼊序列,解码器⽤来⽣成输出序列。 图中描述了使⽤编码器—解码器将英语句⼦翻译成法语句⼦的⼀种⽅法。在训练数据集中,可以在每个句⼦后附上特殊符号“”(end of sequence)以表⽰序列的终⽌。编码器每个时间步的输⼊依次为英语句⼦中的单词、标点和特殊符号“”。图中使⽤了编码器在最
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38550722
  1. 《动手学深度学习》笔记 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch 分词 字符串—单词组成的列表 建立词典 单词组成的列表—单词id组成的列表 载入数据集 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequen
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:315392
    • 提供者:weixin_38739837
  1. 机器翻译及相关技术等打卡

  2. 一、机器翻译及相关技术 1.机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 all()函数:用于判断给定的可迭代参数中所有元素是否都为True, 返回:iterable中所有元素不为0、“”、False、None外都为True。 2.Encoder-Decoder(解决输入输出长度不等价) encoder:输入到隐藏状态 decoder:隐藏状态
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:135168
    • 提供者:weixin_38601446
  1. 《动手学深度学习》Task04:机器翻译及相关技术+注意力机制与Seq2seq模型+Transformer

  2. 文章目录1 机器翻译及相关技术1.1 机器翻译基本原理1.2 Encoder-Decoder1.3 Sequence to Sequence模型1.4 Beam Search2 注意力机制与Seq2seq模型2.1 注意力机制2.2 注意力机制的计算函数介绍2.3 引入注意力机制的Seq2seq模型3 Transformer3.1 Transformer结构概念3.2 Transformer结构层剖析3.3 Transformer之Encoder+Decoder 1 机器翻译及相关技术 1.1
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:742400
    • 提供者:weixin_38667408
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer知识点总结

  2. 机器翻译 把一种语言自动翻译为另一种,输出的是单词序列(其长度可能与原序列不同) 步骤为:数据预处理 —> Seq2Seq模型构建 —> 损失函数 —> 测试 数据预处理: 读取数据。 处理编码问题,删除无效字符串 分词。把字符串转化为单词列表。 建立字典。把单词组成的列表转化为单词索引的列表 在tf、pytorch这类框架中要做padding操作,使一个batch数据长度相等 定义数据生成器。 Seq2Seq 6. 先用循环神经网络编码成一个向量再解码输出一个序列的元素。然
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:60416
    • 提供者:weixin_38682086
  1. 《动手学深度学习Pytorch版》Task4-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术 Task2中的循环神经网络部分,有实现预测歌词的功能。在那个任务中,训练数据的输入输出长度是固定的,而在机器翻译中,输出的长度是不固定的,所以不能直接用RNN来处理这种任务。 Encoder-Decoder框架是常用于机器翻译,对话系统这类场景的框架。 需要注意的是,在训练过程中Decoder的输入是真实的label,而预测时,输入是上一个ceil的预测值 机器翻译解码 通常用beam search。beam search是一种贪心算法,不是全局最优解。 注意力机制 在“
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:350208
    • 提供者:weixin_38653602
  1. 《动手学习深度学习》之二:机器翻译(打卡2.1)

  2. 1.机器翻译和数据集 1.1机器翻译 定义:将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT) 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 基本结构:Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 通常应用在对话系统、生成式任务中 Encoder Decoder EncoderDecoder 1.2模型逻辑 import sys sys.path.append('/
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:326656
    • 提供者:weixin_38628429
  1. 动手学DL|Task4 机器翻译及其技术+注意力机制与Seq2seq模型+Transformer

  2. 机器翻译及其技术 学习笔记 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequence模型 模型: 训练 预测 具体结构 集束搜索 Beam Search 简单greedy search: 维特比算法:选择整体分数
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:472064
    • 提供者:weixin_38653664
  1. Dive into deep learning task 04-机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 6 机器翻译 机器翻译是一种序列到序列的模型。为了实现对语料的训练 ,需要对应的单词表,即平行语料。机器翻译要将序列处理成定长的向量,然后输入到rnn中(lstm,gru),然后变成中间向量,再通过decode方式编码输出最大可能的序列,即encoder-> vector->decoder的编解码方式。 语料要通过预处理(清洗,分词,转化成词典,转化成数据集),然后作词向量嵌入后,输入神经网络。 这就是所谓的seq2seq模型。简单的s2s模型的缺点是中间向量长度有限,不能充分表达输
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:55296
    • 提供者:weixin_38629920
  1. Datawhale 组对学习打卡营 任务10:机器翻译及相关技术

  2. 目录 机器翻译和数据集 数据预处理 分词 建立词典 载入数据集 Encoder-Decoder Sequence to Sequence模型 模型 具体结构 Encoder Decoder 损失函数 训练 测试 . . 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。【如:i am Chinese(3个词) 翻译成中文 我是中国人
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:481280
    • 提供者:weixin_38681646
  1. 基于attention的seq2seq机器翻译实践详解

  2. 思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; 开始循环迭代: 1.因为文本太大,这里是随机选择某句进行训练。 2.句子通过Encoder,Encoder产生新的隐层和每层的输出;再将开始
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:731136
    • 提供者:weixin_38586942
« 1 23 4 5 6 7 8 9 10 ... 15 »