您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. pytorch实现task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:65536
    • 提供者:weixin_38705723
  1. GS4NMT:“用于神经机器翻译的带有概率N-gram匹配的贪婪搜索”的源代码-Search source code

  2. GS4NMT:带有概率N-gram匹配的贪婪搜索,用于神经机器翻译 采用概率序列级目标来减轻曝光偏差并微调NMT模型。 我们首先使用交叉熵损失对NMT模型进行预训练,然后使用概率序列级别的目标对模型进行微调,其中采用贪婪搜索来减轻曝光偏差。 邵晨泽,杨峰和陈锡林。 带有概率N-gram匹配的贪婪搜索,用于神经机器翻译。 在Emnlp会议录中,2018。 运行环境 该系统已在以下环境中进行了测试。 Ubuntu 16.04.1 LTS 64位 Python 2.7 火炬0.3.0 相依性
  3. 所属分类:其它

    • 发布日期:2021-03-24
    • 文件大小:50176
    • 提供者:weixin_42127783
  1. 机器翻译中人类单词搜索行为的建模与预测

  2. 作为一种计算机辅助翻译方法,交互式机器翻译技术通过多种方法减少了人工翻译的重复和机械操作,从而提高了翻译效率,并在翻译工作的实际应用中发挥了重要作用。 本文将翻译过程中用户频繁搜索单词的行为作为研究对象,并将其转化为当前翻译条件下的翻译选择问题。 提出了一种预测模型,该模型是对齐模型,翻译模型和语言模型对搜索词行为的综合利用。 它实现了对搜索单词行为的高度准确的预测,并减少了用户翻译过程中鼠标和键盘操作的切换。
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:742400
    • 提供者:weixin_38691703
  1. SOTA-MT:该项目试图维持机器翻译中的SOTA性能-源码

  2. SOTA-MT 该项目试图在机器翻译的各个子任务上保持SOTA性能。我们还对NMT的最新进展和潜在的研究趋势进行了详细的回顾。欢迎任何意见和建议。 1.简介 机器翻译已进入神经方法时代,吸引了越来越多的研究人员。目前,每年都会发表数百篇MT论文,对于研究人员来说,要了解每个研究方向上的SOTA模型都有些困难。因此,我们尝试记录该项目中的SOTA绩效。 神经机器翻译有几个研究方向,包括体系结构设计,多模式翻译,语音和同时翻译,文档翻译,多语言翻译,半监督翻译,无监督翻译,领域自适应,非自回归翻译
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:7168
    • 提供者:weixin_42128270
  1. 统计机器翻译的双语对应递归自动编码器

  2. 学习双语短语的语义表示和树结构对于统计机器翻译是有益的。在本文中,我们提出了一种称为双语对应递归自动编码器(BCorrRAE)的新神经网络模型,以对翻译中的双语短语进行建模。我们将单词对齐方式合并到BCorrRAE中,以使其能够自由访问不同级别的双语约束。 BCorrRAE在递归自动编码器重构错误,结构对齐一致性错误和跨语言重构错误的组合上最大程度地降低了联合目标,从而不仅生成了对齐一致的短语结构,而且还捕获了双语短语中不同级别的语义关系。为了检查BCorrRAE的有效性,我们将基于BCorrR
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:376832
    • 提供者:weixin_38680506
  1. argos-translate:Python中的开源神经机器翻译。设计用作Python库或桌面应用程序。使用OpenNMT进行翻译,使用PyQt进行GUI-源码

  2. Argos翻译 | 用Python编写的开源脱机翻译库。使用进行翻译,使用进行标记化,使用进行句子边界检测,使用进行GUI。设计用作Python库,命令行或GUI应用程序。 是在Argos Translate之上构建的API和网络应用程序。 Argos Translate支持安装模型文件,该文件是带有“ .argosmodel”扩展名的zip存档,其中包含OpenNMT 模型, 标记化模型,用于句子边界检测的标记化器模型以及有关该模型的元数据。预训练的模型可以在下载。 Argos Trans
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:672768
    • 提供者:weixin_42151036
  1. low-resource-MT:在资源匮乏的情况下以及针对少数族裔和资源匮乏的语言的机器翻译工作-源码

  2. 低资源MT 促进在资源不足的情况下以及针对少数族裔和资源匮乏的语言的机器翻译工作 数据集和基准 -Facebook低资源MT基准 (尤其是子集的, , 和大小的语言对 -COVID-19的翻译计划 项目和项目构想 在地图上显示可用的模型及其质量 为创建简化且易于使用的可扩展排行榜,并支持越来越多的语言和基准 相关项目和举措
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:9216
    • 提供者:weixin_42152298
  1. lm-prior-for-nmt:该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的源代码-源码

  2. 该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的论文的源代码() 介绍 在这项工作中,我们使用在目标方单语语料库上训练的语言模型(LM)作为较弱的先验知识。 我们添加了一个正则化项,该项驱动翻译模型(TM)的输出分布在LM的分布下可能出现。 更新:您现在可以使用插件下使用LM-之前与fairseq 。 先决条件 安装要求 创建环境(可选) :理想情况下,您应该为项目创建一个环境。 conda create -n lmprior python=3 conda activate l
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:16777216
    • 提供者:weixin_42117622
  1. 面向神经机器翻译的集成学习方法分析

  2. 集成学习是一种联合多个学习器进行协同决策的机器学习方法,应用在机器翻译任务的推断过程中可以有效整合多个模型预测的概率分布,达到提升翻译系统的准确性的目的。虽然该方法的有效性已在机器翻译评测中得到了广泛验证,但关于子模型的选择与融合的策略仍鲜有研究。该文主要针对机器翻译任务中的参数平均与模型融合两种集成学习方法进行了大量的实验,分别从模型与数据层面、多样性与模型数量层面对集成学习的策略进行了深入探索。实验结果表明在WMT中英新闻任务上,所提模型相比Transformer单模型有3. 19个BLEU
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:2097152
    • 提供者:weixin_38506798
  1. 融合词法句法分析联合模型的树到串EBMT方法

  2. 针对传统的基于实例的机器翻译(EBMT)方法中系统构筑复杂度和成本较高的问题,提出一种基于依存树到串的汉英实例机器翻译方法。与传统方法相比,该方法只需进行源语言端的句法结构分析,可以大大降低构筑系统的复杂度,有效降低成本。为了提高翻译精度,引入中文分词、词性标注和依存句法分析联合模型,可以减少汉英EBMT中源语言端基础任务中的错误传递,提高提取层次间特征的准确性。在此基础上,结合依存结构的特征和中英语料的特性,对依存树到串模型进行规则抽取以及泛化处理。实验结果表明,相对于基线系统,该方法可以提高
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:618496
    • 提供者:weixin_38698539
  1. 基于主题的统计机器翻译重排序模型

  2. 基于主题的统计机器翻译重排序模型
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:214016
    • 提供者:weixin_38625143
  1. 基于主题模型的领域专用机器翻译适应数据选择

  2. 基于主题模型的领域专用机器翻译适应数据选择
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:1048576
    • 提供者:weixin_38548704
  1. 基于短语的机器翻译的短语句法类别序列模型

  2. 将目标语法整合到基于短语的机器翻译(PBMT)中可以生成语法良好的翻译。 我们提出了一种新颖的短语语法类别序列(PSCS)模型,该模型允许PBMT解码器更喜欢语法翻译。 我们解析双语培训语料库目标侧的所有句子。 在标准短语对提取过程中,我们为每个短语对分配一个语法类别,并从并行训练数据中构建PSCS模型。 然后,我们将线性记录的PSCS模型记录到标准PBMT系统中。 与基线PBMT系统相比,我们的方法非常简单,并且可提高0.7 BLEU点。
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:178176
    • 提供者:weixin_38543120
  1. 基于纳西语依赖语言模型的汉纳西机器翻译方法

  2. 针对传统机器翻译方法不考虑纳西语陈述性的问题,提出了一种基于纳西语依赖语言模型的汉纳西机器翻译方法。 首先,我们提取中文-纳西语翻译模板,然后,对提取的翻译模板进行解码。 我们记录产生NBEST候选翻译句子的分数。 然后,我们分析候选焦点中每个句子的依存关系解析,以获得对应的依存关系节点序列。 最后,我们将每个候选句子的得分值及其对应的依存关系节点序列融合在一起,以选择最终的目标句子。 我们使用基于改进的中文-纳西语依赖树到字符串模板的翻译方法作为对比实验,并使用1000对中文-纳西语语料库作为
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:594944
    • 提供者:weixin_38629130
  1. NiuTrans.NMT:快速的神经机器翻译系统。 它是用C ++开发的,并借助NiuTensor来实现快速张量API。-源码

  2. NuTrans NMT 特征 NiuTrans.NMT是基于轻量级且高效的基于Transformer的神经机器翻译系统。中文介绍见 其主要特点是: 很少依赖。 它是用纯C ++实现的,所有依赖项都是可选的。 快速解码。 它支持各种解码加速策略,例如批处理修剪和动态批处理大小。 先进的NMT模型,例如 。 灵活的运行模式。 该系统可以在各种系统和设备(Linux与Windows,CPU与GPU,FP32与FP16等)上运行。 与框架无关。 它支持使用其他工具训练的各种模型,例如fair
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:13631488
    • 提供者:weixin_42105570
  1. SimpleNMT:简单易读的神经机器翻译系统-源码

  2. 简单的NMT 简单易读的神经机器翻译系统 1个背景 通过计算机自动翻译自然语言的过程称为机器翻译(MT) 。 神经机器翻译(NMT)直接使用Encoder-Decoder框架进行分布式表示语言的端到端映射,具有统一的模型结构和较高的翻译质量,已成为当今的主流。 机器翻译的发展主要归功于开源系统的推广和评估竞赛。 有许多出色的神经机器翻译系统( , , 等),但是这些开源系统具有实现复杂,代码过多,初学者难以阅读的缺点。 2要做 我致力于构建一个易于阅读,使用且对初学者友好的神经机器翻译
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:15360
    • 提供者:weixin_42101720
  1. sockeye-recipes2:Sockeye神经机器翻译(NMT)工具包v2的培训脚本和配方-源码

  2. sockeye-recipes2 Sockeye神经机器翻译(NMT)工具包的培训脚本和配方 最初的Sockeye代码库位于 。 此存储库基于 ,版本:2.3.10 在这里,我们重点介绍Sockeye v2。 此存储库与的旧版本类似但不完全向后兼容。 此存储库包含使运行和复制NMT实验变得容易的脚本。 所有模型超参数都记录在文件“ hyperparams.txt”中,该文件将传递到管道中的不同步骤: scr ipts / preprocess-bpe.sh:通过子词分段对bitext进行
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:27648
    • 提供者:weixin_42134537
  1. 神经机器翻译中生成的前瞻性注意

  2. 注意模型已经成为神经机器翻译(NMT)的标准组件,并且在预测每个目标单词时通过选择性地关注源句子的各个部分来指导翻译过程。 然而,我们发现目标词的生成不仅取决于源语句,而且还严重依赖于先前生成的目标词,尤其是难以使用递归神经网络建模的远距离词。 为了解决这个问题,本文提出了一种新颖的NMT生成中的前瞻性注意机制,旨在直接捕获目标词之间的依赖关系。 我们进一步设计了三种模式,以将我们的前瞻性注意力整合到常规注意力模型中。 在NIST的中文到英语和WMT的英语到德语翻译任务上进行的实验表明,我们提出
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:524288
    • 提供者:weixin_38528517
  1. 融合时态特征的日英层次短语翻译模型

  2. 针对基于层次短语翻译模型的统计机器翻译使用上下文信息有限,时态翻译质量不高的问题,提出一种融合时态特征的日英统计机器翻译方法。该方法通过引入翻译规则的时态分类约束信息,解码器可以根据每条规则的潜在时态分类,为相应时态的句子匹配到最合适的规则进行翻译。首先从双语训练语料中抽取时态特征构建最大熵分类模型,然后再抽取包含各类时态信息的层次短语规则的时态特征,最后将规则的时态分类结果作为一类新特征,融入基于层次短语的翻译系统中。实验结果表明,与基线系统相比,该方法在多个测试集上提高了翻译质量,在一定程度
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:625664
    • 提供者:weixin_38656064
  1. 通过权重共享改善资源不足的神经机器翻译

  2. 摘要:近年来,在大量的双语语料库中,神经机器翻译(NMT)取得了巨大的成功。 但是,对于资源匮乏的语言而言,它的效果要差得多。 为了缓解这一问题,我们提出了两种可以提高低资源NMT系统性能的方法。 第一种方法利用解码器的权重分配来增强低资源NMT系统的目标语言模型。 第二种方法是使用跨语言嵌入和源句子表示空间共享,以增强低资源NMT的编码器。 我们的实验表明,与基线系统相比,该方法在低资源神经机器翻译上可以获得明显的改进。 在IWSLT2015越南语-英语翻译任务上,我们的模型可以将翻译质量平均
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:367616
    • 提供者:weixin_38709100
« 1 2 3 45 6 7 8 9 10 ... 15 »