您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. HMM模型程序用于语音翻译

  2. 机器翻译 隐马尔科夫 可以推测隐马尔科夫链的状态以及其他应用
  3. 所属分类:专业指导

    • 发布日期:2009-07-01
    • 文件大小:74752
    • 提供者:polosun
  1. C++ Tokenizer

  2. 为c++实现Tokenizer,就像java里面的string tokenizer
  3. 所属分类:C++

    • 发布日期:2011-05-29
    • 文件大小:762
    • 提供者:yaochenlan
  1. CMU-Cam_Toolkit_v2

  2. 机器翻译的工具。这是一个语言模型工具,用于生成语言模型,以便解码器调用。
  3. 所属分类:C

    • 发布日期:2011-11-19
    • 文件大小:124928
    • 提供者:byjlwaa
  1. NiuTrans.SMT:NiuTrans.SMT是由NLP Lab的一个联合团队开发的开源统计机器翻译系统。 在东北大学和NiuTrans团队。 NiuTrans系统是完全用C ++语言开发的。 因此它运行速度快,占用的内存更少。 目前,

  2. NiuTrans.SMT:统计机器翻译系统 NiuTrans.SMT是由自然语言处理实验室的联合团队开发的开源统计机器翻译系统。 在东北大学和YaTrans Co.,Ltd。 NiuTrans.SMT系统是完全用C ++语言开发的。 因此它运行速度快,占用的内存更少。 目前,它支持面向研究的基于短语,基于分层短语和基于语法(字符串到树,树到字符串和树到树)的模型。 产品特点 用C ++编写。 因此运行速度很快。 支持多线程 易于使用的API,用于功能工程 具有竞争力的翻译任务 嵌入了一个紧凑但
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:106954752
    • 提供者:weixin_42138408
  1. Seq2seq-Chatbot-for-Keras:此存储库包含一个新的基于seq2seq建模的chatbot生成模型-源码

  2. 适用于Keras的Seq2seq聊天机器人 该存储库包含一个基于seq2seq建模的聊天机器人的新生成模型。 有关该模型的更多详细信息,请参见论文第3节。 如果使用该存储库中的想法或代码片段进行发布,请引用本文。 这里可用的经过训练的模型使用了一个小型数据集,该数据集由约8000对上下文(直到当前点的对话的最后两个话语)和相应的响应组成。 数据是从在线英语课程的对话中收集的。 可以使用封闭域数据集对实际应用程序进行微调。 规范seq2seq模型在神经机器翻译中变得很流行,该任务对属于输入和输
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:159744
    • 提供者:weixin_42138780
  1. NPMT:迈向基于神经短语的机器翻译-源码

  2. 介绍 这是NPMT,它是Microsoft Research和的源代码。 它建立在的之上。 我们介绍了的设置和神经机器翻译(NMT)实验。 NPMT 基于神经短语的机器翻译(NPMT)使用最近提出的基于分段的序列建模方法Sleep-WAke Networks(SWAN)对输出序列中的短语结构进行显式建模。 为了减轻SWAN的单调对齐要求,我们引入了一个新的层来执行(软)输入序列的本地重新排序。 与现有的神经机器翻译(NMT)方法不同,NPMT不使用基于注意力的解码机制。 而是直接按顺序输出短语
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42101164
  1. DeepNLP-models-Pytorch:CS-224n(斯坦福大学)中各种Deep NLP模型的Pytorch实现-源码

  2. DeepNLP模型-Pytorch 中各种Deep NLP模型 这不适用于Pytorch初学者。 如果您是第一次使用Pytorch,建议您阅读这些。 如果您对DeepNLP感兴趣,我强烈建议您参加这个很棒的讲座。 这种材料不是完美的,但是会帮助您的学习和研究:)请随时提出要求!! 内容 模型 链接 01.跳过-天真-Softmax [ /数据/] 02.跳过gram负采样 [ /数据/ ] 03.手套 [ /数据/] 04. NER的窗口分类器 [ /数据/纸] 05.神经依赖
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:744448
    • 提供者:weixin_42134537
  1. CTranslate2:适用于OpenNMT模型的快速推理引擎-源码

  2. CTranslate2 CTranslate2是适用于支持CPU和GPU执行的和模型的快速推理引擎。 目标是提供全面的推理功能,并成为部署标准神经机器翻译系统(例如Transformer模型)的最有效和最具成本效益的解决方案。 该项目以生产为导向,具有,但它还包括与模型压缩和推理加速有关的实验功能。 目录 主要特点 在CPU和GPU上快速高效地执行支持的模型和任务的通用深度学习框架相比,执行。 量化和降低精度模型序列化和计算以较低的精度支持权重:16位浮点(FP16),16位整数和8位整
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:2097152
    • 提供者:weixin_42104778
  1. 基于统计的汉英机器翻译技术的研究

  2. 随着互联网的大力普及,机器翻译彰显了其在未来的无可替代性。本文提出了一个汉英机器翻译系统,该系统是以统计为基础而发展的。文中先对统计机器翻译进行介绍,然后对汉英机器翻译系统进行详细介绍与说明,因为现今技术中,主要是以IBM对齐模型为基础的,而在这个IBM对齐模型中,以模型4最为有效,所以重点介绍模型4。最后提出了基于短语对齐模型的汉英统计机器翻译系统。
  3. 所属分类:其它

    • 发布日期:2021-01-28
    • 文件大小:805888
    • 提供者:weixin_38645208
  1. *机器翻译团队:将TVM引入TensorFlow中以优化GPU上的神经机器翻译

  2. 本文于阿里云,神经机器翻译(NMT)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。神经机器翻译(NMT)是自动翻译的端到端方法,这个方法具有克服传统短语翻译系统缺点的潜力。最近,*集团正在为全球电子商务部署NMT服务。目前,我们正在利用Transformer[1]作为我们NMT系统的主要骨干,因为它对于经典的基于RNN/LSTM模型的高效离线训练具有较高的准确度,因此它成为了系统的核心。尽管Transformer对于离线训练阶段很友好,因为它在时间跨度上打破了依赖性,
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:527360
    • 提供者:weixin_38661650
  1. 用RNN训练语言模型生成文本

  2. 本文来自于简书,本文通过介绍 LanguageModel,怎么实现以及应用,诠释了如何用RNN建立 LanguageModel生成文本。 LanguageModel是NLP的基础,是语音识别,机器翻译等很多NLP任务的核心。 参考:实际上是一个概率分布模型P,对于语言里的每一个字符串S
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:249856
    • 提供者:weixin_38670297
  1. 动手学深度学习 Task04 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 【一】机器翻译及相关技术 机器翻译(MT): 将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出的是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理 将数据集清洗、转化为神经网络的输入minbatch。字符在计算机里是以编码的形式存在,我们通常所用的空格是 \x20 ,是在标准ASCII可见字符 0x20~0x7e 范围内。 而 \xa0 属于 latin1 (ISO/IEC_8859-1)中的扩展字符集字
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:424960
    • 提供者:weixin_38653040
  1. 动手入门深度学习笔记-机器翻译(注意力机制与Seq2seq模型,Transformer)

  2. 机器翻译 1.定义 将一段文本从一种语言自动翻译为另一种语言, 用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 2.code 实现 ## 机器翻译定义 主要是将一段文本从一种语言自动翻译成另外一种语言 输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同 import os os.listdir('/home/kesci/input/') import sys sys.path.appe
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:723968
    • 提供者:weixin_38641896
  1. 《动手学深度学习PyTorch版》打卡_Task4,机器翻译及相关技术,注意力机制与Seq2seq模型

  2. 最近参加了伯禹平台和Datawhale等举办的《动手学深度学习PyTorch版》课程,机器翻译及相关技术,注意力机制与Seq2seq模型做下笔记。 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 使用Encoder-Decoder框架: 实现一个Encoder类 class Encoder(nn.Module): def
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:307200
    • 提供者:weixin_38517212
  1. 《动手学深度学习——机器翻译及相关技术,注意力机制与seq2seq模型,Transformer》笔记

  2. 动手学深度学习:机器翻译及相关技术,注意力机制与seq2seq模型,Transformer 初次学习机器翻译相关,把课程的概念题都记录一下。 目录: 1、机器翻译及相关技术 2、注意力机制与seq2seq模型 3、Transformer 1、机器翻译以及相关技术 1、机器翻译以及相关技术 1、关于Sequence to Sequence模型说法错误的是: A 训练时decoder每个单元输出得到的单词作为下一个单元的输入单词。 B 预测时decoder每个单元输出得到的单词作为下一个单元的输入单
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:363520
    • 提供者:weixin_38659789
  1. DL notes 03:机器翻译(MT)/NLP 基础知识

  2. 文章目录一、机器翻译1.1 数据预处理和清洗1.2 文本预处理1.2.1 分词1.2.2 建立字典1.2.3 将词转为索引1.3 语言模型nnn元语法1.4 时序数据的采样随机采样相邻采样二、Encoder-DecoderSeq2Seq 模型初探Beam Search 一、机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.1 数据预处理
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:288768
    • 提供者:weixin_38522636
  1. 从seq2seq模型到Transformer以及机器翻译小记

  2. seq2seq模型 基本概念 顾名思义,seq2seq模型是指,模型的输入是一个sequence序列,而模型的输出也是sequence序列,其模型结构可以表示为Encoder-Decoder结构,如下图: 其中encoder与decoder都是使用循环神经网络(RNN)实现的。其中的语义编码则是encoder的隐藏状态。其中包括了encoder中的语义信息,作为decoder的输入,从而使用decoder得到输出。 训练以及预测时的方式如下: 具体结构: 实现方式 encoder-deco
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:1048576
    • 提供者:weixin_38569203
  1. 机器翻译机制

  2. 机器翻译 机器翻译, 将一段文本从一种语言自动翻译为另一种语言。其 输出为单词序列。 处理步骤 数据预处理 分词 建立词典 输入模型 Encodr-Decoder Sequence to Sequence 注意力机制 看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。对于句子对。 ——–(思考:对很通用,X是一个问句,Y是答案;X是一个句子,Y是抽取的关系三元组;X是汉语句子,Y是汉语句子的英文翻译。等等),我们的目标是给定输入句子X,期待通过Encoder-Dec
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:376832
    • 提供者:weixin_38536841
  1. Sequence to Sequence模型理解

  2. 借鉴博客:几张图彻底搞定Seq2Seq Sequence to Sequence模型由两部分组成:Encoder和Decoder。在机器翻译过程中,假设要将汉语翻译成英语,首先,我们需要两个词典,一个是汉语的词语与数字(index)的一一对应的词典,另一个是英语单词与数字(index)的一一对应的词典,这样,就可以由词语得到数字,也可以由数字得到词语。 1.Encoder部分:对于输入的一句汉语,将其切割成汉语词语,通过查汉语词典得到词语对应的数字,将每个数字转换为一个固定长度的向量,作为循环
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:100352
    • 提供者:weixin_38691319
  1. pytorch_task4机器翻译及相关技术;注意力机制与Seq2seq模型

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1、数据预处理。将数据集清洗、转化为神经网络的输入minbatch 2、分词。字符串—单词组成的列表 3、建立词典。单词组成的列表—单词id组成的列表 4、Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 Sequence to Sequ
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:184320
    • 提供者:weixin_38728276
« 1 2 3 4 5 67 8 9 10 11 ... 15 »