您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. seq2seq到加上attention机制,再整合成transformer

  2. 时间问题,,开个好头。 1.机器翻译有一个大问题,就是输入输出的序列长度不一定相等。于是设计出Encoder-Decoder模型 。* 于是就有了Sequence to Sequenceseq模型 简答来说就是在输出的时候:先输入bos,然后以eos为结束标记。 总结: Sequence to Sequence encoder、decoder的网络可以是任意RNN网络:LSTM,双向RNN等; 这里Encoder不需要用到每一个单元的output,只需把H传到Decoder作为初始输入;
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:607232
    • 提供者:weixin_38752074
  1. 伯禹AI – task 04 机器翻译、注意力机制与seq2seq模型、Transformer架构

  2. (一)机器翻译及其相关技术 1.  机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 数据预处理:将数据集清洗、转化为神经网络的输入minbatch 分词:字符串—单词组成的列表 建立字典:单词组成的列表—单词id组成的列表 Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 2.  Sequence 2
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:109568
    • 提供者:weixin_38639747
  1. 笔记:动手学深度学习pytorch(机器翻译,Transformer,注意力机制和Sequence to sequence模型)

  2. – 机器翻译 – 机器翻译与数据集 – 机器翻译 顾名思义,机器翻译就是将一段文本从一种语言翻译到另外一种语言,简称MT,而利用神经网络解决这个问题就被称为神经机器翻译(NMT)。 特征主要是输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 – 数据预处理 将数据集清洗、转化为神经网络的输入minbatch with open('/home/kesci/input/fraeng6506/fra.txt', 'r') as f: raw_text = f.read
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38582685
  1. 深度学习d4:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译 指将一段文本从一种语言自动翻译到另一种语言 读取和预处理数据 # 将一个序列中所有的词记录在all_tokens中以便之后构造词典,然后在该序列后面添加PAD直到序列 # 长度变为max_seq_len,然后将序列保存在all_seqs中 def process_one_seq(seq_tokens, all_tokens, all_seqs, max_seq_len): all_tokens.extend(seq_tokens) seq_tokens += [EOS]
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:407552
    • 提供者:weixin_38727567
  1. 动手学深度学习PyTorch版–Task4、5–机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer;;卷积神经网络基础;leNet;卷积神经网络进阶

  2. 一.机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 1.Encoder-Decoder encoder:输入到隐藏状态 decoder:隐藏状态到输出 class Encoder(nn.Module): def __init__(self, **kwargs): super(Encoder, self)
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38674512
  1. 【人工智能学习】【十六】Self Attention和Transformer

  2. Self Attention Attention机Decoder是输出元素和Encoder中的输入元素做attention,说的是翻译的结果和输入的哪些信息有关。 Self Attention则是Encoder中的信息自己对自己做attention,说的是自己这一句话内容之间的关系,比如The cat wants to cross the street,but it to tired。it指的是cat。 The cat wants to cross the street,but it to wi
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38702844
  1. Transformer与seq2seq

  2. Transformer与seq2seq Transformer模型的架构与seq2seq模型相似,Transformer同样基于编码器-解码器架构,其区别主要在于以下三点: Transformer blocks:将seq2seq模型重的循环网络替换为了Transformer Blocks,该模块包含一个多头注意力层(Multi-head Attention Layers)以及两个position-wise feed-forward networks(FFN)。对于解码器来说,另一个多头注意力层被
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:145408
    • 提供者:weixin_38705558
  1. Task04:机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer学习笔记

  2. 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 import sys sys.path.append(’/home/kesci/input/d2l9528/’) import collections import d2l import zipfile from d2l.data.base import Vocab import t
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:93184
    • 提供者:weixin_38509504
  1. Task04:机器翻译及相关技术/注意力机制与Seq2seq模型/Transformer

  2. 1.机器翻译 机器翻译(MT)是将一个句子 x 从一种语言( 源语言 )转换为另一种语言( 目标语言 )的句子 y 的任务。 机器翻译的大致流程就是根据输入的文本,神经网络开始学习和记忆,这个就是所谓的Encoder编码过程;然后根据自己的记忆,把文本一一翻译出来,这个就是所谓的Decoder解码过程。 机器翻译的基本流程如下: 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个f
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:403456
    • 提供者:weixin_38693589
  1. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术: 解决RNN固定长度输出问题 翻译机制编码器和解码器机制 #编码器和解码器是分别对应输入和输出序列的两个神经网络,我们通常会在输入序列和输出序列后面附上一个特殊字符''  #(end of sequence)表示序列的终止,在测试模型时,一旦输出''就终止当前的序列输出  x=torch.tensor([[[1,1,1],                                     [1,1,1]],                  [[1,1,1],    
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:29696
    • 提供者:weixin_38745003
  1. pytorch实现task4——机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 其主要的步骤包括数据预处理、分词、建立词典、载入数据集、Encoder-decoder、seq2seq等。 注意力机制与Seq2seq模型 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:65536
    • 提供者:weixin_38705723
  1. bitmap-transformer-源码

  2. 位图转换器 此CLI应用程序是位图(.bmp)转换器。 它从磁盘读取给定的位图文件,并在该映像上运行指定的方法(作为输入参数),然后将其写入新文件。 没有使用第三方库。 如何使用 ./gradlew run --args 'input-file-path output-file-path transform-name' 提示->使用绝对文件路径。 <- 转换选项 invert color values randomize color values mirror (flip imag
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:207872
    • 提供者:weixin_42166626
  1. bitmap-transformer-源码

  2. 位图转换器 ##与合作 ##为此,我们构建了一个位图(.bmp)转换器类实例(CLI),它能够从磁盘读取位图,运行一种或多种颜色或光栅变换。 然后将其写到新文件中。 该项目需要处理二进制数据,并且由解决特定问题的经过测试的小型方法组成。 最低要求 应该使用最佳模块化实践来设计CLI。 CLI应该包含一个Bitmap类,并且读入一个文件应该创建一个新的Bitmap实例。 CLI应该至少需要三个参数:输入文件路径输出文件路径transfrom-name。 CLI至少应支持三个转换,每个转换都是
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:74752
    • 提供者:weixin_42131790
  1. routing-transformer:路由变压器的全功能实现-源码

  2. 路由变压器 全功能实现。本文提出使用k最近邻居将相似的查询/关键字路由到同一群集中以引起注意。 131k代币 安装 $ pip install routing_transformer 用法 简单的语言模型 import torch from routing_transformer import RoutingTransformerLM model = RoutingTransformerLM ( num_tokens = 20000 , dim = 512 , hea
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:72351744
    • 提供者:weixin_42109639
  1. Shell-Type-Transformer-Example:以下存储库利用增强现实技术来帮助用户直观地了解单相壳型变压器的构造和设计方式-源码

  2. 单相壳式变压器 版本1.0.0 以下示例描绘了单相壳式变压器的3D模型以及有关其设计的一些信息。 要访问该示例,请扫描以下QR码或访问 : [请注意,如果您使用的是移动设备,则可能需要旋转设备以使其横向移动并访问应用程序上的桌面站点,以查看所有UI元素。 访问该网站后,请允许其访问您设备的相机。然后将相机指向标记,将生成模型。 下面给出了此示例的标记: [如果要打印标记,请下载图像文件夹中的图像]
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:4194304
    • 提供者:weixin_42151373
  1. transformer-from-scratch-源码

  2. 从零开始的变压器 根据教程
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:2048
    • 提供者:weixin_42137028
  1. stereo-transformer:立体声变压器官方回购-源码

  2. 立体声变压器(STTR) 这是我们的工作的正式仓库,。 在街景上的微调结果: 仅在综合数据上训练时,可以推广到医学领域: 如果您发现我们的工作有意义,请引用 article{li2020revisiting, title={Revisiting Stereo Depth Estimation From a Sequence-to-Sequence Perspective with Transformers}, author={Li, Zhaoshuo and Liu, Xingtong
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:17825792
    • 提供者:weixin_42131790
  1. Flat-Lattice-Transformer:ACL 2020纸代码-源码

  2. 平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.50d
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:66560
    • 提供者:weixin_42139302
  1. transformer-tutorial:可视化变压器编码器-源码

  2. 变压器编码器-可视化 此回购包含幻灯片和笔记本 您可以使用NBViewer查看笔记本: 更新:在幻灯片15上,您无需将掩码字的嵌入设置为全零,只需将其保留为MASK令牌的嵌入即可。在笔记本中变得更加清晰!即将更新幻灯片。
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:851968
    • 提供者:weixin_42180863
  1. ASRock华擎 P67 Transformer主板BIOS 1.30版 For WinXP/Vista/Win7驱动程序下载

  2. 【驱动名称】ASRock华擎P67 Transformer主板BIOS 1.30版For WinXP/Vista/Win7(2011年3月6日发布) 【驱动描述】美化了Logo
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:2097152
    • 提供者:weixin_38688145
« 1 2 ... 5 6 7 8 9 1011 12 13 14 15 ... 38 »