您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于双向transformer编码器及卷积操作的增强语义关系分类

  2. 基于双向transformer编码器及卷积操作的增强语义关系分类,段希,张茹,最近,经过预训练的BERT模型在许多NLP任务中都取得了非常成功的效果。关系分类不同于其他任务,因为它依赖于句子和两个目标实体的�
  3. 所属分类:其它

    • 发布日期:2020-03-12
    • 文件大小:990208
    • 提供者:weixin_38665668
  1. transformer解读.rar

  2. 介绍了transformer模型的结构组成以及各个结构之前的联系,并对其中涉及到的基础知识进行汇总,以此同时对数学模型进行了完整的推导。
  3. 所属分类:机器学习

    • 发布日期:2020-03-06
    • 文件大小:2097152
    • 提供者:circleyuanquan
  1. transformer.md

  2. Transformer blocks:将seq2seq模型重的循环网络替换为了Transformer Blocks,该模块包含一个多头注意力层(Multi-head Attention Layers)以及两个position-wise feed-forward networks(FFN)。对于解码器来说,另一个多头注意力层被用于接受编码器的隐藏状态。 Add and norm:多头注意力层和前馈网络的输出被送到两个“add and norm”层进行处理,该层包含残差结构以及层归一化。 Pos
  3. 所属分类:深度学习

    • 发布日期:2020-02-17
    • 文件大小:20480
    • 提供者:qq_40441895
  1. Transformer & Question Answering- Thang Luong.pdf

  2. The Transformer network consists of multiple layers, each with several Attention Heads (and additional layers), used to learn different relationships between tokens. As in many NLP models, the input tokens are first embedded into vectors This slide
  3. 所属分类:深度学习

    • 发布日期:2019-07-06
    • 文件大小:9437184
    • 提供者:tiance_0301
  1. Transformer & Bert.zip

  2. Transformer +Bert 视频+资料详解
  3. 所属分类:深度学习

    • 发布日期:2020-06-17
    • 文件大小:833617920
    • 提供者:weixin_43639369
  1. page-transformer.zip

  2. page-transformer,在Flutter中具有PageView转换效果的示例,博客附件,效果请查看博客相对应项目。
  3. 所属分类:Android

    • 发布日期:2020-07-08
    • 文件大小:13631488
    • 提供者:qq_36040764
  1. Transformer.ipynb

  2. tensorflow2.0 版的transformer模型代码
  3. 所属分类:深度学习

    • 发布日期:2020-08-05
    • 文件大小:82944
    • 提供者:weixin_43788143
  1. 深度学习自然语言处理-Transformer模型

  2. Transformer由论文《Attention is All You Need》提出,现在是谷歌云TPU推荐的参考模型。Transformer是:“首个完全抛弃RNN的recurrence,CNN的convolution,仅用attention来做特征抽取的模型。“ 本文简介了Transformer模型。
  3. 所属分类:机器学习

    • 发布日期:2020-08-31
    • 文件大小:629760
    • 提供者:syp_net
  1. 基于Transformer模型的中文文本自动校对研究

  2. 提出将Transformer模型应用于中文文本自动校对领域。Transformer模型与传统的基于概率、统计、规则或引入BiLSTM的Seq2Seq模型不同,该深度学习模型通过对Seq2Seq模型进行整体结构改进,从而实现中文文本自动校对。通过使用公开数据集对不同模型进行对比实验,采用准确率、召回率与F1值作为评价指标,实验结果表明,Transformer模型相比较于其他模型,在中文文本自动校对的性能上有了大幅提升。
  3. 所属分类:其它

    • 发布日期:2020-10-15
    • 文件大小:371712
    • 提供者:weixin_38634610
  1. ICLR 2021上与【自监督学习】 & 【Transformer】相关的论文

  2. 国际表示学习大会(The International Conference on Learning Representations)是致力于人工智能领域发展的国际知名学术会议之一。为了分析最新研究动向,本文精选了涵盖自监督学习、Transformer、图神经网络、自然语言处理、模型压缩等热点领域,将分多期为大家带来系列论文解读。
  3. 所属分类:机器学习

    • 发布日期:2020-10-21
    • 文件大小:14680064
    • 提供者:syp_net
  1. Transformer介绍讲义pdf

  2. Transformer介绍讲义pdf
  3. 所属分类:机器学习

    • 发布日期:2020-10-18
    • 文件大小:14680064
    • 提供者:qq_34327247
  1. TensorFlow(一)Scikit-Learn之Transformer项目实战过程

  2. 本文主要对用scikit-learn来构建不同模型的实例项目进行介绍: Scikit-learn具体使用方法和语法参数在本人blog中的“TensorFlow(一)Scikit-Learn之Transformer“已进行详细介绍,链接如下: https://huxiaoyang.blog.csdn.net/article/details/105645392 实战项目 实战项目一:以boston数据集为例 项目目标: 使用sklearn实现对boston数据处理和降维 项目步骤: 首先我们可以将对
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:224256
    • 提供者:weixin_38500047
  1. 《视觉Transformer转换器》综述论文

  2. Transformer是一种主要基于自注意力机制的深度神经网络,最初应用于自然语言处理领域。受Transformer强大的表征能力的启发,研究人员提出将Transformer扩展到计算机视觉任务中。与卷积网络和循环网络等其他网络类型相比,基于Transformer的模型在各种视觉基准上都具有竞争力,甚至表现出了更好的性能。
  3. 所属分类:机器学习

    • 发布日期:2020-12-27
    • 文件大小:1048576
    • 提供者:syp_net
  1. 《动手学深度学习》机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. 机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer机器翻译及其相关技术编码器和解码器编码器解码器束搜索贪婪搜索束搜索注意力机制与Seq2Seq模型计算背景变量Transformer 机器翻译及其相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 编码器和解码器 在翻译时,输入句子和输出句子往往不一样长,所以为了处理输入
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:271360
    • 提供者:weixin_38596485
  1. 《动手学深度学习》Task04:机器翻译及相关技术+注意力机制与Seq2seq模型+Transformer

  2. 文章目录1 机器翻译及相关技术1.1 机器翻译基本原理1.2 Encoder-Decoder1.3 Sequence to Sequence模型1.4 Beam Search2 注意力机制与Seq2seq模型2.1 注意力机制2.2 注意力机制的计算函数介绍2.3 引入注意力机制的Seq2seq模型3 Transformer3.1 Transformer结构概念3.2 Transformer结构层剖析3.3 Transformer之Encoder+Decoder 1 机器翻译及相关技术 1.1
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:742400
    • 提供者:weixin_38667408
  1. Self-Attention与Transformer

  2. 1.由来 在Transformer之前,做翻译的时候,一般用基于RNN的Encoder-Decoder模型。从X翻译到Y。 但是这种方式是基于RNN模型,存在两个问题。 一是RNN存在梯度消失的问题。(LSTM/GRU只是缓解这个问题) 二是RNN 有时间上的方向性,不能用于并行操作。Transformer 摆脱了RNN这种问题。 2.Transformer 的整体框架 输入的x1,x2x_{1},x_{2}x1​,x2​,共同经过Self-attention机制后,在Self-atte
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:2097152
    • 提供者:weixin_38611388
  1. TASK04-注意力机制-机器翻译-Transformer

  2. 将注意力机制放到这里,以后会用到。 练习题放在最前面: 关于Transformer描述正确的是: 在训练和预测过程中,解码器部分均只需进行一次前向传播。 Transformer 内部的注意力模块均为自注意力模块。 解码器部分在预测过程中需要使用 Attention Mask。 自注意力模块理论上可以捕捉任意距离的依赖关系。 答案解释 选项1:训练过程1次,预测过程要进行句子长度次 选项2:Decoder 部分的第二个注意力层不是自注意力,key-value来自编码器而query来自解码器 选项3
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:118784
    • 提供者:weixin_38744375
  1. 深度学习(四)————机器翻译及相关技术、注意力机制与Seq2seq模型、Transformer

  2. 目录   机器翻译及相关技术 注意力机制与seq2seq模型 Transformer 机器翻译及相关技术 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 机器翻译流程:数据预处理,主要模型:encode-decode,seq2seq 注意力机制与seq2seq模型 注意力机制:https://blog.csdn.net/mpk_no1/articl
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:191488
    • 提供者:weixin_38704565
  1. 《动手学习深度学习》之二:3.Transformer模型(打卡2.3)

  2. 3.Transformer模型 3.1.CNN与RNN的缺点: 1.CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。 2.RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列 3.2.为了整合CNN和RNN的优势,创新性地使用注意力机制设计了Transformer模型 3.2.1.该模型利用attention机制实现了并行化捕捉序列依赖,并且同时处理序列的每个位置的tokens,上述优势使得Transformer模型在性能优异的同时大大减少了训练时间。 3.3.Trans
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:735232
    • 提供者:weixin_38729336
  1. 《动手学深度学习》Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer

  2. Task04 :机器翻译及相关技术;注意力机制与Seq2seq模型;Transformer 1.机器翻译及相关技术 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 步骤: 1.读取数据 2.数据预处理 3.分词:将字符串变成单词组成的列表 4.建立词典:将单词组成的列表变成单词id组成的列表 5.Encoder-Decoder:
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:1048576
    • 提供者:weixin_38501045
« 1 23 4 5 6 7 8 9 10 ... 38 »