您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于transformer和lstm的机器阅读方法、装置及可读存储介质.pdf

  2. 基于transformer和lstm的机器阅读方法、装置及可读存储介质.pdf
  3. 所属分类:机器学习

    • 发布日期:2020-05-05
    • 文件大小:874496
    • 提供者:anitachiu_2
  1. 收藏!编码器中如何融入结构信息?这几篇论文一定不要错过

  2. 引言 编码器已经成为了很多 NLP 模型中的基本结构。不管你是做机器翻译,还是做句法分析,不管你是需要得到单词的上下文表示,还是需要得到句子的表示,你都需要一个强有力的编码器。输入一个句子,编码器最终输出每个单词的表示或者整个句子的表示。 而近些年来 NLP 领域用的比较多的编码器有 CNN ,RvNN ,RNN (尤其是 LSTM)和 Transformer 等等,今天我们主要关注最后两个。在编码器中加入结构信息有很多种用途。一是利用结构信息增强编码器的结构表示,进而提高下游任务的性
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:537600
    • 提供者:weixin_38526780
  1. [深度学习]动手学深度学习笔记-9

  2. Task——Transformer 9.1 Transformer Transformer 是一种新的、基于 attention 机制来实现的特征提取器,可用于代替 CNN 和 RNN 来提取序列的特征。 Transformer 首次由论文 《Attention Is All You Need》 提出,在该论文中 Transformer 用于 encoder – decoder 架构。事实上 Transformer 可以单独应用于 encoder 或者单独应用于 decoder 。 Trans
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:386048
    • 提供者:weixin_38681301
  1. 第二次打卡

  2. 过拟合、欠拟合及其解决方案 初始化模型参数 定义L2范数惩罚项 定义训练和测试 观察过拟合 使用权重衰减 梯度消失、梯度爆炸 获取和读取数据集 预处理数据 训练模型 K折交叉验证 模型选择 预测并在Kaggle中提交结果 循环神经网络进阶 GRU LSTM 深度循环神经网络 双向循环神经网络 机器翻译及相关技术 数据预处理 分词 建立词典 载入数据集 Encoder-Decoder 注意力机制与Seq2seq模型 注意力机制 点积注意力 多层感知机注意力 Transformer Transfor
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:33792
    • 提供者:weixin_38632046
  1. Mind_of_Context_Hungarian_text_generator_based_on_Transformer_machine_learning_model-源码

  2. Mind_of_Context_Hungarian_text_generator_based_on_Transformer_machine_learning_model 该存储库包含匈牙利文本生成器程序,该程序基于Transformer机器学习模型及其准备算法。 贡献者:AttilaRagács,Szilard Novoth,Vanda Halasi,Zsombor Pancsics 该存储库包含3个主要功能:-I.是输入数据的准备-II。是word2vec NN模型,用于将准备好的数据拟合到L
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:66060288
    • 提供者:weixin_42172972
  1. fastformers:FastFormers-用于NLU的高效变压器模型-源码

  2. FastFormers FastFormers提供了一组配方和方法来实现对自然语言理解(NLU)的Transformer模型的高效推断,其中包括演示模型,该演示模型显示了233.87倍的提速(是的,使用多头自我关注的Transformer架构在CPU上的233x提速) 。这不是LSTM或RNN)。 有关方法和分析的详细信息,请参见《 FastFormers:自然语言理解的高效转换器模型》一。 笔记 (2020年11月4日)我们正在与Hugging Face和onnxruntime团队进行积极合
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:13631488
    • 提供者:weixin_42112658
  1. Question-Answering-SQUAD:基于DistilBERT的问答模型,在SQUAD数据集上进行了训练和评估-源码

  2. 问题解答小队 问题回答是回答问题(通常是阅读理解性问题)的任务,但是在遇到无法根据提供的上下文回答的问题时放弃。 我们在此项目中依赖的主要方法是Transformer。 具体来说,我们采用在Masked LM和Next Sentence Prediction上进行了预训练的DistilBERT模型,添加了新的问题解答负责人,并为我们的任务训练了新模型。 我们使用预训练的转换器而不是构建适用于问答任务的特定深度学习模型(LSTM,CNN等)的原因是,我们可以更快地进行开发,并且可以通过使用更少的数
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:150528
    • 提供者:weixin_42098251
  1. wer_are_we:尝试跟踪语音识别的最新技术和最新结果(参考书目)-源码

  2. wer_are_we 我们是吗? 尝试跟踪现有技术和语音识别的最新结果。 随时纠正! (受启发 ) WER LibriSpeech (可能比LibriSpeech接受了更多的数据培训。) WER测试清洁 WER测试其他 纸 已发表 笔记 5.83% 12.69% 人类 2015年12月 人类 1.9% 3.9% 2020年5月 卷积增强变压器(Conformer)+ 3层LSTM LM(数据增强:SpecAugment) 1.9% 4.1% 2020年5月 CNN-RNN-Tra
  3. 所属分类:其它

    • 发布日期:2021-02-27
    • 文件大小:6144
    • 提供者:weixin_42165018
  1. transformer模型详解

  2. 本文主要讲解了抛弃之前传统的encoder-decoder模型必须结合cnn或者rnn的固有模式,只用Attention。希望对您的学习有所帮助。本文来自网络,由火龙果软件刘琛编辑推荐AttentionIsAllYouNeed这篇论文主要介绍了一种新的机器翻译模型,该模型开创性的使用了很多全新的计算模式和模型结构。综合分析了现有的主流的nlp翻译模型的即基于CNN的可并行对其文本翻译和基于RNN的LSTM门控长短期记忆时序翻译模型,总结了两个模型的优缺点并在此基础上提出了基于自注意力机制的翻译模
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:557056
    • 提供者:weixin_38740130
  1. 社交媒体平台中的白话差异:使用NLP模型BERT和LSTM来检测不同社交媒体平台上对话中的白话差异-源码

  2. 信用 该存储库由ThilinaRajapakse派生而来,后者使用了HuggingFace PyTorch-Transformers库来使用UC Berkeley的信息与数据科学硕士计划。 特别是,该存储库将用于展示JJ Sahabu和George Tao在其W266 Final Project中的工作。 目的 该项目具有二进制文本分类功能,用于区分Twitter和Facebook数据。 该项目的目的是展示RoBERTa的简单用法,并将其与LSTM进行比较,并提供朴素的基线模型,以充分了解最新的
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:4194304
    • 提供者:weixin_42122340
  1. 阿斯-源码

  2. 适用于iPhone的荷兰语自动语音识别 通过这个项目,我试图创建一个iPhone应用程序,该应用程序将从头开始对荷兰语进行设备上的语音识别,即不使用任何专门的语音识别库。 该模型的架构主要受启发,并使用编写。 训练数据是从和收集的。 PyTorch模型将使用进行转换。 该项目正在进行中。 训练: 无需双向LSTM,即可编写模型以进行流式推理,且具有先行性 LibriSpeech上的火车(英语) 准备Corpus Gesproken Nederlands,谢谢 在Common Voi
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:1048576
    • 提供者:weixin_42175035
  1. python_autocomplete:使用变形金刚和LSTM学习Python源代码-源码

  2. Python自动完成 这是一个学习/演示项目,展示了如何使用深度学习来自动完成Python代码。 您可以尝试使用LSTM和Transformer模型。 我们还构建了一个简单的VSCode扩展,以试用经过训练的模型。 训练模式: 评估训练后的模型: 通过在大多数文件中节省30%以上的击键,而在某些文件中节省近50%的击键,可以提供相当不错的结果。 我们通过做出一个(最佳)预测并用一个键选择它来计算保存的键击。 我们使用的数据集是在链接的repos中找到的python代码。 我们将所有存
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:266240
    • 提供者:weixin_42116847
  1. torchnlp:基于PyTorch和TorchText构建的易于使用的NLP库-源码

  2. 火炬手 TorchNLP是用于NLP任务的深度学习库。 它基于PyTorch和TorchText构建,旨在提供可跨任务使用的可重用组件。 当前,它可以用于具有双向LSTM CRF模型和Transformer网络模型的命名实体识别(NER)和分块任务。 它可以支持使用任何数据集。 不久将添加更多任务 高水平的工作流程 定义NLP任务 扩展Model类并实现forward()和loss()方法以分别返回预测和损失 使用HParams类轻松定义模型的超参数 使用 API定义一个数据函数以返回数据集迭代
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:2097152
    • 提供者:weixin_42117622
  1. 带转移学习的抽象总结:使用Bert作为编码器和变压器解码器的抽象总结-源码

  2. 使用bert作为编码器和变压器解码器的抽象总结 我使用了一个名为Texar的文本生成库,它是一个漂亮的库,具有许多抽象,我想说这是scikit学习的文本生成问题。 该体系结构背后的主要思想是使用来自预训练的BERT的转移学习和掩蔽的语言模型,我用BERT编码器代替了Encoder部分,并且从头开始训练了除草器。 使用Transfomer Networks的优点之一是训练比基于LSTM的模型要快得多,因为我们可以消除Transformer模型中的顺序行为。 基于变压器的模型会生成更多语法正确
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:875520
    • 提供者:weixin_42104366
  1. transformer模型详解

  2. 本文主要讲解了抛弃之前传统的encoder-decoder模型必须结合cnn或者rnn的固有模式,只用Attention。希望对您的学习有所帮助。 本文来自网络,由火龙果软件刘琛编辑推荐AttentionIsAllYouNeed这篇论文主要介绍了一种新的机器翻译模型,该模型开创性的使用了很多全新的计算模式和模型结构。综合分析了现有的主流的nlp翻译模型的即基于CNN的可并行对其文本翻译和基于RNN的LSTM门控长短期记忆
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:557056
    • 提供者:weixin_38518638
  1. 《动手学深度学习》——笔记2

  2. 第二次打卡内容 Task1 过拟合欠拟合,梯度消失,爆炸,LSTM,GRU Tsak2 机器翻译,Seq2Seq, Transformer Task3 卷积神经网络基础和进阶,leNet 过拟合与欠拟合 过拟合:泛化误差高于训练误差,原因是模型过于复杂或者训练数据集比较小。当模型过于复杂时,可以简化模型参数或者加入L2正则化对参数进行惩罚,也可以采用丢弃法泛化误差不会随着训练数据集里的样本数量增加儿增大,所以通常选择大一些的训练数据集。 欠拟合:无法得到较低的训练误差。原因是训练数据集不够或者模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:364544
    • 提供者:weixin_38537689
  1. cs182-hw3-源码

  2. 加州大学伯克利分校CS182 HW03:自然语言处理 欢迎来到CS182的第三本作业,在此作业中,您将学习有关处理和生成文本的知识。 具体来说,您将通过训练基于LSTM的语言模型来构建神经网络以生成新闻头条。 然后,您将训练一个Transformer来总结新闻文章。 可交付成果 要完成每项任务,您必须在解决方案中填写两个提供的Jupyter笔记本,其中包括在此文件夹中编辑Python文件。 通过笔记本,您将生成2个.pt格式的模型文件。 这些是您可交付成果的一部分,应与您的项目一起上传,因为它
  3. 所属分类:其它

    • 发布日期:2021-04-01
    • 文件大小:83886080
    • 提供者:weixin_42129113
  1. cs182-hw3-源码

  2. 加州大学伯克利分校CS182 HW03:自然语言处理 欢迎来到CS182的第三本作业,在此作业中,您将学习有关处理和生成文本的知识。 具体来说,您将通过训练基于LSTM的语言模型来构建神经网络以生成新闻头条。 然后,您将训练一个Transformer来总结新闻文章。 可交付成果 要完成每项任务,您必须在解决方案中填写两个提供的Jupyter笔记本,其中包括在此文件夹中编辑Python文件。 通过Notebook,您将生成2个.pt格式的模型文件。 这些是您可交付成果的一部分,应与您的项目一起上
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:148480
    • 提供者:weixin_42165712
  1. cs182hw3-源码

  2. 加州大学伯克利分校CS182 HW03:自然语言处理 欢迎来到CS182的第三本作业,在此作业中,您将学习有关处理和生成文本的知识。 具体来说,您将通过训练基于LSTM的语言模型来构建神经网络以生成新闻头条。 然后,您将训练一个Transformer来总结新闻文章。 可交付成果 要完成每项任务,您必须在解决方案中填写两个提供的Jupyter笔记本,其中包括在此文件夹中编辑Python文件。 通过Notebook,您将生成2个.pt格式的模型文件。 这些是您可交付成果的一部分,应与您的项目一起上
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:42991616
    • 提供者:weixin_42136826