您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. seq2seq_translation_tutorial_CN.ipynb

  2. NLP从零开始:使用序列到序列网络和注意力机制进行翻译。Pytorch教程,自然语言处理部分教程,TRANSLATION WITH A SEQUENCE TO SEQUENCE NETWORK AND ATTENTION教程,seq2seq_translation_tutorial_CN.ipynb
  3. 所属分类:深度学习

    • 发布日期:2020-02-29
    • 文件大小:176kb
    • 提供者:wmq104
  1. char_rnn_generation_tutorial_CN.ipynb

  2. NLP从零开始:使用字符级RNN进行名字生成。Pytorch教程,自然语言处理部分教程,字符级RNN生成教程,char_rnn_generation_tutorial_CN.ipynb
  3. 所属分类:深度学习

    • 发布日期:2020-02-27
    • 文件大小:38kb
    • 提供者:wmq104
  1. PyTorch官方教程中文版.pdf

  2. PyTorch是一个基于Torch的Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebookd的人工智能小组开发,不仅能够 实现强大的GPU加速,同时还支持动态神经网络,这一点是现在很多主流框架如TensorFlow都不支持的。 PyTorch提供了两个高级功能: 1.具有强大的GPU加速的张量计算(如Numpy) 2.包含自动求导系统的深度神经网络 除了Facebook之外,Twitter、GMU和Salesforce等机构都采用了PyTorch。 官方教程包含了
  3. 所属分类:深度学习

    • 发布日期:2020-02-14
    • 文件大小:16mb
    • 提供者:fendouai
  1. 使用pytorch和torchtext进行文本分类的实例

  2. 文本分类是NLP领域的较为容易的入门问题,本文记录我自己在做文本分类任务以及复现相关论文时的基本流程,绝大部分操作都使用了torch和torchtext两个库。 1. 文本数据预处理 首先数据存储在三个csv文件中,分别是train.csv,valid.csv,test.csv,第一列存储的是文本数据,例如情感分类问题经常是用户的评论review,例如imdb或者amazon数据集。第二列是情感极性polarity,N分类问题的话就有N个值,假设值得范围是0~N-1。 下面是很常见的文本预处理流
  3. 所属分类:其它

    • 发布日期:2020-12-23
    • 文件大小:100kb
    • 提供者:weixin_38706603
  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

  1. 社交媒体平台中的白话差异:使用NLP模型BERT和LSTM来检测不同社交媒体平台上对话中的白话差异-源码

  2. 信用 该存储库由ThilinaRajapakse派生而来,后者使用了HuggingFace PyTorch-Transformers库来使用UC Berkeley的信息与数据科学硕士计划。 特别是,该存储库将用于展示JJ Sahabu和George Tao在其W266 Final Project中的工作。 目的 该项目具有二进制文本分类功能,用于区分Twitter和Facebook数据。 该项目的目的是展示RoBERTa的简单用法,并将其与LSTM进行比较,并提供朴素的基线模型,以充分了解最新的
  3. 所属分类:其它

  1. nlpaug:NLP的数据增强-源码

  2. Nlpaug 这个python库可帮助您为机器学习项目扩充nlp。 请访问此简介以了解有关。 Augmenter是Augmenter的基本元素,而Flow是将多个增强器组合在一起的管道。 产品特点 生成综合数据以提高模型性能,而无需人工 简单,易于使用的轻量级库。 3行代码中的扩增数据 即插即用到任何机器学习/神经网络框架(例如scikit-learn,PyTorch,TensorFlow) 支持文本和音频输入 文字数据扩充示例 声学数据增强示例 部分 描述 如何使用这个库 介绍所有可用的
  3. 所属分类:其它

  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

  1. Pytorch-NLP 部分

  2. 感谢伯禹平台举办的活动,本文记录学习Sequence to Sequence模型,包含如下: 1.Encoder-Decoder结构 传统的RNN模型一般是给定输入,然后会有一个对应的输出,对于自然语言处理中的生成任务来说,输出不限定长度的序列有点难以处理,这时候encoder-decoder结构就可以很好的解决这个问题。如下图所示: encoder部分和decoder部分都是RNN网络,其中Encoder部分将输入的序列编码成一个向量,即隐藏层的输出hidden_state,再将这个hidd
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:317kb
    • 提供者:weixin_38737335
  1. HITSZ-NLP-EXP:哈工大深圳自然语言处理课程(本科)实验课讲义-源码

  2. HITSZ-NLP-EXP 哈工大深圳自然语言处理课程(本科)实验课讲义 第一部分 NLTK介绍 情感词典 Gensim 第二部分 pytorch简介 LSTM语言模型 TextCNN
  3. 所属分类:其它