点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - Pytorch-NLP部分
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
seq2seq_translation_tutorial_CN.ipynb
NLP从零开始:使用序列到序列网络和注意力机制进行翻译。Pytorch教程,自然语言处理部分教程,TRANSLATION WITH A SEQUENCE TO SEQUENCE NETWORK AND ATTENTION教程,seq2seq_translation_tutorial_CN.ipynb
所属分类:
深度学习
发布日期:2020-02-29
文件大小:176kb
提供者:
wmq104
char_rnn_generation_tutorial_CN.ipynb
NLP从零开始:使用字符级RNN进行名字生成。Pytorch教程,自然语言处理部分教程,字符级RNN生成教程,char_rnn_generation_tutorial_CN.ipynb
所属分类:
深度学习
发布日期:2020-02-27
文件大小:38kb
提供者:
wmq104
PyTorch官方教程中文版.pdf
PyTorch是一个基于Torch的Python开源机器学习库,用于自然语言处理等应用程序。它主要由Facebookd的人工智能小组开发,不仅能够 实现强大的GPU加速,同时还支持动态神经网络,这一点是现在很多主流框架如TensorFlow都不支持的。 PyTorch提供了两个高级功能: 1.具有强大的GPU加速的张量计算(如Numpy) 2.包含自动求导系统的深度神经网络 除了Facebook之外,Twitter、GMU和Salesforce等机构都采用了PyTorch。 官方教程包含了
所属分类:
深度学习
发布日期:2020-02-14
文件大小:16mb
提供者:
fendouai
使用pytorch和torchtext进行文本分类的实例
文本分类是NLP领域的较为容易的入门问题,本文记录我自己在做文本分类任务以及复现相关论文时的基本流程,绝大部分操作都使用了torch和torchtext两个库。 1. 文本数据预处理 首先数据存储在三个csv文件中,分别是train.csv,valid.csv,test.csv,第一列存储的是文本数据,例如情感分类问题经常是用户的评论review,例如imdb或者amazon数据集。第二列是情感极性polarity,N分类问题的话就有N个值,假设值得范围是0~N-1。 下面是很常见的文本预处理流
所属分类:
其它
发布日期:2020-12-23
文件大小:100kb
提供者:
weixin_38706603
BERT大火却不懂Transformer?
Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
所属分类:
其它
发布日期:2021-02-24
文件大小:2mb
提供者:
weixin_38746926
社交媒体平台中的白话差异:使用NLP模型BERT和LSTM来检测不同社交媒体平台上对话中的白话差异-源码
信用 该存储库由ThilinaRajapakse派生而来,后者使用了HuggingFace PyTorch-Transformers库来使用UC Berkeley的信息与数据科学硕士计划。 特别是,该存储库将用于展示JJ Sahabu和George Tao在其W266 Final Project中的工作。 目的 该项目具有二进制文本分类功能,用于区分Twitter和Facebook数据。 该项目的目的是展示RoBERTa的简单用法,并将其与LSTM进行比较,并提供朴素的基线模型,以充分了解最新的
所属分类:
其它
发布日期:2021-02-13
文件大小:4mb
提供者:
weixin_42122340
nlpaug:NLP的数据增强-源码
Nlpaug 这个python库可帮助您为机器学习项目扩充nlp。 请访问此简介以了解有关。 Augmenter是Augmenter的基本元素,而Flow是将多个增强器组合在一起的管道。 产品特点 生成综合数据以提高模型性能,而无需人工 简单,易于使用的轻量级库。 3行代码中的扩增数据 即插即用到任何机器学习/神经网络框架(例如scikit-learn,PyTorch,TensorFlow) 支持文本和音频输入 文字数据扩充示例 声学数据增强示例 部分 描述 如何使用这个库 介绍所有可用的
所属分类:
其它
发布日期:2021-02-03
文件大小:1mb
提供者:
weixin_42139429
BERT大火却不懂Transformer?
Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
所属分类:
其它
发布日期:2021-01-27
文件大小:2mb
提供者:
weixin_38693657
Pytorch-NLP 部分
感谢伯禹平台举办的活动,本文记录学习Sequence to Sequence模型,包含如下: 1.Encoder-Decoder结构 传统的RNN模型一般是给定输入,然后会有一个对应的输出,对于自然语言处理中的生成任务来说,输出不限定长度的序列有点难以处理,这时候encoder-decoder结构就可以很好的解决这个问题。如下图所示: encoder部分和decoder部分都是RNN网络,其中Encoder部分将输入的序列编码成一个向量,即隐藏层的输出hidden_state,再将这个hidd
所属分类:
其它
发布日期:2021-01-20
文件大小:317kb
提供者:
weixin_38737335
HITSZ-NLP-EXP:哈工大深圳自然语言处理课程(本科)实验课讲义-源码
HITSZ-NLP-EXP 哈工大深圳自然语言处理课程(本科)实验课讲义 第一部分 NLTK介绍 情感词典 Gensim 第二部分 pytorch简介 LSTM语言模型 TextCNN
所属分类:
其它
发布日期:2021-03-30
文件大小:2mb
提供者:
weixin_42135773