点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - fairseq
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
neu2017.tgz
cwmt/neu2017中英神经机器翻译平行语料库,在fairseq和opennmt上均成功训练并预测得到不错的结果。
所属分类:
深度学习
发布日期:2018-08-06
文件大小:143mb
提供者:
longma666666
fairseq-LSTM案例学习
https://fairseq.readthedocs.io/en/latest/tutorial_simple_lstm.html examples/translation,对prepare-iwlt4.sh文件运行一直报错数据集下载失败,所以稍作了修改。自行下载好数据,并对.sh文件进行修改。
所属分类:
深度学习
发布日期:2020-10-14
文件大小:59mb
提供者:
weixin_45903371
BabyBERTa:针对儿童的语音训练和评估BERT-源码
关于 该存储库包含研究代码,用于测试在以儿童为导向的小型语料库中训练的RoBERTA小模型(来自美国英语儿童的5M个单词)。我们的模型是使用transformers Python包实现的,该包由huggingface维护。 历史 2020年(Spring):BabyBERTa项目源于Cynthia Fisher,Dan Roth,Michael Connor和Yael Gertner领导的BabySRL项目,可找到其发表的作品。对于定制(较小尺寸)版本的BERT的SRL和MLM联合培训没有多大益
所属分类:
其它
发布日期:2021-03-20
文件大小:756kb
提供者:
weixin_42110469
delight:喜-源码
DeLighT:超深,轻量级的变压器 该存储库包含我们构建高效序列模型的工作的源代码: 和 。 目录 概述 在此存储库中,我们共享论文DeLight的源代码,该源代码与参数少得多的基于变压器的模型相比,可提供相似或更好的性能。 DeLighT使用DExTra更有效地分配参数(1)在每个Transformer块内,进行深度和轻量级转换,(2)使用逐块缩放跨块分配参数,从而允许在输入附近变浅和变窄DeLighT块,以及变宽和变深DeLighT在输出附近阻塞。总体而言,DeLighT网络的深度是标准变
所属分类:
其它
发布日期:2021-03-19
文件大小:1mb
提供者:
weixin_42116058
translateserver-py:翻译服务器-用于部署翻译服务-源码
翻译服务器 翻译服务器,用于部署翻译模型 安装运行(单机) 系统要求: centos或者ubuntu 安装python依赖包 pip install -r requirements.txt 安装pyltp(任选) 如果医师为中文(zh)的话,需要pyltp中的分句模块支持,可以使用以下命令安装pyltp git clone https://github.com/HIT-SCIR/pyltp.git && \ cd pyltp && \ git checkout v0.4.0
所属分类:
其它
发布日期:2021-03-17
文件大小:41kb
提供者:
weixin_42113754
lm-prior-for-nmt:该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的源代码-源码
该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的论文的源代码() 介绍 在这项工作中,我们使用在目标方单语语料库上训练的语言模型(LM)作为较弱的先验知识。 我们添加了一个正则化项,该项驱动翻译模型(TM)的输出分布在LM的分布下可能出现。 更新:您现在可以使用插件下使用LM-之前与fairseq 。 先决条件 安装要求 创建环境(可选) :理想情况下,您应该为项目创建一个环境。 conda create -n lmprior python=3 conda activate l
所属分类:
其它
发布日期:2021-03-17
文件大小:16mb
提供者:
weixin_42117622
mbart_training-源码
(----自述文件将于2021年3月10日更新----) 根据之前的实验,在我们的情况下,不能单独使用拥抱面,因为它无法按照腰围的要求进行预处理或处理噪音。 Henc ewe决定改用fairseq代码存储库。 为此,下面是基本步骤。 使用与下面创建的虚拟环境相同的虚拟环境。 安装fairseq( ) 点安装句子 现在,在我们的设置中的文件夹 语料库位于文件夹corpus /中 它具有两种语言的corpus / de /和corpus / hsb文件夹 目录datset /将包含测试序列
所属分类:
其它
发布日期:2021-03-10
文件大小:17mb
提供者:
weixin_42140716
fasterseq:基于fairseq的更快,更高效的序列建模深度学习算法的实现,例如Lite-Transormer,Reformer,Linformer,注意力机制的有效变体等-源码
关于FasterSeq 随着物联网和其他移动设备的快速发展,更快,更高效的深度学习技术的部署需要更多的努力。 我创建了这个资料库,以探索和开发最新的加速计算和有效的深度学习技术,以进行更快的序列建模。 我们选择的基础库是 ,它是由Facebook人工智能研究实验室开发和维护的用于序列建模的开源库。 要求和安装 版本> = 1.4.0 Python版本> = 3.6 要训练新型号,您还需要NVIDIA GPU和 要安装fairseq并在本地进行开发: git clone h
所属分类:
其它
发布日期:2021-03-09
文件大小:3mb
提供者:
weixin_42181686
NiuTrans.NMT:快速的神经机器翻译系统。 它是用C ++开发的,并借助NiuTensor来实现快速张量API。-源码
NuTrans NMT 特征 NiuTrans.NMT是基于轻量级且高效的基于Transformer的神经机器翻译系统。中文介绍见 其主要特点是: 很少依赖。 它是用纯C ++实现的,所有依赖项都是可选的。 快速解码。 它支持各种解码加速策略,例如批处理修剪和动态批处理大小。 先进的NMT模型,例如 。 灵活的运行模式。 该系统可以在各种系统和设备(Linux与Windows,CPU与GPU,FP32与FP16等)上运行。 与框架无关。 它支持使用其他工具训练的各种模型,例如fair
所属分类:
其它
发布日期:2021-03-08
文件大小:13mb
提供者:
weixin_42105570
DL_project:TAU DL课程的项目-源码
一口气说话人识别 这是以下代码的源代码:“一口气说话人识别:您需要一个好的指标吗?” 我们在TAU深度学习2021课程的最终项目中撰写的论文。 数据 为了训练或测试我们的模型,您必须从LibriSpeech项目中下载用于训练目的的,以及和。 Wav2vec重量 我们使用了来自fairseq存储库的预训练的wav2vec网络。 在开始使用我们的源代码之前,请确保下载 。 数据预处理 首先,创建一个名为-'cut_train_data_360_full_repr'的新文件夹。为了在几秒钟内将音频文件
所属分类:
其它
发布日期:2021-03-07
文件大小:93kb
提供者:
weixin_42138408
CTI_with_NLP:具有NLP(KOR&EN)的CTI(网络威胁情报)-源码
带有NLP的CTI 具有NLP(KOR&EN)的CTI(网络威胁情报) #说明(在Windows10中安装) # Run Windows Terminal as administrator # Creating a virtual environment > python - m venv venv > .\venv\scr ipts\Activate.ps1 > python - m pip install -- upgrade pip > pip install
所属分类:
其它
发布日期:2021-03-05
文件大小:1mb
提供者:
weixin_42099858
公平交易-源码
Fairseq(-py)是一个序列建模工具包,研究人员和开发人员可以使用它们来训练定制模型,以进行翻译,摘要,语言建模和其他文本生成任务。 我们提供各种序列建模论文的参考实现: 实施文件清单 卷积神经网络(CNN) LightConv和DynamicConv模型 长短期记忆(LSTM)网络基于注意力的神经机器翻译的有效方法(Luong et al。,2015) 变压器(自我关注)网络 注意就是您所需要的(Vaswani et al。,2017) 非自回归变压器 非自回归神经机器翻译(
所属分类:
其它
发布日期:2021-03-03
文件大小:121mb
提供者:
weixin_42129300
fairseq-apollo:使用Apollo优化器的FairSeq回购-源码
Fairseq-Apollo Fairseq与Apollo优化器一起使用。 该文件夹基于。 WMT-14 En-De的实验结果 方法 测试BLEU 新元 26.59(0.07) 亚当 27.84(0.12) * 28.15(0.15) 阿达·贝利夫(AdaBelief) 28.14(0.11) 阿波罗 28.34(0.10) 我们使用基于Transformer的模型。 下表列出了一些关键的超参数。 我们还提供培训用于实验的更多细节。 基于WMT-14 En-De的变压器 方法
所属分类:
其它
发布日期:2021-02-28
文件大小:3mb
提供者:
weixin_42108778
ProphetNet:ProphetNet:预测未来N-gram用于序列到序列的预训练https://arxiv.orgpdf2001.04063.pdf-源码
先知网 此提供了用于在重现实验的代码 。 在本文中,我们提出了一种称为ProphetNet的新的预训练语言模型,用于序列到序列的学习,具有一个称为未来n-gram预测的新型自我监督目标。 我们已经发布了针对ProphetNet基线基准(中)。 试试! :) 相依性 点安装火炬== 1.3.0 点安装Fairseq == v0.9.0 预训练模型 我们已经发布了针对所述的预训练模型的以下检查点: ProphetNet-large-16GB (已在16GB语料库Wikipedia +具有64个
所属分类:
其它
发布日期:2021-02-24
文件大小:10mb
提供者:
weixin_42163404
espresso:Espresso:快速的端到端神经语音识别工具包-源码
浓咖啡 Espresso是基于深度学习库和流行的神经机器翻译工具的开源,模块化,可扩展的端到端神经自动语音识别(ASR)工具包。 Espresso支持在GPU和计算节点之间进行分布式训练,并具有ASR中常用的各种解码方法,包括基于超前单词的语言模型融合,为此实现了快速,并行的解码器。 我们为以下语音数据集提供最新的培训食谱: 什么是新的: 2020年6月:发布了变压器配方。 2020年4月:现已支持 (使用 )和混合ASR的交叉熵训练。 和分别提供WSJ配方作为示例。 2020年3月:支
所属分类:
其它
发布日期:2021-02-24
文件大小:3mb
提供者:
weixin_42116585
AutoEncoder:使用Tensorflow2制作的AutoEncoder功能提取器-源码
自动编码器 使用Tensorflow2制作的AutoEncoder功能提取器 依存关系 Tensorflow 2泡菜麻木 对于数据提取: scipy shennong 如果使用Wav2Vec表示形式: torch fairseq soundfile 别的, remove in data.py class PretrainedWav2VecModel and Prediction function read_audio and erase import torch, nn, fairseq
所属分类:
其它
发布日期:2021-02-19
文件大小:62kb
提供者:
weixin_42138139
公平交易-源码
Fairseq(-py)是一个序列建模工具包,研究人员和开发人员可以使用它们来训练自定义模型,以进行翻译,摘要,语言建模和其他文本生成任务。 什么是新的: 2020年4月: 2020年4月: 2020年4月: 2020年3月: 2020年2月: 2020年2月: 2019年12月: 2019年11月: 2019年11月: 2019年11月: 2019年11月: 2019年9月: 2019年8月: 2019年7月:Fairseq在MIT许可下获得了许可 2019年7月: 2019
所属分类:
其它
发布日期:2021-02-18
文件大小:3mb
提供者:
weixin_42122878
fairseq-gec:论文的源代码:通过使用未标记的数据预先训练复制增强的体系结构来改善语法错误纠正-源码
介绍 论文的源代码:通过使用未标记的数据预先训练复制增强的体系结构来改进语法错误校正作者:赵薇,王亮,沉可为,贾若瑜,刘景明Arxiv网址: ://arxiv.org/abs 评论:NAACL 2019接受(口头) 依存关系 PyTorch版本> = 1.0.0 Python版本> = 3.6 资料下载 下载CoNLL-2014评估脚本 cd gec_scr ipts/ sh download.sh 下载预处理数据和预先训练的模型 预先训练的模型:(Google云端硬盘/百度)
所属分类:
其它
发布日期:2021-02-03
文件大小:2mb
提供者:
weixin_42100129
attn2d:普遍注意:2D卷积网络用于序列到序列的预测-源码
这是Fairseq(-py)的一个分支,具有以下模型的实现: 普遍注意-二维卷积神经网络用于序列到序列的预测 NMT通过二维卷积模型对源序列和目标序列进行联合编码。 Pervasive Attention还提供了广泛的解码网格,我们可以利用该网格有效地训练wait-k模型。 请参阅。 同步机器翻译的高效Wait-k模型 具有单向编码器并联合训练多个wait-k路径的Transformer Wait-k模型(Ma等,2019)。 请参阅。 Fairseq要求和安装 版本> = 1.4.
所属分类:
其它
发布日期:2021-02-03
文件大小:1mb
提供者:
weixin_42097189
翻译:翻译-PyTorch语言库-源码
注意 现在不建议使用PyTorch Translate,请改用 。 翻译-PyTorch语言库 翻译是一个用PyTorch编写的机器翻译库。 它提供了序列到序列模型的训练。 Translate依赖于 (一个通用的序列到序列库),这意味着可以训练在Translate和Fairseq中实现的模型。 Translate还提供了通过将某些模型导出到Caffe2图形以及从C ++加载和运行这些模型以用于生产目的的能力。 当前,我们将组件(编码器,解码器)分别导出到Caffe2,并且波束搜索是在C ++中实
所属分类:
其它
发布日期:2021-02-03
文件大小:274kb
提供者:
weixin_42123191