点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - pytorch语言模型-源码
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。
自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
所属分类:
其它
发布日期:2021-03-23
文件大小:25mb
提供者:
weixin_42115003
lmtool-fwms:用于快速重量记忆系统的PyTorch语言建模工具包-源码
PyTorch语言建模工具包(用于快速重量存储系统) 该存储库包含论文中用于语言建模实验的正式代码: ... 更一般而言,它可以用作PyTorch中的语言建模工具包来进行以下实验: 具有不同更新规则和线性注意功能的快速重量存储系统: 更新规则:删除后的“ sum”和“ ours”(如本文所建议;第4.2节) 线性注意功能:“基于ELU的”线性注意,“ FAVOR +”,“确定性无参数投影(DPFP)” 例如,某些组合会产生众所周知的模型: =“求和”更新规则+“基于ELU”的线性注意 =“总和”
所属分类:
其它
发布日期:2021-03-22
文件大小:68kb
提供者:
weixin_42102358
Cifar10-using-Resnet9-arch-源码
Cifar10-using-Resnet9-arch 下载数据集的链接,请单击下面的链接: : 在此模型中,我使用Resnet9架构来创建图像分类模型,在此模型中,我还使用了卷积神经网络,该网络在图像分类模型上非常有用,我使用Pytorch语言与该项目一起工作。 首先,我们对数据集进行规范化,以便我们可以在0到1之间调整值。然后,我们使用卷积神经网络训练模型,以便能够正确预测图像的标签。
所属分类:
其它
发布日期:2021-03-21
文件大小:344kb
提供者:
weixin_42102401
full_stack_transformer:Pytorch库用于端到端的变压器模型训练,推理和服务-源码
全栈变压器 Pytorch库用于端到端的变压器模型训练,推理和服务。一系列出色的图书馆。 图书馆设计 该库的组织方式使得子包包含所有建模,数据结构和数据流类。 在子程序包中,包含所有特定于任务的代码。 可用任务: -经典的基于文档的语言模型培训。它还提供了用于交互式文本生成的应用程序服务。 文件语言模型 目前,该库中只有1个任务可用。因此,我将在README中为此示例使用一个示例。当将执行其他任务时,我将移动文档中的所有示例。 特征 自动LM数据集准备 端到端变压器LM培训 训练 用元数据(控制
所属分类:
其它
发布日期:2021-03-21
文件大小:1mb
提供者:
weixin_42144366
pytorch-performer:使用pytorch的Performer简单实现-源码
演员 pytorch Performer的简单实现。 模型 表演者使用随机特征图来近似内核。内核期望取代Transformer的“点积自关注”。 Softmax内核 kernel_transformation=softmax_kernel_transformation. 鲁鲁内核 kernel_transformation=relu_kernel_transformation 测试与范例 语言模型 动力总成 预训练屏蔽语言模型。 预训练文件: /example/train_mlm.py
所属分类:
其它
发布日期:2021-03-20
文件大小:7mb
提供者:
weixin_42129113
TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练
TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
所属分类:
其它
发布日期:2021-03-18
文件大小:2mb
提供者:
weixin_42165508
lm-prior-for-nmt:该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的源代码-源码
该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的论文的源代码() 介绍 在这项工作中,我们使用在目标方单语语料库上训练的语言模型(LM)作为较弱的先验知识。 我们添加了一个正则化项,该项驱动翻译模型(TM)的输出分布在LM的分布下可能出现。 更新:您现在可以使用插件下使用LM-之前与fairseq 。 先决条件 安装要求 创建环境(可选) :理想情况下,您应该为项目创建一个环境。 conda create -n lmprior python=3 conda activate l
所属分类:
其它
发布日期:2021-03-17
文件大小:16mb
提供者:
weixin_42117622
RobinASR:ROBIN项目中的罗马尼亚语自动语音识别-源码
罗宾·阿斯 该存储库包含基于架构的罗马尼亚语言的罗宾自动语音识别(RobinASR),以及用于转录的语言模型。 预训练的文本-语音模型可被下载和预训练KenLM能下载。 另外,请确保访问: RELATE平台中可用的ASR系统演示: ://relate.racai.ro/index.php path robin/asr 允许断字和基本大小写还原的后处理Web服务: : 安装 您必须在系统中安装Python 3.6+和PyTorch 1.5.1+。 还。 如果要使用(推荐)GPU版
所属分类:
其它
发布日期:2021-03-16
文件大小:59kb
提供者:
weixin_42107561
performer-pytorch:Pytorch中Performer(基于线性注意的转换器)的实现-源码
表演者-火炬手 的实施,线性注意力基于变压器的变体与A F AST甲ttention V IA正O rthogonalřandom特征的方法(FAVOR +)。 安装 $ pip install performer-pytorch 用法 表演者语言模型 import torch from performer_pytorch import PerformerLM model = PerformerLM ( num_tokens = 20000 , max_seq_len = 20
所属分类:
其它
发布日期:2021-03-16
文件大小:69mb
提供者:
weixin_42122986
simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码
简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
所属分类:
其它
发布日期:2021-03-13
文件大小:17mb
提供者:
weixin_42165018
SEED-源码
SE_ASTER 介绍 这是论文“ SEED:用于场景文本识别的语义增强的编码器-解码器框架”的实现。此代码基于 ,我们衷心感谢ayumiymk的出色回购和帮助。 如何使用 环保 PyTorch == 1.1.0 torchvision == 0.3.0 fasttext == 0.9.1 详细信息可以在requests.txt中找到 火车 准备数据 从下载预训练的语言模型(bin) 更新lib / tools / create_all_synth_lmdb.py中的路径 运行lib / to
所属分类:
其它
发布日期:2021-03-12
文件大小:89kb
提供者:
weixin_42122988
NLPworkshop:使用PyTorch的NLP-基础-源码
NLP工作室 地基 应用领域 NLP任务 预处理 OHE,TF-IDF,CountVectorizer 空间 语言模型 RNN LSTM 10 PyTorch
所属分类:
其它
发布日期:2021-03-10
文件大小:8mb
提供者:
weixin_42178963
transformer-pytorch:简单的pytorch变压器实现示例-源码
变压器 中简单的变压器pytorch实现。 模型 model ㄴ transformer.py ﹒﹒﹒ 트랜스포머 모델 ㄴ util.py ﹒﹒﹒ 모델에 사용되는 유틸 ㄴ visualization.py ﹒﹒﹒ 모델의 각 부분 시각화 train_translation.py﹒﹒﹒ 한국어-영어 번역 학습 run_translation.py ﹒﹒﹒ 한국어-영어 번역 테스트 例子 1.掩盖语言模型 在掩盖语言模型任务上进行预训练转换器,并在
所属分类:
其它
发布日期:2021-03-08
文件大小:531kb
提供者:
weixin_42100129
BERT-pytorch-源码
伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括胜过SQuAD v1.1 QA任务的人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种经过预先训练的
所属分类:
其它
发布日期:2021-03-08
文件大小:35kb
提供者:
weixin_42135073
pytorch语言模型-源码
PyTorch语言模型 有关当前建议的API,请参见main.py 去做: [] CharacterLanguageModelingDataset [] datasets.py [] ptb []维基文字 [] enwik8
所属分类:
其它
发布日期:2021-02-09
文件大小:9kb
提供者:
weixin_42131790
PyTorch_GBW_LM:10亿个字(LM1B GBW)数据集的PyTorch语言模型-源码
PyTorch大规模语言模型 在10亿字(LM1B)/(GBW)数据集上训练的大规模PyTorch语言模型 最新结果 39.98使用LSTM语言模型和Adam Optimizer进行5次训练后的困惑 使用1个Nvidia V100 GPU(每个纪元〜5.1小时)和2048个批处理大小( 〜10.7 GB GPU内存)在约26小时内进行了培训 以前的结果 46.47在1层,2048个单位,256个投影的LSTM语言模型上经过5个训练时期后的困惑[3] 使用1个Nvidia P100 GPU进行了
所属分类:
其它
发布日期:2021-02-03
文件大小:4mb
提供者:
weixin_42099087
适配器变压器:Huggingface变压器+适配器=:red_heart_selector:-源码
适配器变压器 HuggingFace的变形金刚的友好分支,为PyTorch语言模型添加了适配器 adapter-transformers是库的扩展,通过合并 (预训练的适配器模块的中央存储库),将适配器集成到最新的语言模型中。 该库可以用作HuggingFace Transformers的替代品,并定期同步新的上游更改。 快速导览 adapter-transformers当前支持Python 3.6+和PyTorch 1.1.0+ 。 ,您可以从PyPI安装适配器-变压器... pip i
所属分类:
其它
发布日期:2021-02-03
文件大小:7mb
提供者:
weixin_42135462
nlp-pytorch-zh:《用PyTorch进行自然语言处理》-源码
PyTorch自然语言处理 译者: 协议: 所有模型都是错的,但其中一些是有用的。 本书旨在为新人提供自然语言处理(NLP)和深度学习,以涵盖这两个领域的重要主题。这两个主题领域都呈指数级增长。关于一本介绍深度学习和突出实现的NLP的在写这本书时,我们不得不对某些材料遗漏引起困难的,有时甚至是不舒服的选择。对于初学者,我们希望本书能够为基础知识提供很有特色的基础,并可以透视见可能的内容。特别是机器学习和深度学习是一种经验学科,而不是智力科学。我们希望每章中慷慨的端到端代码示例邀请您参与这一经
所属分类:
其它
发布日期:2021-02-03
文件大小:2mb
提供者:
weixin_42160278
BERT-pytorch:Google AI 2018 BERT pytorch实施-源码
伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括在SQuAD v1.1 QA任务上的表现优于人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种预先训
所属分类:
其它
发布日期:2021-02-03
文件大小:28kb
提供者:
weixin_42173218
FfDL:深度学习结构(FfDL,发音为fiddle)是一个深度学习平台,在Kubernetes上提供TensorFlow,Caffe,PyTorch等作为服务-源码
用其他语言阅读:。 深度学习结构(FfDL) 该存储库包含FfDL (深度学习结构)平台的核心服务。 FfDL是用于深度学习的操作系统“架构”。 它是用于以下方面的协作平台: 分布式硬件上的深度学习模型的与框架无关的训练 开放式深度学习API 在用户的私有或公共云中运行深度学习托管 要了解有关建筑细节的更多信息,请阅读。 如果您正在寻找演示,幻灯片,抵押品,博客,网络研讨会以及与FfDL相关的其他材料,请 先决条件 kubectl :Kubernetes命令行界面( ) helm :
所属分类:
其它
发布日期:2021-02-03
文件大小:16mb
提供者:
weixin_42110469
«
1
2
3
4
5
6
»