点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - Transformers
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
Transformer Assemble(PART III)
写在前面 本文首发于公众号:NewBeeNLP 这一期魔改Transformers主要关注对原始模型中位置信息的讨论与优化, Self-Attention with RPR from Google,NAACL2018 Self-Attention with SPR from Tencent,EMNLP 2019 TENER from FDU Encoding Word Order in Complex Embedding,ICLR2020 1、Self-Attention with R
所属分类:
其它
发布日期:2021-01-06
文件大小:704512
提供者:
weixin_38694566
two-are-better-than-one:与论文相关的代码**两个比一个好-源码
自述文件 在EMNLP 2020上,与论文“两个优于一个”相关的代码:使用表序列编码器的联合实体和关系提取 纳维 资源 数据集位于“ ./datasets/”中。由于版权问题,我们无法直接发布ACE数据集,而是将其预处理脚本放在“ ./datasets/”中。 每个数据集的单词vectoers都包含在“ ./wv/”中; 不包括上下文化的词嵌入和注意权重(因为它们太大)。我们使用库“ transformers”和“ flair”在本地生成它们。请参考“ ./gens/gen_*.py”。 型号相
所属分类:
其它
发布日期:2021-03-22
文件大小:16777216
提供者:
weixin_42146888
search-engine-源码
搜索引擎 安装 根据: python -m venv .env source .env/bin/activate pip install -U pip setuptools wheel pip install -U nltk pandas gensim pyzstd (不起作用) zen.py附加zen.py -基于Spacy的解决方案,速度非常慢: pip install -U spacy[cuda112,transformers,lookups] " dask[complete] "
所属分类:
其它
发布日期:2021-03-21
文件大小:856686592
提供者:
weixin_42143806
specter:幽灵-源码
演讲者:使用引用文献为基础的变形金刚进行文档级表示学习 ||| | || 该存储库包含代码,预训练模型的链接,使用以及评估框架的链接。 ***** 2021年1月新版:HuggingFace模型***** 现在可以通过HuggingFace的转换器库访问Spectre。 感谢提供了Huggingface培训脚本和检查点。 见下文: 如何使用预训练模型 1-通过Huggingface变形金刚库 要求: pip install --upgrade transformers==4.2 from
所属分类:
其它
发布日期:2021-03-21
文件大小:97280
提供者:
weixin_42117037
BabyBERTa:针对儿童的语音训练和评估BERT-源码
关于 该存储库包含研究代码,用于测试在以儿童为导向的小型语料库中训练的RoBERTA小模型(来自美国英语儿童的5M个单词)。我们的模型是使用transformers Python包实现的,该包由huggingface维护。 历史 2020年(Spring):BabyBERTa项目源于Cynthia Fisher,Dan Roth,Michael Connor和Yael Gertner领导的BabySRL项目,可找到其发表的作品。对于定制(较小尺寸)版本的BERT的SRL和MLM联合培训没有多大益
所属分类:
其它
发布日期:2021-03-20
文件大小:774144
提供者:
weixin_42110469
emoji-prediction-源码
表情符号预测的多分辨率注释的实现 依存关系: 带有CUDA的和 库。 使用conda的示例设置: conda create -n transformer python conda install pytorch cudatoolkit=10.1 -c pytorch -c conda-forge pip install transformers 资料准备 由于原始数据仅提供对应于每个短语而不是每个句子的标签。需要额外的预处理才能访问每个句子的标签。因此,我们使用了这个包( ),该包允许我
所属分类:
其它
发布日期:2021-03-19
文件大小:10240
提供者:
weixin_42144086
stereo-transformer:立体声变压器官方回购-源码
立体声变压器(STTR) 这是我们的工作的正式仓库,。 在街景上的微调结果: 仅在综合数据上训练时,可以推广到医学领域: 如果您发现我们的工作有意义,请引用 article{li2020revisiting, title={Revisiting Stereo Depth Estimation From a Sequence-to-Sequence Perspective with Transformers}, author={Li, Zhaoshuo and Liu, Xingtong
所属分类:
其它
发布日期:2021-03-19
文件大小:17825792
提供者:
weixin_42131790
CodeBERT:CodeBERT-源码
CodeBERT 此存储库提供了用于重现的实验的代码。 CodeBERT是用于编程语言的预训练模型,它是在6种编程语言(Python,Java,Javascr ipt,PHP,Ruby,Go)上的NL-PL对上预训练的多编程语言模型。 相依性 点安装火炬 点安装变压器 奇克之旅 我们使用huggingface / transformers框架来训练模型。您可以像训练有素的Roberta基础一样使用我们的模型。现在,我们给出一个有关如何加载模型的示例。 import torch from tra
所属分类:
其它
发布日期:2021-03-19
文件大小:48234496
提供者:
weixin_42122881
Semantic-Search:使用变形金刚等进行语义搜索-源码
使用Transformers模型和其他模型中的句子嵌入进行语义搜索 使用感知嵌入的简单应用程序可以将文档投影到高维空间中,并使用余弦相似度找到大多数相似度。 目的是演示和比较模型。要进行大规模部署,必须计算并保存文档嵌入,以快速搜索和计算相似性。 第一次加载需要很长时间,因为该应用程序将下载所有模型。除了正在运行的6个模型外,即使在CPU中,推理时间也是可以接受的。 应用 演示文本包含有关每个主题的4个句子:Apple,操作系统,Java和Python。 可能会看到语义搜索很好地仅过滤掉了有关特
所属分类:
其它
发布日期:2021-03-19
文件大小:5242880
提供者:
weixin_42135754
flip:使用Flip生成合成图像。从一小部分对象和背景生成数千个新的2D图像-源码
翻动 使用Flip!生成综合数据!从一小部分对象和背景生成数千个新的2D图像。 安装 使用pip安装Flip: pip install flip-data 依存关系 翻转要求: Python(> = 3.7) Opencv(> = 4.3.0) 脾气暴躁(> = 1.19.1) 快速入门() 要尝试Flip库,您可以运行examples/data_generator.py 。您将需要添加背景图像和对象以组成新的训练数据集,然后将它们放置在以下目录中: BACKGROUN
所属分类:
其它
发布日期:2021-03-19
文件大小:9437184
提供者:
weixin_42112894
deepmux_sentiment_analysis-源码
拥抱面部变压器和DeepMux在云中轻松进行情感分析 情感分析是NLP的一项实际任务,它涉及从在线购物到社交媒体分析的各个领域。在这篇指导性文章中,我们将展示如何在云中进行部署,以及如何使用最先进的模型来进行情感分析,仅需几行代码。 Hugging Face的Transformers库提供了一个方便,易于使用的API,用于下载和运行预先训练的NLP模型。有成千上万种用于各种任务的工具,例如文本生成,问题解答,机器翻译等。您可以在找到更多信息。 反过来, DeepMux提供了一个方便灵活的环境,
所属分类:
其它
发布日期:2021-03-19
文件大小:3072
提供者:
weixin_42120550
TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练
TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
所属分类:
其它
发布日期:2021-03-18
文件大小:2097152
提供者:
weixin_42165508
DeepNER:天池中药说明书实体识别挑战冠军方案;中文命名实体识别; NER; BERT-CRF&BERT-SPAN&BERT-MRC; Pytorch-源码
中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 p
所属分类:
其它
发布日期:2021-03-18
文件大小:3145728
提供者:
weixin_42116805
ViT-pytorch:视觉变压器的Pytorch重新实现(图像值得16x16字-源码
视觉变压器 Pytorch重新实现了针对随论文 ,Alexey Dosovitskiy,Lucas Beyer,Alexander Kolesnikov,Dirk Weissenborn,翟小华,Thomas Unterthiner,Mostafa Dehghani一起发布, Matthias Minderer,Georg Heigold,Sylvain Gelly,Jakob Uszkoreit和Neil Houlsby。 本文表明,将Transformers直接应用于图像补丁并在大型数据集上
所属分类:
其它
发布日期:2021-03-18
文件大小:5242880
提供者:
weixin_42149145
dl-translate:基于Huggingface转换器的基于深度学习的翻译库-源码
DL翻译 基于深度学习的翻译库,基于Huggingface transformers和Facebook的mBART-Large :laptop: :books: / :snake: :test_tube: / 快速开始 用pip安装库: pip install dl-translate 要翻译一些文本: import dl_translate as dlt mt = dlt . TranslationModel () # Slow when you load it for th
所属分类:
其它
发布日期:2021-03-17
文件大小:35840
提供者:
weixin_42132359
keytotext:句子关键字-源码
按键文字 想法是建立一个将关键字作为输入并生成句子作为输出的模型。 模型: 已经建立了两个模型: 使用T5的基本大小= 850 MB可以在这里找到: : 使用T5,小尺寸= 230 MB,可以在这里找到: : 用法: from transformers import AutoTokenizer , AutoModelWithLMHead tokenizer = AutoTokenizer . from_pretrained ( "gagan3012/keytotext-small"
所属分类:
其它
发布日期:2021-03-16
文件大小:8388608
提供者:
weixin_42128270
behroozazarkhalili-源码
嗨,我是 :waving_hand: 我是一名数据科学家,是加州大学伯克利分校研究一名研究员,致力于深度学习在生活语言处理,计算药物发现和计算过程研究中的。 :man::laptop: 我目前正在与 , , , , , 共同使生命科学的深度学习民主化。 我正在开发基于序列和图的模型,以了解计算protemics和结构生物学。 :brain: 我是Python , R , Scala , Linux和Latex Expert。 :seedling: 我目前正在学习 ( 。 :u
所属分类:
其它
发布日期:2021-03-15
文件大小:2048
提供者:
weixin_42116713
TextGeneration:GPT2 bert2bert-源码
自述文件 基于pytorch / transformers和pytorch_lightning 火车数据描述 json [ { " title " : " xxxx " , " body " : " xxxxx " }, { " title " : " xxxx " , " body " : " xxxxx " } ... ] GPT2 预训练模型:CKIP Lab GPT2-base 两种生成方法: 上下文校准 法线束搜索 微调 python train_scr
所属分类:
其它
发布日期:2021-03-14
文件大小:22528
提供者:
weixin_42105169
simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码
简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
所属分类:
其它
发布日期:2021-03-13
文件大小:17825792
提供者:
weixin_42165018
minbert-assignment:CS11-747的极简BERT实施分配-源码
明伯特作业 姜正宝,周树彦和Ritam Dutt 这是开发BERT的最低版本的练习,该版本是卡耐基梅隆大学。 在此作业中,您将实现BERT模型的一些重要组件,以更好地理解其架构。 然后,您将使用BERT模型对sst数据集和cfimdb数据集执行句子分类。 作业详细信息 重要笔记 按照setup.sh正确设置环境并安装依赖项。 在中有代码结构的详细描述,其中包括需要实现哪些部分的描述。 只允许使用torch ,不允许使用其他任何外部库(例如, transformers )。 我们将使用以
所属分类:
其它
发布日期:2021-03-12
文件大小:1048576
提供者:
weixin_42117150
«
1
2
...
4
5
6
7
8
9
10
11
12
13
»