您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Transformer Assemble(PART III)

  2. 写在前面 本文首发于公众号:NewBeeNLP 这一期魔改Transformers主要关注对原始模型中位置信息的讨论与优化, Self-Attention with RPR from Google,NAACL2018 Self-Attention with SPR from Tencent,EMNLP 2019 TENER from FDU Encoding Word Order in Complex Embedding,ICLR2020 1、Self-Attention with R
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:704512
    • 提供者:weixin_38694566
  1. two-are-better-than-one:与论文相关的代码**两个比一个好-源码

  2. 自述文件 在EMNLP 2020上,与论文“两个优于一个”相关的代码:使用表序列编码器的联合实体和关系提取 纳维 资源 数据集位于“ ./datasets/”中。由于版权问题,我们无法直接发布ACE数据集,而是将其预处理脚本放在“ ./datasets/”中。 每个数据集的单词vectoers都包含在“ ./wv/”中; 不包括上下文化的词嵌入和注意权重(因为它们太大)。我们使用库“ transformers”和“ flair”在本地生成它们。请参考“ ./gens/gen_*.py”。 型号相
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:16777216
    • 提供者:weixin_42146888
  1. search-engine-源码

  2. 搜索引擎 安装 根据: python -m venv .env source .env/bin/activate pip install -U pip setuptools wheel pip install -U nltk pandas gensim pyzstd (不起作用) zen.py附加zen.py -基于Spacy的解决方案,速度非常慢: pip install -U spacy[cuda112,transformers,lookups] " dask[complete] "
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:856686592
    • 提供者:weixin_42143806
  1. specter:幽灵-源码

  2. 演讲者:使用引用文献为基础的变形金刚进行文档级表示学习 ||| | || 该存储库包含代码,预训练模型的链接,使用以及评估框架的链接。 ***** 2021年1月新版:HuggingFace模型***** 现在可以通过HuggingFace的转换器库访问Spectre。 感谢提供了Huggingface培训脚本和检查点。 见下文: 如何使用预训练模型 1-通过Huggingface变形金刚库 要求: pip install --upgrade transformers==4.2 from
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:97280
    • 提供者:weixin_42117037
  1. BabyBERTa:针对儿童的语音训练和评估BERT-源码

  2. 关于 该存储库包含研究代码,用于测试在以儿童为导向的小型语料库中训练的RoBERTA小模型(来自美国英语儿童的5M个单词)。我们的模型是使用transformers Python包实现的,该包由huggingface维护。 历史 2020年(Spring):BabyBERTa项目源于Cynthia Fisher,Dan Roth,Michael Connor和Yael Gertner领导的BabySRL项目,可找到其发表的作品。对于定制(较小尺寸)版本的BERT的SRL和MLM联合培训没有多大益
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:774144
    • 提供者:weixin_42110469
  1. emoji-prediction-源码

  2. 表情符号预测的多分辨率注释的实现 依存关系: 带有CUDA的和 库。 使用conda的示例设置: conda create -n transformer python conda install pytorch cudatoolkit=10.1 -c pytorch -c conda-forge pip install transformers 资料准备 由于原始数据仅提供对应于每个短语而不是每个句子的标签。需要额外的预处理才能访问每个句子的标签。因此,我们使用了这个包( ),该包允许我
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:10240
    • 提供者:weixin_42144086
  1. stereo-transformer:立体声变压器官方回购-源码

  2. 立体声变压器(STTR) 这是我们的工作的正式仓库,。 在街景上的微调结果: 仅在综合数据上训练时,可以推广到医学领域: 如果您发现我们的工作有意义,请引用 article{li2020revisiting, title={Revisiting Stereo Depth Estimation From a Sequence-to-Sequence Perspective with Transformers}, author={Li, Zhaoshuo and Liu, Xingtong
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:17825792
    • 提供者:weixin_42131790
  1. CodeBERT:CodeBERT-源码

  2. CodeBERT 此存储库提供了用于重现的实验的代码。 CodeBERT是用于编程语言的预训练模型,它是在6种编程语言(Python,Java,Javascr ipt,PHP,Ruby,Go)上的NL-PL对上预训练的多编程语言模型。 相依性 点安装火炬 点安装变压器 奇克之旅 我们使用huggingface / transformers框架来训练模型。您可以像训练有素的Roberta基础一样使用我们的模型。现在,我们给出一个有关如何加载模型的示例。 import torch from tra
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:48234496
    • 提供者:weixin_42122881
  1. Semantic-Search:使用变形金刚等进行语义搜索-源码

  2. 使用Transformers模型和其他模型中的句子嵌入进行语义搜索 使用感知嵌入的简单应用程序可以将文档投影到高维空间中,并使用余弦相似度找到大多数相似度。 目的是演示和比较模型。要进行大规模部署,必须计算并保存文档嵌入,以快速搜索和计算相似性。 第一次加载需要很长时间,因为该应用程序将下载所有模型。除了正在运行的6个模型外,即使在CPU中,推理时间也是可以接受的。 应用 演示文本包含有关每个主题的4个句子:Apple,操作系统,Java和Python。 可能会看到语义搜索很好地仅过滤掉了有关特
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:5242880
    • 提供者:weixin_42135754
  1. flip:使用Flip生成合成图像。从一小部分对象和背景生成数千个新的2D图像-源码

  2. 翻动 使用Flip!生成综合数据!从一小部分对象和背景生成数千个新的2D图像。 安装 使用pip安装Flip: pip install flip-data 依存关系 翻转要求: Python(> = 3.7) Opencv(> = 4.3.0) 脾气暴躁(> = 1.19.1) 快速入门() 要尝试Flip库,您可以运行examples/data_generator.py 。您将需要添加背景图像和对象以组成新的训练数据集,然后将它们放置在以下目录中: BACKGROUN
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:9437184
    • 提供者:weixin_42112894
  1. deepmux_sentiment_analysis-源码

  2. 拥抱面部变压器和DeepMux在云中轻松进行情感分析 情感分析是NLP的一项实际任务,它涉及从在线购物到社交媒体分析的各个领域。在这篇指导性文章中,我们将展示如何在云中进行部署,以及如何使用最先进的模型来进行情感分析,仅需几行代码。 Hugging Face的Transformers库提供了一个方便,易于使用的API,用于下载和运行预先训练的NLP模型。有成千上万种用于各种任务的工具,例如文本生成,问题解答,机器翻译等。您可以在找到更多信息。 反过来, DeepMux提供了一个方便灵活的环境,
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:3072
    • 提供者:weixin_42120550
  1. TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练

  2. TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:2097152
    • 提供者:weixin_42165508
  1. DeepNER:天池中药说明书实体识别挑战冠军方案;中文命名实体识别; NER; BERT-CRF&BERT-SPAN&BERT-MRC; Pytorch-源码

  2. 中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔​​的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 p
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:3145728
    • 提供者:weixin_42116805
  1. ViT-pytorch:视觉变压器的Pytorch重新实现(图像值得16x16字-源码

  2. 视觉变压器 Pytorch重新实现了针对随论文 ,Alexey Dosovitskiy,Lucas Beyer,Alexander Kolesnikov,Dirk Weissenborn,翟小华,Thomas Unterthiner,Mostafa Dehghani一起发布, Matthias Minderer,Georg Heigold,Sylvain Gelly,Jakob Uszkoreit和Neil Houlsby。 本文表明,将Transformers直接应用于图像补丁并在大型数据集上
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:5242880
    • 提供者:weixin_42149145
  1. dl-translate:基于Huggingface转换器的基于深度学习的翻译库-源码

  2. DL翻译 基于深度学习的翻译库,基于Huggingface transformers和Facebook的mBART-Large :laptop: :books: / :snake: :test_tube: / 快速开始 用pip安装库: pip install dl-translate 要翻译一些文本: import dl_translate as dlt mt = dlt . TranslationModel () # Slow when you load it for th
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:35840
    • 提供者:weixin_42132359
  1. keytotext:句子关键字-源码

  2. 按键文字 想法是建立一个将关键字作为输入并生成句子作为输出的模型。 模型: 已经建立了两个模型: 使用T5的基本大小= 850 MB可以在这里找到: : 使用T5,小尺寸= 230 MB,可以在这里找到: : 用法: from transformers import AutoTokenizer , AutoModelWithLMHead tokenizer = AutoTokenizer . from_pretrained ( "gagan3012/keytotext-small"
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:8388608
    • 提供者:weixin_42128270
  1. behroozazarkhalili-源码

  2. 嗨,我是 :waving_hand: 我是一名数据科学家,是加州大学伯克利分校研究一名研究员,致力于深度学习在生活语言处理,计算药物发现和计算过程研究中的。 :man::laptop: 我目前正在与 , , , , , 共同使生命科学的深度学习民主化。 我正在开发基于序列和图的模型,以了解计算protemics和结构生物学。 :brain: 我是Python , R , Scala , Linux和Latex Expert。 :seedling: 我目前正在学习 ( 。 :u
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:2048
    • 提供者:weixin_42116713
  1. TextGeneration:GPT2 bert2bert-源码

  2. 自述文件 基于pytorch / transformers和pytorch_lightning 火车数据描述 json [ { " title " : " xxxx " , " body " : " xxxxx " }, { " title " : " xxxx " , " body " : " xxxxx " } ... ] GPT2 预训练模型:CKIP Lab GPT2-base 两种生成方法: 上下文校准 法线束搜索 微调 python train_scr
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:22528
    • 提供者:weixin_42105169
  1. simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码

  2. 简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:17825792
    • 提供者:weixin_42165018
  1. minbert-assignment:CS11-747的极简BERT实施分配-源码

  2. 明伯特作业 姜正宝,周树彦和Ritam Dutt 这是开发BERT的最低版本的练习,该版本是卡耐基梅隆大学。 在此作业中,您将实现BERT模型的一些重要组件,以更好地理解其架构。 然后,您将使用BERT模型对sst数据集和cfimdb数据集执行句子分类。 作业详细信息 重要笔记 按照setup.sh正确设置环境并安装依赖项。 在中有代码结构的详细描述,其中包括需要实现哪些部分的描述。 只允许使用torch ,不允许使用其他任何外部库(例如, transformers )。 我们将使用以
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:1048576
    • 提供者:weixin_42117150
« 1 2 ... 4 5 6 7 8 910 11 12 13 »