您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. deeplearning-nlp-models:一个小的,可解释的代码库,其中包含在PyTorch中重新实现的一些“深度” NLP模型。可与GPU一起运行的Colab笔记本。楷模-源码

  2. deeplearning-nlp-models 一个小的,可解释的代码库,其中包含在PyTorch中重新实现的一些“深度” NLP模型。 对于那些有兴趣进入NLP的DL架构杂草的人来说,这是一个(不完整的)起点。带注释的模型与一些注释一起提供。 有链接可以在与GPU协同工作的情况下运行这些模型 :cloud_with_lightning:通过笔记本。 当前型号:word2vec,CNN,转换器,gpt。 (进行中) BERT:阅读。理解。 注意:这些是每种型号的玩具版本。 内容 楷模 这些NL
  3. 所属分类:其它

  1. DeepNER:天池中药说明书实体识别挑战冠军方案;中文命名实体识别; NER; BERT-CRF&BERT-SPAN&BERT-MRC; Pytorch-源码

  2. 中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔​​的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 p
  3. 所属分类:其它

  1. sentence-transformers:BERT和XLNet的句子嵌入-源码

  2. 句子转换器:使用BERT / RoBERTa / XLM-RoBERTa&Co.和PyTorch的多语言句子嵌入 该框架提供了一种简单的方法来计算句子和段落的密集向量表示形式(也称为句子嵌入)。 这些模型基于诸如BERT / RoBERTa / XLM-RoBERTa等的转换器网络,并经过专门调整以有意义的句子嵌入,以使具有相似含义的句子在向量空间中接近。 我们为100多种语言提供了越来越多的,并针对各种用例进行了微调。 此外,该框架允许轻松,以在您的特定任务上实现最佳性能。 有关完整文档
  3. 所属分类:其它

  1. DL2021-project:DL 2021课程的最终项目-源码

  2. 深度学习项目[埃德萨的特里兹纳] 数据集,总计约30万篇文章。 大约需要150秒钟才能读取和解析XML数据。 % python3 Repository/data.py REUTERS_CORPUS_2 [ * ] Reading articles: 299770 [ ! ] Took 150.61s 去做: 需要阅读标签完毕 看一下错误已解决,编码错误 研究BERT + pytorch +多标签选项
  3. 所属分类:其它

  1. Contextual-Embeddings-using-BERT-Pytorch--源码

  2. 使用BERT-Pytorch进行上下文嵌入
  3. 所属分类:其它

  1. GTS:论文“面向方面的细粒度意见提取的网格标记方案”的代码和数据。 方面意见对数据集和方面三元组数据集-源码

  2. GTS 。 吴震,应成灿,赵飞,范志芳,戴新宇,夏瑞。 在《 EMNLP的发现》中,2020年。 数据 [] [ (来自拥抱面)] 数据格式描述在。 注:我们认为三重数据集是从我们以前的工作的比对数据集和原始SemEval , , 的数据集。 要求 有关详细信息,请参见require.txt或Pipfile pytorch == 1.7.1 变形金刚== 3.4.0 Python= 3.6 用法 训练 例如,您可以使用以下命令对OPE任务上的Bert进行微调(预先训练的Bert模型
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:19mb
    • 提供者:weixin_42131861
  1. Forward:一个用于在NVIDIA GPU上进行高性能深度学习推理的库-源码

  2. 转发-用于在NVIDIA GPU上进行高性能深度学习推理的库 [] 向前 Forward是一个用于在NVIDIA GPU上进行高性能深度学习推理的库。 它提供了一个精心设计的方案,可以直接将Tensorflow / PyTorch / Keras模型解析为基于的高性能引擎。 与TensorRT相比,它易于使用且易于扩展。 到目前为止,Forward不仅支持CV,NLP和Recommend领域的主流深度学习模型,还支持一些高级模型,例如BERT,GAN,FaceSwap和StyleTransfer
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:73mb
    • 提供者:weixin_42100129
  1. KBQA-BERT-CRF:基于知识图谱的问答系统-源码

  2. KBQA-BERT 基于知识图谱的问答系统,BERT做命名实体识别和句子相似度 介绍 本项目主要由两个重要的点组成,一是基于BERT的命名实体识别,二是基于BERT的句子相似度计算,本项目将这两个模块进行融合,构建基于BERT的KBQA问答系统。详细介绍,请看我的博客: : 环境配置 Python版本为3.6 pytorch版本为1.1.0 windows10 数据在Data中,更多的数据在[**NLPCC2016**](http://tcci.ccf.org.cn/conference/2
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:13mb
    • 提供者:weixin_42168341
  1. MAMS-for-ABSA:用于基于方面的情感分析的多方面多情感数据集-源码

  2. MAMS for ABSA 此存储库包含论文“ EMCLP-IJCNLP 2019, 挑战数据集和基于方面的情感分析的有效模型”的数据和代码。 彩信 MAMS是用于基于方面的情感分析(ABSA)的挑战数据集,其中每个句子包含至少两个具有不同情感极性的方面。 MAMS数据集包含两个版本:一个用于方面术语情感分析(ATSA),另一个用于方面类别情感分析(ACSA)。 要求 pytorch==1.1.0 spacy==2.1.8 pytorch-pretrained-bert==0.6.2 adab
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:686kb
    • 提供者:weixin_42131414
  1. MTL-KGC:编码“具有预训练语言模型的知识图完成多任务学习”的代码-源码

  2. 货柜码头 这是的PyTorch实施。 火车 使用链接预测(LP),关系预测(RP)和相关性排名(RR)训练多任务学习。 如果收到AssertionError:未初始化默认进程组,请尝试使用python -m torch.distributed.launch python run_bert_multitask.py \ --do_train \ --task_list lp,rp,rr \ --data_dir ./data/wn18rr \ --bert_mo
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:11mb
    • 提供者:weixin_42099176
  1. BERT-pytorch-源码

  2. 伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括胜过SQuAD v1.1 QA任务的人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种经过预先训练的
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:35kb
    • 提供者:weixin_42135073
  1. DistilBERT-base-jp-源码

  2. 语言 执照 日本人 麻省理工学院 日本DistilBERT预训练模型 一个日语DistilBERT预训练模型,该模型在上进行了训练。 找到日语的快速入门指南。 目录 介绍 DistilBERT是基于Bert架构的小型,快速,便宜且轻便的Transformer模型。 与GLUE语言理解基准相比,它的参数比基于BERT的参数少40%,运行速度提高60%,同时保留BERT的97%的性能。 此模型从在AWS p3dn.24xlarge实例上使用官方的Hugging Face实施进行了2周的培训。
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:137kb
    • 提供者:weixin_42161450
  1. RecAdam:RecAdam纸的代码-源码

  2. 雷亚当 介绍 我们提供了RecAdam (召回亚当)优化器,以促进微调深度预训练的语言模型(例如BERT,ALBERT),从而减少遗忘。 有关详细的描述和实验结果,请参阅我们的论文:(EMNLP 2020接受)。 环境 python > = 3.6 pytorch > = 1.0.0 transformers > = 2.5.1 档案文件 RecAdam.py :此文件包括RecAdam优化器实现,该实现由从AdamW优化器实现修改而来。 run_glue_with_Rec
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:17kb
    • 提供者:weixin_42116921
  1. ET-DeepSDD-源码

  2. ET-DeepSDD:实体键入的高效神经概率逻辑解决方案 ET-DeepSDD的启用CUDA的PyTorch和pysdd实现:“有效的实体键入神经概率逻辑解决方案” pysdd软件包是从下载的 还附带了一个可与我们的模型一起使用的google colab脚本。 配置 首先将BERT模型文件夹放入bert /。 要运行提及级别的模型,请通过以下命令启动Bert即服务: bert-serving-start -model_dir cased_L-12_H-768_A-12 -num_worker
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:77kb
    • 提供者:weixin_42101237
  1. UDA_症状-源码

  2. 带有BERT的UDA(无监督数据增强) 这是Kakao Brain的Pytorchic BERT 在pytorch中对Google的UDA 重新实现。 模型 UDA官方 这个仓库 UDA(X) 68% 乌达(O) 90% 88.45% (最大序列长度= 128,火车批次大小= 8) UDA UDA(无监督数据增强)是一种半监督学习方法,可在多种语言和视觉任务上实现SOTA结果。 仅用20个标记的示例,UDA的性能就优于之前在25,000个标记的示例上训练的IMDb上的SOTA。
  3. 所属分类:其它

    • 发布日期:2021-03-02
    • 文件大小:208kb
    • 提供者:weixin_42124743
  1. nvidia-bert:在NVIDIADeepLearningExamplesPyTorchLanguageModelingBERT的fork上使用onnxruntime后端-源码

  2. BERT对于PyTorch 该存储库提供了脚本和配方来训练PyTorch的BERT模型,以实现最先进的准确性,并且已由NVIDIA测试和维护。 此示例包含Microsoft进行的修改,以将onnxruntime用作PyTorch的培训后端。 性能数字来自原始的NVIDIA存储库,并不反映onnxruntime的使用。 目录 型号概述 BERT,或来自变压器的双向编码器表示,是一种预训练语言表示的新方法,它可以在各种自然语言处理(NLP)任务中获得最新的结果。 该模型基于 。 NVIDIA的BE
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:425kb
    • 提供者:weixin_42171208
  1. Snippext_public:Snippext:具有增强数据的半监督意见挖掘-源码

  2. 片段 Snippext是从用户生成的内容(例如,在线评论)中挖掘意见和客户体验的提取管道。 论文:苗正杰,李玉良,王晓兰,tanh望秋,“ Snippext:具有增强数据的半监督意见挖掘”,载于WebConf(WWW)2020 要求 Python 3.7.5 PyTorch 1.3 HuggingFace变形金刚 带有em_core_web_sm模型的空间 NLTK(停用词,词网) Gensim NVIDIA Apex(FP16培训) 安装所需的软件包 conda install -
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:13mb
    • 提供者:weixin_42138788
  1. CokeBERT:CokeBERT:上下文知识选择和嵌入增强的预训练语言模型-源码

  2. 可口可乐 CokeBERT:上下文知识选择和嵌入增强的预训练语言模型 要求: 火炬> = 0.4.1 Python3 tqdm boto3 要求 Apex(如果要使用fp16,则必须确保提交为880ab925bce9f817a93988b021e12db5f67f7787。我们已经在源代码中提供了此版本的顶点)。您必须使用环境并执行以下操作: Python 3.6.9 pytorch 1.2.0 gcc 7.5.0 cd apex python3 setup.py ins
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:105mb
    • 提供者:weixin_42134234
  1. KR-BERT:基于KoRean的BERT预训练模型(KR-BERT),用于Tensorflow和PyTorch-源码

  2. 基于KoRean的Bert预先培训(KR-BERT) 这是首尔国立大学计算语言实验室开发的韩语专用,小规模BERT模型的发布,其性能可比或更高,并在引用。 词汇,参数和数据 多语言BERT (谷歌) 科伯特(ETRI) 科伯特(SKT) KR-BERT字符 KR-BERT子字符 vocab大小 119,547 30,797 8,002 16,424 12,367 参数大小 167,356,416 109,973,391 92,186,880 99,265,066 96,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:33mb
    • 提供者:weixin_42127783
  1. BERT-pytorch:Google AI 2018 BERT pytorch实施-源码

  2. 伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括在SQuAD v1.1 QA任务上的表现优于人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种预先训
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:28kb
    • 提供者:weixin_42173218
« 12 3 4 »