您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. bert-masterContent.zip

  2. bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。 bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。 bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。
  3. 所属分类:互联网

    • 发布日期:2020-06-21
    • 文件大小:384mb
    • 提供者:kbwzy
  1. PyTorch预训练Bert模型的示例

  2. 本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMDB影评数据作为训练数据。 transformers模块简介 transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。 本来打算预训练bert-large模型,发现
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:101kb
    • 提供者:weixin_38698311
  1. BERT预训练模型字向量提取工具–使用BERT编码句子

  2. 本文将介绍两个使用BERT编码句子(从BERT中提取向量)的例子。 (1)BERT预训练模型字向量提取工具 本工具直接读取BERT预训练模型,从中提取样本文件中所有使用到字向量,保存成向量文件,为后续模型提供embdding。 本工具直接读取预训练模型,不需要其它的依赖,同时把样本中所有 出现的字符对应的字向量全部提取,后续的模型可以非常快速进行embdding github完整源码 #!/usr/bin/env python # coding: utf-8 __author__ = 'xmxo
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:58kb
    • 提供者:weixin_38515362
  1. 炼丹技巧 | BERT的下接结构调参

  2. 前情回顾 我们之前介绍了 BERT的原理与应用 BERT与其他预训练模型 BERT四大下游任务 现在我们基于(2019BDCI互联网金融新实体发现 | 思路与代码框架分享(单模第一,综合第二))代码实践来介绍一下BERT如何调参才能更加充分训练,使得到的模型性能更好。 具体代码链接: https://link.zhihu.com/?target=https://github.com/ChileWang0228/Deep-Learning-With-Python/tree/master/chap
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:353kb
    • 提供者:weixin_38536397
  1. BERT介绍

  2. 简介 BERT模型来自谷歌团队的paper——BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding,它在11个NLP任务中刷新了成绩,效果非常好,非常惊人。但是,这项工作不是很好复现,如果没有足够的资源就不要想了 。之前,利用预训练的语言表征来完成下游NLP任务的研究,可以概括为两类:feature-based和fine-tuning。feature-based类别比如ELMo,fine-
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:128kb
    • 提供者:weixin_38642897
  1. DeepNER:天池中药说明书实体识别挑战冠军方案;中文命名实体识别; NER; BERT-CRF&BERT-SPAN&BERT-MRC; Pytorch-源码

  2. 中文-DeepNER-Pytorch 天池中药说明书实体识别挑战冠军方案开源 贡献者: zxx飞翔​​的鱼: : 我是蛋糕王: : 数青峰: : 后续官方开放数据集后DeepNER项目会进行优化升级,包含完整的数据处理,训练,验证,测试,部署流程,提供详细的代码注释,模型介绍,实验结果,提供更普适的基础预训练的中文命名实体识别方案,开箱即用,欢迎星级! (代码框架基于火炬和变压器,框架进行性,解耦性,易读性较高,很容易修改迁移至其他NLP任务中) 环境 python3 . 7 p
  3. 所属分类:其它

  1. rasa-bert-finetune:支持rasa-nlu的bert finetune-源码

  2. 介绍 支持rasa json数据格式的bert finetune 准备 在训练finetune模型前需要先下载bert pre-train model,这里用的是中文的,可去官网下载chinese_L-12_H-768_A-12 。 json文件称为rasa_dataset_training.json ,dev的json文件称为rasa_dataset_testing.json ,当然你可以在run_classifier.py代码里面做相应的修改。 版本 bert-serving-client
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:43kb
    • 提供者:weixin_42116604
  1. KBQA-BERT-CRF:基于知识图谱的问答系统-源码

  2. KBQA-BERT 基于知识图谱的问答系统,BERT做命名实体识别和句子相似度 介绍 本项目主要由两个重要的点组成,一是基于BERT的命名实体识别,二是基于BERT的句子相似度计算,本项目将这两个模块进行融合,构建基于BERT的KBQA问答系统。详细介绍,请看我的博客: : 环境配置 Python版本为3.6 pytorch版本为1.1.0 windows10 数据在Data中,更多的数据在[**NLPCC2016**](http://tcci.ccf.org.cn/conference/2
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:13mb
    • 提供者:weixin_42168341
  1. KBQA-BERT:基于知识图谱的问答系统,BERT做命名实体识别和句子相似度,分为在线和大纲模式-源码

  2. KBQA-BERT 基于知识图谱的问答系统,BERT做命名实体识别和句子相似度,分为在线和大纲模式 介绍 本项目主要由两个重要的点组成,一是基于BERT的命名实体识别,二是基于BERT的句子相似度计算,本项目将这两个模块进行融合,并基于BERT的KBQA问答系统,在命名实体识别上分为在线预测和轮廓预测;在句子相似度上,也分为在线预测和轮廓预测,2个模块互不干扰,做到了高内聚低掺杂的效果,最后的kbqa相当于融合这2个模块进行概述,具体介绍请见! -------------------------
  3. 所属分类:其它

  1. BERT-pytorch-源码

  2. 伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括胜过SQuAD v1.1 QA任务的人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种经过预先训练的
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:35kb
    • 提供者:weixin_42135073
  1. 基于BERT的多语言文本情感分析-源码

  2. 基于BERT的多语言文本情感分析 介绍 社交媒体广泛用于现代人的交流中,推特在英语国家中广泛用于表达情感。 微博在中国被广泛用作同一工具。 他们两个都通过几段文字表达了情感。 有必要设计一种可以对多种语言进行情感分类的系统。 对文本进行情感分类的困难如下。 首先,具有讽刺意味的是,例如交通警察因未付停车费而将他的驾照吊销了。 其次,在与域相关的问题中,例如,我的计算机的冷却系统声音非常大,这是负面的。 可以肯定地说我家的声音很大。 第三,网络流行词也将影响情绪分析,意义在标记化后将完全改变。
  3. 所属分类:其它

  1. AttRCNN-CNN:论文介绍:针对现有模型不能充分提取语义特征,以及单一使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。以及特征融合的论文,使用LSTM-Attention和CNN进行文档特征提取,同时结

  2. AttRCNN-CNN 译文:基于BERT和多特征联合的个性识别方法 领域:文本个性识别技术:BERT,LSTM,Attention,CNN 链接: 论文介绍:针对现有模型不能充分提取语义特征,以及单个使用语义或语言学特征来进行预测等不足,使用BERT预训练模型进行句子的特征提取。同时阅读了关于多模态以及特征融合的论文,使用LSTM-Attention和CNN进行文档尺寸特征提取,同时结合Mairesse语言学特征,将多个分割提取的特征融合起来进行分析,最终使用Pytorch进行模型实现。 其中
  3. 所属分类:其它

  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

  1. PIE:使用BERT的快速+非自回归语法错误校正。 论文《本地序列转导的并行迭代编辑模型》的代码和预训练模型:www.aclweb.organthologyD19-1435.pdf(EMNLP-IJCNLP 2019)-源码

  2. PIE:用于局部序列转导的并行迭代编辑模型 使用BERT的快速语法错误校正 伴随我们的论文《用于局部序列转导的并行迭代编辑模型》(EMNLP-IJCNLP 2019)附带的代码和预训练模型 我们介绍了PIE,一种基于BERT的体系结构,用于本地序列转导任务,如语法错误校正。 与将GEC建模为从“不正确”到“正确”语言的翻译任务的标准方法不同,我们将GEC视为本地序列编辑任务。 我们进一步将局部序列编辑问题减少到序列标记设置中,其中我们利用BERT来非自回归地对输入标记进行编辑。 我们专门为序列编
  3. 所属分类:其它

  1. indic-bert:基于BERT的印度语言多语言模型-源码

  2. 印度文 | 印度伯特(Indic bert)是一种多语言ALBERT模型,专门涵盖12种主要印度语言。 它在我们约90亿个代币的新颖语料库上进行了预训练,并在一​​系列多样化的任务上进行了评估。 与其他流行的公开多语言模型相比,Indic-bert的参数要少大约10倍,同时它也可以达到与这些模型同等或更好的性能。 我们还介绍了IndicGLUE-一组标准评估任务,可用于衡量印度语言中的单语和多语模型的NLU性能。 与IndicGLUE一起,我们还编译了其他评估任务的列表。 该存储库包含用于
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:336kb
    • 提供者:weixin_42165018
  1. nlpcda:一键中文数据增强包; NLP数据增强,bert数据增强,EDA:pip install nlpcda-源码

  2. NLP中文数据增强一键中文数据增强工具 使用: pip install nlpcda 开源不易,欢迎star :glowing_star: pypi: ://pypi.org/project/nlpcda/ 介绍 一键中文数据增强工具,支持: 经过细节特殊处理,比如不改变年月日数字,尽量保证不改变原文语义。即使改变也能被猜出来、能被猜出来、能被踩出来、能被菜粗来、被菜粗、能菜粗来 计划中的未来内容 增加多线程操作,一键操作 随机噪声注入?随机插入一些字符,太简单实现了。 利用pingyin
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:528kb
    • 提供者:weixin_42138545
  1. BERT-pytorch:Google AI 2018 BERT pytorch实施-源码

  2. 伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括在SQuAD v1.1 QA任务上的表现优于人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种预先训
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:28kb
    • 提供者:weixin_42173218
  1. bert_score:文本生成的BERT分数-源码

  2. BERTScore 论文(ICLR 2020)中介绍了自动评估指标。 新闻: 更新至版本0.3.7 与Huggingface的变压器版本> = 4.0.0兼容。 感谢公共贡献者( , , )。 如果您想在COCO字幕数据集上复制我们的实验,请参见 。 更新至版本0.3.6 支持自定义基准文件 选项--rescale-with-baseline更改为--rescale_with_baseline以便与其他选项一致。 更新至版本0.3.5 与Huggingface的变形金
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:956kb
    • 提供者:weixin_42162216
  1. BERT大火却不懂Transformer?

  2. Transformer由论文《AttentionisAllYouNeed》提出,现在是谷歌云TPU推荐的参考模型。论文相关的Tensorflow的代码可以从GitHub获取,其作为Tensor2Tensor包的一部分。哈佛的NLP团队也实现了一个基于PyTorch的版本,并注释该论文。在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。从宏观的视角开始首先将这个模型看成是一个黑箱操作。在机器翻译中,就是输入一种语言,输出另一种语言。那么拆开这个黑箱,我们可以
  3. 所属分类:其它

  1. 关于各种中文Bert/xlnet模型

  2. google的bert_base https://github.com/google-research/bert 哈工大的wwm和wwm-ext https://gitee.com/yiweilu/Chinese-BERT-wwm google的ALbert https://github.com/google-research/ALBERT 中文Roberta https://github.com/brightmart/roberta_zh 华为的哪吒 https://blog.csdn.net
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:23kb
    • 提供者:weixin_38606639
« 12 3 4 »