您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. bert.keystore

  2. bert.keystore
  3. 所属分类:其它

    • 发布日期:2013-05-07
    • 文件大小:2kb
    • 提供者:a468903507
  1. BERT Pre-training of Deep Bidirectional Transformers for Language Understanding

  2. NLP领域取得最重大突破!谷歌AI团队新发布的BERT模型,在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩:全部两个衡量指标上全面超越人类,并且还在11种不同NLP测试中创出最佳成绩。毋庸置疑,BERT模型开启了NLP的新时代!
  3. 所属分类:深度学习

    • 发布日期:2018-10-17
    • 文件大小:717kb
    • 提供者:sinat_30353259
  1. bert-wwm.pdf

  2. 哈工大联合迅飞实验室推出的中文bert全遮挡论文。本文档为英文版,仅供学习参考使用,不做其它用图,大家可以自行下载。
  3. 所属分类:深度学习

    • 发布日期:2020-05-12
    • 文件大小:224kb
    • 提供者:m0_47220500
  1. 高密度电法BERT多结构信息联合反演

  2. 高密度电法具有不同的装置,在工程勘察中应根据不同跑极特点选择合适的装置模式。传统的野外数据采集采用2种或2种以上的装置模式以便资料对比解释。为了保证物探数据的准确性,采用BERT 2.0软件对不同装置的高密度电法数据,以及钻探数据及其他物探数据的结构信息进行联合反演,以达到最佳的勘探效果。
  3. 所属分类:其它

    • 发布日期:2020-05-09
    • 文件大小:431kb
    • 提供者:weixin_38624557
  1. bert-base-uncased-pytorch_model.bin

  2. huggingface的bert-base-uncased-pytorch_model.bin,然后把URL改了就可用
  3. 所属分类:深度学习

    • 发布日期:2020-05-08
    • 文件大小:388mb
    • 提供者:guotong1988
  1. rasa 使用内置bert时 transformer所需要加载的9个文件。

  2. rasa 使用内置bert时 transformer所需要加载的9个文件。components 使用HFTransformersNLP
  3. 所属分类:互联网

    • 发布日期:2020-05-07
    • 文件大小:422mb
    • 提供者:DeepCBW
  1. ELMO,GPT,BERT对比.docx

  2. 本篇文章讲述了预训练语言模型ELMO,openAI和bert的一些明显对比,希望可以帮助大家更好的理解预训练语言模型的优缺点,
  3. 所属分类:互联网

  1. 动态BERT(Dynamic BERT with Adaptive Width and Depth)【华为-诺亚实验室】.pdf

  2. 在本文中,我们提出了一种新的动态BERT模型(简称DynaBERT),它可以在自适应的宽度和深度上运行。DynaBERT的训练过程包括首先训练一个宽度自适应的BERT,然后通过从全尺寸的模型中提取知识到小的子网络中,允许自适应的宽度和深度。
  3. 所属分类:机器学习

    • 发布日期:2020-04-13
    • 文件大小:1mb
    • 提供者:syp_net
  1. Bert-TextClassification-master.zip

  2. bert 做文本分类bert
  3. 所属分类:机器学习

    • 发布日期:2020-04-06
    • 文件大小:55kb
    • 提供者:u010138055
  1. Transformer & Bert.zip

  2. Transformer +Bert 视频+资料详解
  3. 所属分类:深度学习

    • 发布日期:2020-06-17
    • 文件大小:795mb
    • 提供者:weixin_43639369
  1. 基于文本筛选和改进BERT的长文本方面级情感分析

  2. 情感分析旨在分类出文本在不同方面的情感倾向。在长文本的方面级情感分析中,由于长文本存在一定冗余性和噪声大的问题,导致现有的方面级情感分析方法对于长文本中方面相关信息的特征提取不够充分,分类不精准;在方面分层为粗粒度和细粒度方面的数据集上,现有的解决方法没有利用粗粒度方面中的信息。针对以上问题,提出基于文本筛选和改进BERT的算法TFN+BERT-Pair-ATT。该算法首先利用长短时记忆网络(LSTM)和注意力机制相结合的文本筛选网络(TFN)从长文本中直接筛选出与粗粒度方面相关的部分语句,然后
  3. 所属分类:教育

    • 发布日期:2020-06-23
    • 文件大小:807kb
    • 提供者:kamo54
  1. bert-masterContent.zip

  2. bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。 bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。 bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。
  3. 所属分类:互联网

    • 发布日期:2020-06-21
    • 文件大小:384mb
    • 提供者:kbwzy
  1. BERT-BiLSTM-CRF-master.zip

  2. 命名实体识别代码,解压即可用 # BERT-BiLSTM-CRF BERT-BiLSTM-CRF的Keras版实现 ## BERT配置 1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型: - https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip 2. 安装BERT客户端和服务器 pip install bert-serving-s
  3. 所属分类:互联网

    • 发布日期:2020-07-17
    • 文件大小:883kb
    • 提供者:gdufsTFknight
  1. BERT-BiLSTM-CRF-NER-master.zip

  2. BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
  3. 所属分类:深度学习

    • 发布日期:2020-08-09
    • 文件大小:479kb
    • 提供者:u010177412
  1. 官方bert中文预训练模型

  2. Google官方中文Bert预训练模型,当前模型为bert base模型,省去爬梯下载的烦恼,需要其他模型的可以私信
  3. 所属分类:深度学习

    • 发布日期:2020-08-17
    • 文件大小:364mb
    • 提供者:lichaobxd
  1. BERT实现情感分析

  2. BERT模型的原理,并采用keras微调BERT实现了情感分析。BERT作为一个目前热门的预训练模型,其效果突出,在文本特征提取阶段均可采用该模型,再根据具体的业务场景对损失函数进行修改即可实现对应的模型搭建。当然在使用keras-bert之前建议读者务必弄清楚其原理,毕竟知其然还需知其所以然。
  3. 所属分类:深度学习

    • 发布日期:2020-09-18
    • 文件大小:234kb
    • 提供者:qq_42739865
  1. bert中文预训练模型,字典,有相关参数json等完整资源

  2. bert中文预训练模型,字典,有相关参数json等完整资源,可以直接通过bert的from_pretrained函数加载,可以直接拿来用,pytorch,tensorflow版本的都有,非常方便
  3. 所属分类:互联网

    • 发布日期:2020-10-27
    • 文件大小:364mb
    • 提供者:A199445
  1. Bert 谷歌官方指南.docx

  2. BERT(利用transformer进行双向编码表征)是一种预训练语言表示的新方法,它在一系列自然语言处理(NLP)任务中获得了最先进的结果。该资源翻译了BERT Google官方提供的指南。翻译的目的是因为当初为了了解与使用BERT模型,现在将资源上传希望能够为需要的人提供帮助。
  3. 所属分类:互联网

    • 发布日期:2020-11-23
    • 文件大小:54kb
    • 提供者:user123987
  1. bert中文NLP模型

  2. 该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
  3. 所属分类:机器学习

    • 发布日期:2020-11-23
    • 文件大小:364mb
    • 提供者:weixin_41950924
  1. PyTorch预训练Bert模型的示例

  2. 本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMDB影评数据作为训练数据。 transformers模块简介 transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。 本来打算预训练bert-large模型,发现
  3. 所属分类:其它

    • 发布日期:2020-12-16
    • 文件大小:101kb
    • 提供者:weixin_38698311
« 12 3 4 5 6 7 8 9 10 ... 34 »