点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - BERT
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
bert.keystore
bert.keystore
所属分类:
其它
发布日期:2013-05-07
文件大小:2kb
提供者:
a468903507
BERT Pre-training of Deep Bidirectional Transformers for Language Understanding
NLP领域取得最重大突破!谷歌AI团队新发布的BERT模型,在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩:全部两个衡量指标上全面超越人类,并且还在11种不同NLP测试中创出最佳成绩。毋庸置疑,BERT模型开启了NLP的新时代!
所属分类:
深度学习
发布日期:2018-10-17
文件大小:717kb
提供者:
sinat_30353259
bert-wwm.pdf
哈工大联合迅飞实验室推出的中文bert全遮挡论文。本文档为英文版,仅供学习参考使用,不做其它用图,大家可以自行下载。
所属分类:
深度学习
发布日期:2020-05-12
文件大小:224kb
提供者:
m0_47220500
高密度电法BERT多结构信息联合反演
高密度电法具有不同的装置,在工程勘察中应根据不同跑极特点选择合适的装置模式。传统的野外数据采集采用2种或2种以上的装置模式以便资料对比解释。为了保证物探数据的准确性,采用BERT 2.0软件对不同装置的高密度电法数据,以及钻探数据及其他物探数据的结构信息进行联合反演,以达到最佳的勘探效果。
所属分类:
其它
发布日期:2020-05-09
文件大小:431kb
提供者:
weixin_38624557
bert-base-uncased-pytorch_model.bin
huggingface的bert-base-uncased-pytorch_model.bin,然后把URL改了就可用
所属分类:
深度学习
发布日期:2020-05-08
文件大小:388mb
提供者:
guotong1988
rasa 使用内置bert时 transformer所需要加载的9个文件。
rasa 使用内置bert时 transformer所需要加载的9个文件。components 使用HFTransformersNLP
所属分类:
互联网
发布日期:2020-05-07
文件大小:422mb
提供者:
DeepCBW
ELMO,GPT,BERT对比.docx
本篇文章讲述了预训练语言模型ELMO,openAI和bert的一些明显对比,希望可以帮助大家更好的理解预训练语言模型的优缺点,
所属分类:
互联网
发布日期:2020-04-23
文件大小:1mb
提供者:
Mr_Luxiangsheng
动态BERT(Dynamic BERT with Adaptive Width and Depth)【华为-诺亚实验室】.pdf
在本文中,我们提出了一种新的动态BERT模型(简称DynaBERT),它可以在自适应的宽度和深度上运行。DynaBERT的训练过程包括首先训练一个宽度自适应的BERT,然后通过从全尺寸的模型中提取知识到小的子网络中,允许自适应的宽度和深度。
所属分类:
机器学习
发布日期:2020-04-13
文件大小:1mb
提供者:
syp_net
Bert-TextClassification-master.zip
bert 做文本分类bert
所属分类:
机器学习
发布日期:2020-04-06
文件大小:55kb
提供者:
u010138055
Transformer & Bert.zip
Transformer +Bert 视频+资料详解
所属分类:
深度学习
发布日期:2020-06-17
文件大小:795mb
提供者:
weixin_43639369
基于文本筛选和改进BERT的长文本方面级情感分析
情感分析旨在分类出文本在不同方面的情感倾向。在长文本的方面级情感分析中,由于长文本存在一定冗余性和噪声大的问题,导致现有的方面级情感分析方法对于长文本中方面相关信息的特征提取不够充分,分类不精准;在方面分层为粗粒度和细粒度方面的数据集上,现有的解决方法没有利用粗粒度方面中的信息。针对以上问题,提出基于文本筛选和改进BERT的算法TFN+BERT-Pair-ATT。该算法首先利用长短时记忆网络(LSTM)和注意力机制相结合的文本筛选网络(TFN)从长文本中直接筛选出与粗粒度方面相关的部分语句,然后
所属分类:
教育
发布日期:2020-06-23
文件大小:807kb
提供者:
kamo54
bert-masterContent.zip
bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。 bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。 bert 源码主要内容部分,完整介绍bert,源码精讲和实战项目。
所属分类:
互联网
发布日期:2020-06-21
文件大小:384mb
提供者:
kbwzy
BERT-BiLSTM-CRF-master.zip
命名实体识别代码,解压即可用 # BERT-BiLSTM-CRF BERT-BiLSTM-CRF的Keras版实现 ## BERT配置 1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型: - https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip 2. 安装BERT客户端和服务器 pip install bert-serving-s
所属分类:
互联网
发布日期:2020-07-17
文件大小:883kb
提供者:
gdufsTFknight
BERT-BiLSTM-CRF-NER-master.zip
BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
所属分类:
深度学习
发布日期:2020-08-09
文件大小:479kb
提供者:
u010177412
官方bert中文预训练模型
Google官方中文Bert预训练模型,当前模型为bert base模型,省去爬梯下载的烦恼,需要其他模型的可以私信
所属分类:
深度学习
发布日期:2020-08-17
文件大小:364mb
提供者:
lichaobxd
BERT实现情感分析
BERT模型的原理,并采用keras微调BERT实现了情感分析。BERT作为一个目前热门的预训练模型,其效果突出,在文本特征提取阶段均可采用该模型,再根据具体的业务场景对损失函数进行修改即可实现对应的模型搭建。当然在使用keras-bert之前建议读者务必弄清楚其原理,毕竟知其然还需知其所以然。
所属分类:
深度学习
发布日期:2020-09-18
文件大小:234kb
提供者:
qq_42739865
bert中文预训练模型,字典,有相关参数json等完整资源
bert中文预训练模型,字典,有相关参数json等完整资源,可以直接通过bert的from_pretrained函数加载,可以直接拿来用,pytorch,tensorflow版本的都有,非常方便
所属分类:
互联网
发布日期:2020-10-27
文件大小:364mb
提供者:
A199445
Bert 谷歌官方指南.docx
BERT(利用transformer进行双向编码表征)是一种预训练语言表示的新方法,它在一系列自然语言处理(NLP)任务中获得了最先进的结果。该资源翻译了BERT Google官方提供的指南。翻译的目的是因为当初为了了解与使用BERT模型,现在将资源上传希望能够为需要的人提供帮助。
所属分类:
互联网
发布日期:2020-11-23
文件大小:54kb
提供者:
user123987
bert中文NLP模型
该模型为谷歌使用大量tpu训练的bert模型,一个tpu性能要比最强大的gpu强,训练的bert模型用处nlp,通常训练nlp模型时用该模型为预训练模型
所属分类:
机器学习
发布日期:2020-11-23
文件大小:364mb
提供者:
weixin_41950924
PyTorch预训练Bert模型的示例
本文介绍以下内容: 1. 使用transformers框架做预训练的bert-base模型; 2. 开发平台使用Google的Colab平台,白嫖GPU加速; 3. 使用datasets模块下载IMDB影评数据作为训练数据。 transformers模块简介 transformers框架为Huggingface开源的深度学习框架,支持几乎所有的Transformer架构的预训练模型。使用非常的方便,本文基于此框架,尝试一下预训练模型的使用,简单易用。 本来打算预训练bert-large模型,发现
所属分类:
其它
发布日期:2020-12-16
文件大小:101kb
提供者:
weixin_38698311
«
1
2
3
4
5
6
7
8
9
10
...
34
»