您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. BERT-BiLSTM-CRF-master.zip

  2. 命名实体识别代码,解压即可用 # BERT-BiLSTM-CRF BERT-BiLSTM-CRF的Keras版实现 ## BERT配置 1. 首先需要下载Pre-trained的BERT模型,本文用的是Google开源的中文BERT模型: - https://storage.googleapis.com/bert_models/2018_11_03/chinese_L-12_H-768_A-12.zip 2. 安装BERT客户端和服务器 pip install bert-serving-s
  3. 所属分类:互联网

    • 发布日期:2020-07-17
    • 文件大小:883kb
    • 提供者:gdufsTFknight
  1. BERT-BiLSTM-CRF-NER-master.zip

  2. BERT只是一个预训练的语言模型,在各大任务上都刷新了榜单。我们本次实验的任务也是一个序列标注问题,简而言之,就是是基于BERT预训练模型,在中文NER(Named Entity Recognition,命名实体识别)任务上进行fine-tune。 Fine-tune是什么意思,中文译为微调。在transfer learning中,对事先训练好的特征抽取网络,直接拿来用在下游任务上。固定其特征抽取层的网络参数,只在原有的网络上增加少量神经元,做最后的分类任务,而且只更新分类参数。
  3. 所属分类:深度学习

    • 发布日期:2020-08-09
    • 文件大小:479kb
    • 提供者:u010177412