您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. bert-base-uncased-pytorch_model.bin

  2. huggingface的bert-base-uncased-pytorch_model.bin,然后把URL改了就可用
  3. 所属分类:深度学习

    • 发布日期:2020-05-08
    • 文件大小:388mb
    • 提供者:guotong1988
  1. pytorch_model.bin

  2. 本资源为albert的中文预训练模型的pytorch版本,albert为bert的轻量化版本,训练速度快,参数量小
  3. 所属分类:深度学习

    • 发布日期:2020-04-05
    • 文件大小:40mb
    • 提供者:qq_35485658
  1. transformer.zip

  2. bert模型放在 bert_pretain目录下,每个目录下都是三个文件: pytorch_model.bin bert_config.json vocab.txt 已经在THUCNews上面预训练过。 我从THUCNews中抽取了20万条新闻标题文本长度在20到30之间。一共10个类别,每类2万条。数据以字为单位输入模型。
  3. 所属分类:深度学习

    • 发布日期:2020-07-17
    • 文件大小:7kb
    • 提供者:gdufsTFknight
  1. BERTS2S-源码

  2. 火炬== 1.7.1变压器== 4.3.3 tqdm 参数 python run_giga_train.py --data_dir D:\codeproject\NLP\data\ggw_data --bert_model bert --output_dir ./.outs --log_dir ./.logs --model_recover_path C:\Users\tianshu\PycharmProjects\bert_s2s\models\bertbase\pytorch_model.b
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:287kb
    • 提供者:weixin_42139871
  1. 文字隐写术-源码

  2. 概述 由第十五组完成的文本隐写项目-“情书生成器” 项目包含前端静态界面以及关键代码run_single.py。 情书生成器采用常规生成式文本隐写算法,采用GPT-2模型完成文本生成。 在哈佛NLP的项目即Ziegler的项目基础之上增加了自适应算术编码功能,有效提升约13%的不可感知度以及隐写效率。 learning_log是前端,NeuralSteganography-master1是预设; 前端中使用了os.path.append来引入初始的代码,需要更改路径; 前端有部分冗余代码,是学
  3. 所属分类:其它

  1. bert-chinese-pytorch.rar

  2. transformers+pytorch框架下使用的bert-chinese谷歌官方预训练版本,其中有三个文件:config.json、pytorch_model.bin、vocab.txt
  3. 所属分类:互联网

    • 发布日期:2021-02-07
    • 文件大小:367mb
    • 提供者:qq_27469517
  1. albert_pytorch:用于自我监督学习语言表示的精简版证书-源码

  2. | albert_pytorch 该存储库包含本文中albert模型的PyTorch实现 镇中兰。 陈明达 依存关系 pytorch = 1.10 cuda = 9.0 cudnn = 7.5 scikit学习 句子 下载预训练的英语模型 官方下载链接: 适应此版本,下载pytorch模型(Google驱动器): v1 v2 微调 1。 将config.json和30k-clean.model放入prev_trained_model/albert_base_v2目录。 例:
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:156kb
    • 提供者:weixin_42131890
  1. BERT-NER-Pytorch:使用BERT(Softmax,CRF,Span)的中文NER(命名实体识别)-源码

  2. 使用Bert的中文NER BERT代表中文NER。 数据集列表 cner:数据集/ cner 主持人: : 型号清单 BERT + Softmax BERT + CRF BERT +跨度 需求 1.1.0 = <PyTorch <1.5.0 cuda = 9.0 python3.6 + 输入格式 输入格式(首选BIOS标记方案),每个字符的标签为一行。 句子用空行分隔。 美 B-LOC 国 I-LOC 的 O 华 B-PER 莱 I-PER 士 I-PER 我 O 跟
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:484kb
    • 提供者:weixin_42109545
  1. bert_for_corrector:基于bert进行中文文本纠错-源码

  2. BERT模型具有遮罩功能的正确错误字符 实在抱歉,之前做项目比较急,然后没有完全上传完文件,导致大家使用受阻,替换更新有人提醒该模型,近期发生,特意将奉上,提取码为:hhxx另外其中某些得文件也有发表,安心食用。 使用说明 保存预训练模型在数据文件夹下├──数据│├──bert_config.json │├──config.json │├──pytorch_model.bin │└──vocab.txt ├──bert_corrector.py ├──config.py ├──logger.py
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:17mb
    • 提供者:weixin_42132354