您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Devlin K.The joy of sets

  2. 集合论的好书集合论的好书集合论的好书集合论的好书集合论的好书
  3. 所属分类:教育

    • 发布日期:2011-08-11
    • 文件大小:1mb
    • 提供者:netepic
  1. BERT——2018NLP最强论文

  2. 申明:本资源来源于互联网,如有侵权,请联系本人或者CSDN进行删除,谢谢! 《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》中,Jacob Devlin,Ming-Wei Chang, Kenton Lee, Kristina Toutanova等人提出的一种全新的深度学习架构,该架构在11项NLP任务中全面超越人类水平。
  3. 所属分类:深度学习

    • 发布日期:2019-03-10
    • 文件大小:75kb
    • 提供者:hello_dream_
  1. ALBERT_presentation.pdf

  2. ALBERT: A Lite BERT for Language Understanding作者演讲PPtWe are witnessing a big shift in the approach in natural language understanding in the last two years Full-network pre-training share most of the parameters between pre-training and fine-tuning NS
  3. 所属分类:深度学习

    • 发布日期:2019-10-20
    • 文件大小:2mb
    • 提供者:u011334375
  1. bert-stable-fine-tuning:关于微调BERT的稳定性-源码

  2. 关于微调BERT的稳定性:误解,解释和强大的基准 Marius Mosbach,Maksym Andriushchenko,Dietrich Klakow 萨尔大学和EPFL 该存储库包含有关“。它是(v2.5.1)的分支。 抽象的 微调经过预训练的基于变压器的语言模型,例如BERT,已成为控制各种NLP基准排行榜的一种普遍做法。尽管微调模型具有强大的经验性能,微调还是一个不稳定的过程:使用多个随机种子训练同一模型可能会导致任务性能产生较大差异。先前的文献(Devlin等人,2019; Lee
  3. 所属分类:其它

  1. html5bones:可以追溯到基础HTML5模板-源码

  2. HTML5骨骼-可以追溯到最基本的模板 作者:Ian Devlin 推特: 网站: 推特: 目的 此模板可以用作HTML5的模板,也可以在从头开始构建自己HTML5页面时通过内嵌注释简单地用作指南。 特征 包含最受欢迎HTML5结构元素以及如何使用它们 还包含HTML5视频和音频的模板以及如何使用它们 跨浏览器兼容,最低包括Internet Explorer 7 打印主styles.css文件中包含CSS 包含以跨浏览器标准化CSS 内联文档 还包括主模板的简化版本(未注释)
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:112kb
    • 提供者:weixin_42101237
  1. 口渴的植物:为Develop Game Jam 2018开发的24小时游戏-源码

  2. 口渴的植物 Tallin Aylward,James Devlin-Pilbrow和Spike Padley为《 在24小时内制作的。 Thirsty Plants使用游戏框架以Javascr ipt进行编码,但最初是使用游戏引擎以C#开发的。 可以在上找到Unity版本。 开发游戏卡纸 Develop Game Jam是一部分,运行了24小时的游戏果酱。 在上可以找到在此期间创建的游戏。 开始 完 主题 2018年7月11日,下午1点 2018年7月12日下午1点 Heatwaves
  3. 所属分类:其它

  1. Lyrics-Generation-using-BERT:使用BERT生成English Rock歌词-源码

  2. BERT歌词生成 使用预训练的BERT模型生成English Rock歌词(Devlin,J. et al。,2018)。 数据是从Kaggle 380,000+歌词数据集中获得的。 使用langdetect Python库来过滤除英语以外的其他语言的歌曲。 用于发音的Python库用于搜索诸如电话,音节和押韵单词之类的单词的属性。 使用预训练的BERT MLM进行掩码预测,使用预训练的BERT NextSentence进行连续性预测。 很少有结果: 使用BERT MLM仅在目标歌词中预
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:62mb
    • 提供者:weixin_42117082
  1. ner-bert:带有Google bert的BERT-NER(nert-bert)https://github.comgoogle-research-源码

  2. 0.论文 有两种基于该体系结构的解决方案。 :有关多语言共享任务的和。 任务和的第二名。 描述 该存储库包含NER任务的解决方案,该解决方案基于PyTorch对,与论文 Jacob Devlin,Chang Ming-Wei Chang,Kenton Lee和克里斯蒂娜·图塔诺娃(Kristina Toutanova)。 此实现可以为BERT加载任何预训练的TensorFlow检查点(尤其是)。 旧版本在“旧”分支中。 2.用法 2.1创建数据 from modules.data imp
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:89kb
    • 提供者:weixin_42106765
  1. pytorch-源码

  2. :alien_monster: PyTorch变形金刚 PyTorch-Transformers(以前称为pytorch-pretrained-bert )是用于自然语言处理(NLP)的最先进的预训练模型库。 该库当前包含以下模型的PyTorch实现,预训练的模型权重,使用脚本和转换实用程序: (来自Google)与一起发表了是Jacob Devlin,Chang Ming-Wei Chang,Kenton Lee和Kristina Toutanova。 (来自OpenAI)发布了Al
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:768kb
    • 提供者:weixin_42120550