您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. BERT-keras:采用预先训练的权重的BERT的Keras实现-源码

  2. 状态:存档(代码按原样提供,预计无更新) 伯特·凯拉斯 Google BERT(来自Transformers的双向编码器表示)的Keras实现和OpenAI的Transformer LM能够使用微调API加载预训练的模型。 更新:得益于 TPU支持进行推理和训练 如何使用它? # this is a pseudo code you can read an actual working example in tutorial.ipynb or the colab notebook text_e
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:43kb
    • 提供者:weixin_42103128