您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. GPT_finetuned_with_own_text-源码

  2. 项目名 用准备好的文本微调GPT-2文本生成模型。 在这种特殊情况下,文字是书籍的串联来自管理,领导力和业务方面的良好实践领域。开始句子包含某种矛盾,以找出经过微调的模型如何建立跟进355M模型用于调整:效果真的很好。 基本信息 GPT-2发行了三种尺寸: 124M(默认):“小型”型号,磁盘上500MB。 355M:“中型”型号,磁盘上有1.5GB。 774M:“大”模型,当前无法与Colaboratory进行微调,但可用于从预先训练的模型中生成文本(请参阅稍后在Notebook中)
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:133kb
    • 提供者:weixin_42099176