您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 预训练文本表示作为元学习(Pre-training Text Representations)

  2. 在这项工作中,我们介绍了一个学习算法,它直接优化模型学习文本表示的能力,以有效地学习下游任务。我们证明了多任务预训练和模型不可知的元学习之间有着内在的联系。BERT中采用的标准多任务学习目标是元训练深度为零的学习算法的一个特例。我们在两种情况下研究了这个问题:无监督的预训练和有监督的预训练,不同的预训练对象验证了我们的方法的通用性。实验结果表明,我们的算法对各种下游任务进行了改进,获得了更好的初始化。
  3. 所属分类:机器学习

    • 发布日期:2020-04-17
    • 文件大小:372736
    • 提供者:syp_net