您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ACL2020论文精选【已更新第一部分】

  2. 半个月前,ACL2020公布了接受结果,随着ACL2020的放榜,arxiv上也更新了一大波被会议接收的论文。本文将持续推荐、简要介绍其中的一部分论文。
  3. 所属分类:机器学习

    • 发布日期:2020-05-13
    • 文件大小:4mb
    • 提供者:syp_net
  1. ACL 2020上5篇关于【图神经网络 (GNN) 】的相关论文

  2. 本文继续为大家奉上ACL 2020图神经网络(GNN)相关论文-Part 2供参考——多文档摘要、多粒度机器阅读理解、帖子争议检测、GAE。
  3. 所属分类:机器学习

    • 发布日期:2020-06-10
    • 文件大小:3mb
    • 提供者:syp_net
  1. ACL 2020上与【知识图谱表示学习 (KGR) 】相关论文(5篇)

  2. 本文为大家奉上ACL 2020知识图谱表示学习(KGR)相关论文供参考——开放域知识图谱嵌入、Multi-hop QA、双曲嵌入、图上下文建模、SEEK。
  3. 所属分类:机器学习

    • 发布日期:2020-06-16
    • 文件大小:2mb
    • 提供者:syp_net
  1. 自然语言处理ACL 2020最佳论文出炉!(附所有获奖论文).zip

  2. 国际计算语言学协会年会(ACL,The Association for Computational Linguistics)在官网公布了ACL 2020的最佳论文名单,共有1篇最佳论文,2篇最佳论文提名,1篇最佳主题论文,1篇最佳主题论文提名,1篇最佳demo论文,2篇最佳demo论文提名。
  3. 所属分类:机器学习

    • 发布日期:2020-07-09
    • 文件大小:7mb
    • 提供者:syp_net
  1. ACL 2020上与知识图谱表示学习专题相关的9篇热点论文

  2. 知识图谱依然是当下关注的热点。在刚刚举行的ACL2020,有多篇知识图谱论文,那现在最新的研究热点是什么?敬请阅读上述9篇热点论文。
  3. 所属分类:机器学习

    • 发布日期:2020-07-12
    • 文件大小:9mb
    • 提供者:syp_net
  1. CasRel模型的nyt原始数据集

  2. 在复现ACL2020的论文A Novel Cascade Binary Tagging Framework for Relational Triple Extraction中需要的raw_NYT数据,由于google drive不太好下载所以放这了,并且贴心的把7z压缩格式变成了常见的zip,我可真是个小天使
  3. 所属分类:机器学习

    • 发布日期:2020-07-22
    • 文件大小:41mb
    • 提供者:songyufeishibyr
  1. ACL2020论文大全

  2. ACL2020顶会论文打包下载,摘要必须大于50字,怎么还没到50字,我真的不知道说什么了,现在大概快到50字了吧,到了吗
  3. 所属分类:深度学习

    • 发布日期:2020-09-27
    • 文件大小:463mb
    • 提供者:Kaiyuan_sjtu
  1. 清华ACL2020长文和数据集和代码.rar

  2. 本文件包含清华大学ACL2020的论文和数据集 以及代码。适用于NLP的方向的研究。论文是全英文的 里面有详细的论述和数据集 以及代码
  3. 所属分类:网络攻防

    • 发布日期:2020-10-08
    • 文件大小:7mb
    • 提供者:zhou_hao_ran
  1. Flat-ner:ACL2020的代码-源码

  2. 平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:71kb
    • 提供者:weixin_42178963
  1. dont-stop-pretraining:与``不要停止预培训ACL 2020''论文相关的代码-源码

  2. 不要停止预训练 与``不要停止预培训ACL 2020''论文相关的代码 引文 inproceedings { dontstoppretraining2020 , author = { Suchin Gururangan and Ana Marasović and Swabha Swayamdipta and Kyle Lo and Iz Beltagy and Doug Downey and Noah A. Smith } , title = { Don't Stop Pretraining
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:69kb
    • 提供者:weixin_42121086
  1. MuTual:多轮对话推理的数据集-源码

  2. 相互的 (ACL2020) MuTual是用于多回合对话推理的基于检索的数据集,该数据集是从中文高中英语听力理解测试数据中修改而来的。请参阅我们的论文以获取更多详细信息。 我们还提供了一些基准,以促进进一步的研究。 (快来了) 例子 修改听力理解测试数据的过程。 MuTual数据集中的示例。所有选择都与上下文相关,但是只有其中一项是逻辑正确的。在极端情况下,某些负面选择可能是合理的,但正面选择最合适。提示词为紫色且带有下划线。 数据统计 相互的 上下文响应对 8,860 #Avg。每次
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:10mb
    • 提供者:weixin_42123296
  1. Flat-Lattice-Transformer:ACL 2020纸代码-源码

  2. 平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.50d
  3. 所属分类:其它

    • 发布日期:2021-03-19
    • 文件大小:65kb
    • 提供者:weixin_42139302
  1. NLP-Conferences-Code:NLP会议代码(ACL,EMNL,NAACL,COLING,AAAI,IJCAI)-源码

  2. 本项目记录NLP相关顶会(如ACL,EMNLP,NAACL,COLING,AAAI,IJCAI)的论文开源项目合集,同时欢迎各位同学提交问题,分享开源项目。 文章中一般很难把所有的细节都描述清楚,有代码至少给我们提供的参考和实现细节,所以我的初衷就是把这些项目整理出来,方便大家查阅!希望能够对相关同学有一点帮助!也强烈希望大家多多pr,一起维护起来,分享给更多的同学! 资源列表 ACL集合 2019年 2020年 ACL2020任务模块,如下: 模块 文件 预训练语言模型及部分应用 QA问答
  3. 所属分类:其它

    • 发布日期:2021-03-18
    • 文件大小:76kb
    • 提供者:weixin_42170064
  1. mlm-scoring:Python库和屏蔽语言模型评分的示例(ACL 2020)-源码

  2. 掩蔽语言模型评分 该软件包使用诸如 , 和类的蒙版LM对进行,并通过伪对数可能性得分进行重新评分,这些得分是通过对单个单词进行蒙版来计算的。 我们还支持类的自回归LM。 示例用法包括: :记录ESPnet LAS模型(LibriSpeech) :记录变压器NMT模型(IWSLT'15 en-vi) :语言最小对(BLiMP)中的无监督排序 论文:朱利安·萨拉扎(Julian Salazar),戴维斯·梁(Davis Liang),托安·Q·阮(Tuan Q.Nguyen),卡特琳·基希霍
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:23mb
    • 提供者:weixin_42175971
  1. pytorch_chinese_lm_pretrain:pytorch中文语言模型预训练-源码

  2. 基于pytorch的中文语言模型预训练 ACL2020最佳论文有一篇论文提名奖,《不要停止预训练:使语言模型适应领域和任务》。本文涉及很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要方面: 在目标领域的数据集上继续预训练(DAPT)可以提高效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地提升效果。 结合两者(先进行DAPT,再进行TAPT)可以进一步提升效果
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:29kb
    • 提供者:weixin_42101164
  1. AI方向2020论文合集

  2. ACL2020论文合集,共计778篇。
  3. 所属分类:深度学习

    • 发布日期:2021-04-01
    • 文件大小:673mb
    • 提供者:heuflying