点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - acl2020论文
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
ACL2020论文精选【已更新第一部分】
半个月前,ACL2020公布了接受结果,随着ACL2020的放榜,arxiv上也更新了一大波被会议接收的论文。本文将持续推荐、简要介绍其中的一部分论文。
所属分类:
机器学习
发布日期:2020-05-13
文件大小:4mb
提供者:
syp_net
ACL 2020上5篇关于【图神经网络 (GNN) 】的相关论文
本文继续为大家奉上ACL 2020图神经网络(GNN)相关论文-Part 2供参考——多文档摘要、多粒度机器阅读理解、帖子争议检测、GAE。
所属分类:
机器学习
发布日期:2020-06-10
文件大小:3mb
提供者:
syp_net
ACL 2020上与【知识图谱表示学习 (KGR) 】相关论文(5篇)
本文为大家奉上ACL 2020知识图谱表示学习(KGR)相关论文供参考——开放域知识图谱嵌入、Multi-hop QA、双曲嵌入、图上下文建模、SEEK。
所属分类:
机器学习
发布日期:2020-06-16
文件大小:2mb
提供者:
syp_net
自然语言处理ACL 2020最佳论文出炉!(附所有获奖论文).zip
国际计算语言学协会年会(ACL,The Association for Computational Linguistics)在官网公布了ACL 2020的最佳论文名单,共有1篇最佳论文,2篇最佳论文提名,1篇最佳主题论文,1篇最佳主题论文提名,1篇最佳demo论文,2篇最佳demo论文提名。
所属分类:
机器学习
发布日期:2020-07-09
文件大小:7mb
提供者:
syp_net
ACL 2020上与知识图谱表示学习专题相关的9篇热点论文
知识图谱依然是当下关注的热点。在刚刚举行的ACL2020,有多篇知识图谱论文,那现在最新的研究热点是什么?敬请阅读上述9篇热点论文。
所属分类:
机器学习
发布日期:2020-07-12
文件大小:9mb
提供者:
syp_net
CasRel模型的nyt原始数据集
在复现ACL2020的论文A Novel Cascade Binary Tagging Framework for Relational Triple Extraction中需要的raw_NYT数据,由于google drive不太好下载所以放这了,并且贴心的把7z压缩格式变成了常见的zip,我可真是个小天使
所属分类:
机器学习
发布日期:2020-07-22
文件大小:41mb
提供者:
songyufeishibyr
ACL2020论文大全
ACL2020顶会论文打包下载,摘要必须大于50字,怎么还没到50字,我真的不知道说什么了,现在大概快到50字了吧,到了吗
所属分类:
深度学习
发布日期:2020-09-27
文件大小:463mb
提供者:
Kaiyuan_sjtu
清华ACL2020长文和数据集和代码.rar
本文件包含清华大学ACL2020的论文和数据集 以及代码。适用于NLP的方向的研究。论文是全英文的 里面有详细的论述和数据集 以及代码
所属分类:
网络攻防
发布日期:2020-10-08
文件大小:7mb
提供者:
zhou_hao_ran
Flat-ner:ACL2020的代码-源码
平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.
所属分类:
其它
发布日期:2021-03-23
文件大小:71kb
提供者:
weixin_42178963
dont-stop-pretraining:与``不要停止预培训ACL 2020''论文相关的代码-源码
不要停止预训练 与``不要停止预培训ACL 2020''论文相关的代码 引文 inproceedings { dontstoppretraining2020 , author = { Suchin Gururangan and Ana Marasović and Swabha Swayamdipta and Kyle Lo and Iz Beltagy and Doug Downey and Noah A. Smith } , title = { Don't Stop Pretraining
所属分类:
其它
发布日期:2021-03-20
文件大小:69kb
提供者:
weixin_42121086
MuTual:多轮对话推理的数据集-源码
相互的 (ACL2020) MuTual是用于多回合对话推理的基于检索的数据集,该数据集是从中文高中英语听力理解测试数据中修改而来的。请参阅我们的论文以获取更多详细信息。 我们还提供了一些基准,以促进进一步的研究。 (快来了) 例子 修改听力理解测试数据的过程。 MuTual数据集中的示例。所有选择都与上下文相关,但是只有其中一项是逻辑正确的。在极端情况下,某些负面选择可能是合理的,但正面选择最合适。提示词为紫色且带有下划线。 数据统计 相互的 上下文响应对 8,860 #Avg。每次
所属分类:
其它
发布日期:2021-03-19
文件大小:10mb
提供者:
weixin_42123296
Flat-Lattice-Transformer:ACL 2020纸代码-源码
平面变压器 ACL 2020论文的代码:FLAT:使用平格变压器的中文NER。 模型和结果可在我们的ACL 2020文件找到。 要求: Python: 3.7.3 PyTorch: 1.2.0 FastNLP: 0.5.0 Numpy: 1.16.4 您可以在了解有关FastNLP的更多信息。 如何运行代码? 下载字符嵌入和单词嵌入。 字符和Bigram嵌入(gigaword_chn.all.a2b。{'uni'或'bi'}。ite50.vec): 或 词(格)嵌入: yj,(ctb.50d
所属分类:
其它
发布日期:2021-03-19
文件大小:65kb
提供者:
weixin_42139302
NLP-Conferences-Code:NLP会议代码(ACL,EMNL,NAACL,COLING,AAAI,IJCAI)-源码
本项目记录NLP相关顶会(如ACL,EMNLP,NAACL,COLING,AAAI,IJCAI)的论文开源项目合集,同时欢迎各位同学提交问题,分享开源项目。 文章中一般很难把所有的细节都描述清楚,有代码至少给我们提供的参考和实现细节,所以我的初衷就是把这些项目整理出来,方便大家查阅!希望能够对相关同学有一点帮助!也强烈希望大家多多pr,一起维护起来,分享给更多的同学! 资源列表 ACL集合 2019年 2020年 ACL2020任务模块,如下: 模块 文件 预训练语言模型及部分应用 QA问答
所属分类:
其它
发布日期:2021-03-18
文件大小:76kb
提供者:
weixin_42170064
mlm-scoring:Python库和屏蔽语言模型评分的示例(ACL 2020)-源码
掩蔽语言模型评分 该软件包使用诸如 , 和类的蒙版LM对进行,并通过伪对数可能性得分进行重新评分,这些得分是通过对单个单词进行蒙版来计算的。 我们还支持类的自回归LM。 示例用法包括: :记录ESPnet LAS模型(LibriSpeech) :记录变压器NMT模型(IWSLT'15 en-vi) :语言最小对(BLiMP)中的无监督排序 论文:朱利安·萨拉扎(Julian Salazar),戴维斯·梁(Davis Liang),托安·Q·阮(Tuan Q.Nguyen),卡特琳·基希霍
所属分类:
其它
发布日期:2021-02-03
文件大小:23mb
提供者:
weixin_42175971
pytorch_chinese_lm_pretrain:pytorch中文语言模型预训练-源码
基于pytorch的中文语言模型预训练 ACL2020最佳论文有一篇论文提名奖,《不要停止预训练:使语言模型适应领域和任务》。本文涉及很多语言模型预训练的实验,系统的分析了语言模型预训练对子任务的效果提升情况。有几个主要方面: 在目标领域的数据集上继续预训练(DAPT)可以提高效果;目标领域的语料与RoBERTa的原始预训练语料越不相关,DAPT效果则提升更明显。 在具体任务的数据集上继续预训练(TAPT)可以十分“廉价”地提升效果。 结合两者(先进行DAPT,再进行TAPT)可以进一步提升效果
所属分类:
其它
发布日期:2021-02-03
文件大小:29kb
提供者:
weixin_42101164
AI方向2020论文合集
ACL2020论文合集,共计778篇。
所属分类:
深度学习
发布日期:2021-04-01
文件大小:673mb
提供者:
heuflying