您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. SIGMOD 2009 全部论文(1)

  2. 这是前面的13篇论文 1 Keyword search on structured and semi-structured data Yi Chen, Wei Wang, Ziyang Liu, Xuemin Lin Jun. 2009 Proceedings of the 35th SIGMOD international conference on Management of data 2 Efficient type-ahead search on relational data: a
  3. 所属分类:Web开发

    • 发布日期:2010-03-11
    • 文件大小:7mb
    • 提供者:jiajia4487
  1. Testing Computer Software

  2. Testing Computer Software 2nd Cem Kaner Jack Falk Hung Quoc Nguyen
  3. 所属分类:软件测试

    • 发布日期:2012-12-02
    • 文件大小:4mb
    • 提供者:poohccc
  1. lam sao ma khong thon

  2. dit con me bon trung quoc cho chet
  3. 所属分类:3G/移动开发

    • 发布日期:2013-01-03
    • 文件大小:1mb
    • 提供者:chinh123456
  1. Vo Quoc Ba Can

  2. Vo Quoc Ba Can的cauchy-schwarz不等式技巧。
  3. 所属分类:其它

    • 发布日期:2013-06-18
    • 文件大小:1mb
    • 提供者:succeme
  1. sentence2vec, 将任意长度的句子映射到向量空间的工具.zip

  2. sentence2vec, 将任意长度的句子映射到向量空间的工具 sentence2vec将任意长度的句子映射到向量空间的工具我们提供了 Quoc Le和mikolov的Tomas paper的一个实现: 语句和文档的分布式表示。这里项目基于 gensim 。安装需要:scipy>
  3. 所属分类:其它

    • 发布日期:2019-09-18
    • 文件大小:40kb
    • 提供者:weixin_38744153
  1. Attention Is All You Need.pdf

  2. 谷歌提出的Transformer结构tput Probabilities Softmax Linear Add& Norm Feed orwa Add& Norm Add norm Multi-Head Attention Forward N Add Norm I Add norm Masked Multi-Head Multi-Head Attention Atention Encoding ① Encoding ut Output Embedding Embedding Inputs Ish
  3. 所属分类:深度学习

  1. 谷歌开源缩放模型EfficientNets:ImageNet准确率创纪录,效率提高10倍

  2. 晓查 发自 凹非寺量子位 出品 | 公众号 QbitAI 最近,谷歌基于AutoML开发了EfficientNets,这是一种新的模型缩放方法。它在ImageNet测试中实现了84.1%的准确率,再次刷新了纪录。 虽然准确率只比之前最好的Gpipe提高了0.1%,但是模型更小更快,参数的数量和FLOPS都大大减少,效率提升了10倍! 开发EfficientNets是来自谷歌大脑的工程师Mingxing Tan和首席科学家Quoc V. Le,他们的文章《EfficientNet: Rethin
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:616kb
    • 提供者:weixin_38618521
  1. yash-源码

  2. FPT APTECH 类:T11910M1 ePROJECT SEM 3 第一组 成员: LE MINH(学生1225645) 潘明奎(学生1204492) 潘文富(学生1198481) BUI QUOC TUAN(学生1233868) 资料夹 前端(管理员和客户端) 后端 单据 您可以通过此转到我们的项目页面 当您从git克隆项目时 1.使用vs代码打开文件夹前端 2.运行命令npm install从package.json安装库 3.运行命令npm start来启动前端
  3. 所属分类:其它

  1. bordeaux-data-mining-2021-workbook:波尔多数据挖掘2021年工作簿-源码

  2. 波尔多数据挖掘2021年工作簿 波尔多数据挖掘2021年工作簿 我们的团队有3名成员: 1.阮志聪(Nguyen Chi Cong)2.阮武安(Nguyen Vu Anh Trung)3.阮国庆(Nguyen Quoc Khanh) 参考依据
  3. 所属分类:其它

  1. PLMpapers:关于预训练语言模型的必读论文-源码

  2. PLM文件 和贡献。 介绍 预先训练的语言模型(PLM)是NLP中非常受欢迎的主题。 在此仓库中,我们列出了一些有关PLM的代表性工作,并通过图表显示了它们之间的关系。 随时分发或使用它! 如果要在演示文稿中使用它,则可以获取该图的源PPT文件。 欢迎提出更正和建议。 我们还发布了 ,这是一个开放源代码的中文预训练模型动物园。 欢迎尝试。 文件 楷模 半监督序列学习。 戴安(Andrew M. Dai),Quoc V. Le 。 NIPS2015。[ ] context2vec:使用双向
  3. 所属分类:其它

    • 发布日期:2021-02-21
    • 文件大小:823kb
    • 提供者:weixin_42118423
  1. quoc-ho.github.io:何国超的个人网站-源码

  2. quoc-ho.github.io:何国超的个人网站
  3. 所属分类:其它

  1. IronyDetectionInTwitter:用于Twitter中讽刺检测的简单准确的神经网络模型-源码

  2. Twitter中讽刺检测的简单准确的神经网络模型 该程序为SemEval 2018任务3:英语推文中的反讽检测提供了我们模型的实现,如本文所述: InProceedings{VUN2018, author = {Vu, Thanh and Nguyen, Dat Quoc and Vu, Xuan-Son and Nguyen, Dai Quoc and Catt, Michael and Trenell, Michael}, title = {{NIHR
  3. 所属分类:其它

  1. RDRPOSTagger:快速准确的POS和形态标记工具包(EACL 2014)-源码

  2. RDRPOSTagger RDRPOSTagger是用于POS和形态标记的功能强大且易于使用的工具包。 它采用错误驱动的方法以二进制树的形式自动构造标记规则。 与最新的结果相比,RDRPOSTagger获得了非常快的标记速度并获得了竞争性的准确性。 在我们的AI Communications文章中查看实验结果,包括13种语言的性能速度和标记准确性。 RDRPOSTagger现在支持针对约80种语言的预训练UPOS,XPOS和形态标记模型。 有关更多详细信息,请参见文件夹Models 。
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:39mb
    • 提供者:weixin_42109732
  1. electra_pytorch:使用fastai和gearingface进行预训练和微调ELECTRA。 (论文结果重复!)-源码

  2. 非官方的PyTorch实现 Kevin Clark的。 Minh-Thang Luong。 Quoc V. Le。 克里斯托弗·曼宁 复制结果 我从头开始对ELECTRA-small进行了预培训,并已在GLUE上成功复制了论文的结果。 模型 可乐 SST MRPC STS QQP MNLI 秦皇岛 RTE 平均的平均值 电子小OWT 56.8 88.3 87.4 86.8 88.3 78.9 87.9 68.5 80.36 ELECTRA-Small-OWT(我
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:52kb
    • 提供者:weixin_42138525
  1. VnCoreNLP:越南自然语言处理工具包(NAACL 2018)-源码

  2. 目录 VnCoreNLP:越南自然语言处理工具包 VnCoreNLP是越南语的NLP注释管道,它通过分词, POS标记,命名实体识别(NER)和依赖项解析等关键NLP组件提供丰富的语言注释: 准确– VnCoreNLP是越南语NLP的最准确的工具包,可在标准基准数据集上获得最新的结果。 快速– VnCoreNLP速度很快,因此可用于处理大规模数据。 易于使用–用户不必安装外部依赖项。 用户可以从命令行或API运行处理管道。 VnCoreNLP的一般架构和实验结果可以在以下相关论文中找到:
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:137mb
    • 提供者:weixin_42101237
  1. xlnet:XLNet:用于语言理解的广义自回归预训练-源码

  2. 介绍 XLNet是一种基于新型广义置换语言建模目标的新型无监督语言表示学习方法。 此外,XLNet使用作为主干模型,在涉及长上下文的语言任务中表现出出色的性能。 总体而言,XLNet在各种下游语言任务(包括问题回答,自然语言推断,情感分析和文档排名)上均获得了最新的(SOTA)结果。 有关技术细节和实验结果的详细说明,请参阅我们的论文: 杨志林*,戴子行*,杨一鸣,Jaime Carbonell,Ruslan Salakhutdinov,Quoc V.Le (*:均等) 预印本2019 发行说
  3. 所属分类:其它

  1. BERTweet:BERTweet:英语推文的预训练语言模型(EMNLP-2020)-源码

  2. 目录 BERTweet:英语推文的预训练语言模型 BERTweet是第一个为英语Tweets预先训练的公共大规模语言模型。 BERTweet使用与相同的模型配置,根据预训练过程进行训练。 用于预训练BERTweet的语料库由850M的英语Tweets(16B单词令牌〜80GB)组成,包含从01/2012到08/2019流的845M Tweets和与COVID-19大流行相关的5M Tweets。 BERTweet的性能优于其竞争对手的基于RoBERTa的和基于并且在词性标记,命名实体识别和文
  3. 所属分类:其它

  1. efficientdet-pytorch:忠实于原始Google导入权重的PyTorch EfficientDet实现-源码

  2. EfficientDet(PyTorch) EfficientDet的PyTorch实现。 它基于 Mingxing 正式实施Tensorflow Tan Mingxing Tan,庞若鸣,Quoc V撰写的论文。Le 还有其他PyTorch实现。他们的方法不适合我的目标,无法正确地重现Tensorflow模型(但具有PyTorch的感觉和灵活性),或者它们无法接近从零开始复制MS COCO培训。 除了默认的模型配置外,这里还有很多灵活性可以促进实验和快速改进-基于官方Tensorflow
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:132kb
    • 提供者:weixin_42117150