您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。

  2. 自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:25mb
    • 提供者:weixin_42115003
  1. lmtool-fwms:用于快速重量记忆系统的PyTorch语言建模工具包-源码

  2. PyTorch语言建模工具包(用于快速重量存储系统) 该存储库包含论文中用于语言建模实验的正式代码: ... 更一般而言,它可以用作PyTorch中的语言建模工具包来进行以下实验: 具有不同更新规则和线性注意功能的快速重量存储系统: 更新规则:删除后的“ sum”和“ ours”(如本文所建议;第4.2节) 线性注意功能:“基于ELU的”线性注意,“ FAVOR +”,“确定性无参数投影(DPFP)” 例如,某些组合会产生众所周知的模型: =“求和”更新规则+“基于ELU”的线性注意 =“总和”
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:68kb
    • 提供者:weixin_42102358
  1. Cifar10-using-Resnet9-arch-源码

  2. Cifar10-using-Resnet9-arch 下载数据集的链接,请单击下面的链接: : 在此模型中,我使用Resnet9架构来创建图像分类模型,在此模型中,我还使用了卷积神经网络,该网络在图像分类模型上非常有用,我使用Pytorch语言与该项目一起工作。 首先,我们对数据集进行规范化,以便我们可以在0到1之间调整值。然后,我们使用卷积神经网络训练模型,以便能够正确预测图像的标签。
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:344kb
    • 提供者:weixin_42102401
  1. full_stack_transformer:Pytorch库用于端到端的变压器模型训练,推理和服务-源码

  2. 全栈变压器 Pytorch库用于端到端的变压器模型训练,推理和服务。一系列出色的图书馆。 图书馆设计 该库的组织方式使得子包包含所有建模,数据结构和数据流类。 在子程序包中,包含所有特定于任务的代码。 可用任务: -经典的基于文档的语言模型培训。它还提供了用于交互式文本生成的应用程序服务。 文件语言模型 目前,该库中只有1个任务可用。因此,我将在README中为此示例使用一个示例。当将执行其他任务时,我将移动文档中的所有示例。 特征 自动LM数据集准备 端到端变压器LM培训 训练 用元数据(控制
  3. 所属分类:其它

  1. pytorch-performer:使用pytorch的Performer简单实现-源码

  2. 演员 pytorch Performer的简单实现。 模型 表演者使用随机特征图来近似内核。内核期望取代Transformer的“点积自关注”。 Softmax内核 kernel_transformation=softmax_kernel_transformation. 鲁鲁内核 kernel_transformation=relu_kernel_transformation 测试与范例 语言模型 动力总成 预训练屏蔽语言模型。 预训练文件: /example/train_mlm.py
  3. 所属分类:其它

  1. TaBERT:该存储库包含TaBERT模型的源代码,TaBERT模型是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练

  2. TaBERT:学习自然语言话语和结构化表的上下文表示 该存储库包含源代码, 是一种预训练的语言模型,用于学习自然语言话语的联合表示形式以及(半)结构化表以进行语义解析。 TaBERT在庞大的26M Web表及其相关自然语言上下文的主体上进行了预训练,可以用作语义解析器原始编码器的直接替代品,以计算话语和表模式(列)的表示形式。 安装 首先,安装带有支持库的tabert环境tabert 。 bash scr ipts/setup_env.sh 创建TaBERT环境后,请使用以下命令安装TaBER
  3. 所属分类:其它

  1. lm-prior-for-nmt:该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的源代码-源码

  2. 该存储库包含论文“用于低资源神经机器翻译的语言模型优先”的论文的源代码() 介绍 在这项工作中,我们使用在目标方单语语料库上训练的语言模型(LM)作为较弱的先验知识。 我们添加了一个正则化项,该项驱动翻译模型(TM)的输出分布在LM的分布下可能出现。 更新:您现在可以使用插件下使用LM-之前与fairseq 。 先决条件 安装要求 创建环境(可选) :理想情况下,您应该为项目创建一个环境。 conda create -n lmprior python=3 conda activate l
  3. 所属分类:其它

    • 发布日期:2021-03-17
    • 文件大小:16mb
    • 提供者:weixin_42117622
  1. RobinASR:ROBIN项目中的罗马尼亚语自动语音识别-源码

  2. 罗宾·阿斯 该存储库包含基于架构的罗马尼亚语言的罗宾自动语音识别(RobinASR),以及用于转录的语言模型。 预训练的文本-语音模型可被下载和预训练KenLM能下载。 另外,请确保访问: RELATE平台中可用的ASR系统演示: ://relate.racai.ro/index.php path robin/asr 允许断字和基本大小写还原的后处理Web服务: : 安装 您必须在系统中安装Python 3.6+和PyTorch 1.5.1+。 还。 如果要使用(推荐)GPU版
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:59kb
    • 提供者:weixin_42107561
  1. performer-pytorch:Pytorch中Performer(基于线性注意的转换器)的实现-源码

  2. 表演者-火炬手 的实施,线性注意力基于变压器的变体与A F AST甲ttention V IA正O rthogonalřandom特征的方法(FAVOR +)。 安装 $ pip install performer-pytorch 用法 表演者语言模型 import torch from performer_pytorch import PerformerLM model = PerformerLM ( num_tokens = 20000 , max_seq_len = 20
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:69mb
    • 提供者:weixin_42122986
  1. simpletransformers:用于分类,NER,QA,语言建模,语言生成,T5,多模式和会话式AI的变压器-源码

  2. 简单的变形金刚 该库基于HuggingFace的库。 使用简单的Transformers,您可以快速训练和评估Transformer模型。 初始化模型,训练模型和评估模型仅需要三行代码。 技术支持 序列分类 代币分类(NER) 问题回答 语言模型微调 语言模型训练 语言生成 T5型号 Seq2Seq任务 多模态分类 对话式AI。 文本表示生成。 目录 设置 与conda 从安装Anaconda或Miniconda Package Manager 创建一个新的虚拟环境并安装软件包。 con
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:17mb
    • 提供者:weixin_42165018
  1. SEED-源码

  2. SE_ASTER 介绍 这是论文“ SEED:用于场景文本识别的语义增强的编码器-解码器框架”的实现。此代码基于 ,我们衷心感谢ayumiymk的出色回购和帮助。 如何使用 环保 PyTorch == 1.1.0 torchvision == 0.3.0 fasttext == 0.9.1 详细信息可以在requests.txt中找到 火车 准备数据 从下载预训练的语言模型(bin) 更新lib / tools / create_all_synth_lmdb.py中的路径 运行lib / to
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:89kb
    • 提供者:weixin_42122988
  1. NLPworkshop:使用PyTorch的NLP-基础-源码

  2. NLP工作室 地基 应用领域 NLP任务 预处理 OHE,TF-IDF,CountVectorizer 空间 语言模型 RNN LSTM 10 PyTorch
  3. 所属分类:其它

  1. transformer-pytorch:简单的pytorch变压器实现示例-源码

  2. 变压器 中简单的变压器pytorch实现。 模型 model ㄴ transformer.py ﹒﹒﹒ 트랜스포머 모델 ㄴ util.py ﹒﹒﹒ 모델에 사용되는 유틸 ㄴ visualization.py ﹒﹒﹒ 모델의 각 부분 시각화 train_translation.py﹒﹒﹒ 한국어-영어 번역 학습 run_translation.py ﹒﹒﹒ 한국어-영어 번역 테스트 例子 1.掩盖语言模型 在掩盖语言模型任务上进行预训练转换器,并在
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:531kb
    • 提供者:weixin_42100129
  1. BERT-pytorch-源码

  2. 伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括胜过SQuAD v1.1 QA任务的人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种经过预先训练的
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:35kb
    • 提供者:weixin_42135073
  1. pytorch语言模型-源码

  2. PyTorch语言模型 有关当前建议的API,请参见main.py 去做: [] CharacterLanguageModelingDataset [] datasets.py [] ptb []维基文字 [] enwik8
  3. 所属分类:其它

  1. PyTorch_GBW_LM:10亿个字(LM1B GBW)数据集的PyTorch语言模型-源码

  2. PyTorch大规模语言模型 在10亿字(LM1B)/(GBW)数据集上训练的大规模PyTorch语言模型 最新结果 39.98使用LSTM语言模型和Adam Optimizer进行5次训练后的困惑 使用1个Nvidia V100 GPU(每个纪元〜5.1小时)和2048个批处理大小( 〜10.7 GB GPU内存)在约26小时内进行了培训 以前的结果 46.47在1层,2048个单位,256个投影的LSTM语言模型上经过5个训练时期后的困惑[3] 使用1个Nvidia P100 GPU进行了
  3. 所属分类:其它

  1. 适配器变压器:Huggingface变压器+适配器=:red_heart_selector:-源码

  2. 适配器变压器 HuggingFace的变形金刚的友好分支,为PyTorch语言模型添加了适配器 adapter-transformers是库的扩展,通过合并 (预训练的适配器模块的中央存储库),将适配器集成到最新的语言模型中。 该库可以用作HuggingFace Transformers的替代品,并定期同步新的上游更改。 快速导览 adapter-transformers当前支持Python 3.6+和PyTorch 1.1.0+ 。 ,您可以从PyPI安装适配器-变压器... pip i
  3. 所属分类:其它

  1. nlp-pytorch-zh:《用PyTorch进行自然语言处理》-源码

  2. PyTorch自然语言处理 译者: 协议: 所有模型都是错的,但其中一些是有用的。 本书旨在为新人提供自然语言处理(NLP)和深度学习,以涵盖这两个领域的重要主题。这两个主题领域都呈指数级增长。关于一本介绍深度学习和突出实现的NLP的在写这本书时,我们不得不对某些材料遗漏引起困难的,有时甚至是不舒服的选择。对于初学者,我们希望本书能够为基础知识提供很有特色的基础,并可以透视见可能的内容。特别是机器学习和深度学习是一种经验学科,而不是智力科学。我们希望每章中慷慨的端到端代码示例邀请您参与这一经
  3. 所属分类:其它

  1. BERT-pytorch:Google AI 2018 BERT pytorch实施-源码

  2. 伯特·比托奇 Google AI的2018 BERT的Pytorch实现,带有简单注释 BERT 2018 BERT:用于语言理解的深度双向变压器的预培训论文URL: : 介绍 Google AI的BERT论文显示了在各种NLP任务(新的17个NLP任务SOTA)上的惊人结果,包括在SQuAD v1.1 QA任务上的表现优于人类F1得分。 本文证明,通过适当的语言模型训练方法,基于Transformer(自注意)的编码器可以有效地替代先前的语言模型。 更重要的是,他们向我们展示了这种预先训
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:28kb
    • 提供者:weixin_42173218
  1. FfDL:深度学习结构(FfDL,发音为fiddle)是一个深度学习平台,在Kubernetes上提供TensorFlow,Caffe,PyTorch等作为服务-源码

  2. 用其他语言阅读:。 深度学习结构(FfDL) 该存储库包含FfDL (深度学习结构)平台的核心服务。 FfDL是用于深度学习的操作系统“架构”。 它是用于以下方面的协作平台: 分布式硬件上的深度学习模型的与框架无关的训练 开放式深度学习API 在用户的私有或公共云中运行深度学习托管 要了解有关建筑细节的更多信息,请阅读。 如果您正在寻找演示,幻灯片,抵押品,博客,网络研讨会以及与FfDL相关的其他材料,请 先决条件 kubectl :Kubernetes命令行界面( ) helm :
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:16mb
    • 提供者:weixin_42110469
« 12 3 4 5 6 »