您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. allennlp能实现的功能

  2. 对allennlp能实现的功能做了一个总结,还有实例demo的截图。
  3. 所属分类:深度学习

    • 发布日期:2018-07-18
    • 文件大小:804kb
    • 提供者:longma666666
  1. Python-HTML基于PyTorch和AllenNLP的几种NLP任务的最新神经网络模型

  2. Python-HTML基于PyTorch和AllenNLP的几种NLP任务的最新神经网络模型
  3. 所属分类:其它

  1. Python-用AllenNLPPyTorch训练文本情感分类器

  2. 用AllenNLP/PyTorch训练文本情感分类器
  3. 所属分类:其它

    • 发布日期:2019-08-09
    • 文件大小:197kb
    • 提供者:weixin_39841882
  1. allennlp-bidaf-源码

  2. allennlp-bidaf
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:13kb
    • 提供者:weixin_42133452
  1. another_cool_project-源码

  2. 使用配置文件的AllenNLP模板项目 使用配置文件和allennlp train启动新的allennlp项目的模板。对于简单的项目,您所需要做的就是将模型代码放入my_project/model.py的类中,将数据加载代码放入my_project/dataset_reader.py的DatasetReader代码中,这样就可以训练模型了(建议还对测试代码进行适当的更改,并将其用于开发,但这是可选的)。 有关如何使用此示例项目中内容的快速,请参见《 。我们正在从该指南中获取模型和数据集读取器类
  3. 所属分类:其它

  1. optuna-allennlp-reproduction:一个用于调查Optuna x AllenNLP中的生殖问题的回购-源码

  2. 再现结果的实验 此回购用于调查再现结果的问题。 此存储库中使用的示例均基于Optuna官方AllenNLP示例。 脚本: : 配置: : 在您的环境上进行实验 python3 -m venv venv . ./venv/bin/activate pip install -r ./requirements.txt ./run | tee log.new.txt 结果 我把。在CPU实验,Optuna的最好的结果和再培训的结果allennlp train是相同的。另一方面,在GPU中,结果是
  3. 所属分类:其它

  1. Japanese-Named-Entity-Resolution-With-BERT-源码

  2. BERTを用いた名寄せ解消 上记データセットを用いた名寄せ解消 モデル を一部参考に以下のモデルを组んだ。 结果 开发人员〜%63,根据测试。 〜64%なので要改良。 追记:コードのミスにより上记はlr = 1e-3での结果だと判明。lr = 1e-5〜1e-6で要実験。 例えばで使用している特徴量を组み込むことが考えられる。 実験方法 $ conda create -n allennlp python=3.7 $ conda activate allennlp $ pip install -r
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:432kb
    • 提供者:weixin_42144199
  1. allennlp-docs:AllenNLP文档的GitHub Pages存储库-源码

  2. allennlp-docs:AllenNLP文档的GitHub Pages存储库
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:100mb
    • 提供者:weixin_42153615
  1. sembre-源码

  2. 使用配置文件的AllenNLP模板项目 使用配置文件和allennlp train启动新的allennlp项目的模板。 对于简单的项目,您要做的就是将模型代码放入my_project/model.py的类中,将数据加载代码放入my_project/dataset_reader.py的DatasetReader代码中,这样就可以训练模型了(建议还对测试代码进行适当的更改,并将其用于开发,但这是可选的)。 有关如何使用本示例项目中内容的快速,请参见《 。 我们从该指南中获取模型和数据集读取器类。
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:233kb
    • 提供者:weixin_42125770
  1. UPST:基于用户极性的半监督句子分类框架-源码

  2. UPST 基于用户极性的半训练句子分类框架 要求 python == 3.6 numpy == 1.17.2 pytorch == 1.4.0 allennlp == 0.8.2 在train_data中进行培训并在dev_data中进行测试 python self_training_question_classification.py -iter 10 -batch 128 -SC_u 1 -polarity 1 -unlabel 1
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:12kb
    • 提供者:weixin_42138780
  1. DISTRE:[ACL 19]对预训练的变压器语言模型进行微调以严格监督关系提取-源码

  2. 微调预训练的变压器语言模型以远程监督关系提取 该存储库包含本文的代码: 克里斯托弗·奥特,马克·赫布纳,莱昂哈德·汉尼格 我们的代码依赖于huggingface的了的和 -这样的感谢他们。 该代码已通过以下测试: 的Python 3.6.6 PyTorch 1.0.1 AllenNLP 0.7.1 安装 首先,将存储库克隆到您的计算机上,并使用以下命令安装要求: pip install -r requirements.txt 其次,下载(包含所有与模型相关的文件): wget --
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:30kb
    • 提供者:weixin_42164931
  1. SLQA:用于阅读理解和问题回答的多粒度分层注意力融合网络的非官方Pytorch实现-源码

  2. 质量保证 用于阅读理解和问答的多粒度分层注意力融合网络 如果有人想测试SQuAD的性能,请告诉我最终得分。 您只需要更改coca_reader.py即可读取SQuAD的数据集。 论文: : Allennlp: : 讲解 首先,您应该安装allennlp并确保您已经下载了elmo和glove 。 您可以在config/seperate_slqa.json找到版本信息。 您也可以通过网址使用elmo ,请转到allennlp教程寻求帮​​助。 mkdir elmo mkdir glove
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:50kb
    • 提供者:weixin_42131013
  1. CrossLingualContextualEmb:上下文单词嵌入的跨语言对齐-源码

  2. 跨语言ELMo 上下文词嵌入的跨语言对齐 此存储库将包含NAACL19论文的代码和模型- 不久将发布更多代码。 更新: 计算英语锚点(以帮助计算更多语言的对齐方式) ELMO所有层的对齐矩阵。 现在提供了用于计算BERT模型锚的脚本。 多语言ELMo现在已合并到(版本> = 0.8.5)。 可以使用此处的代码来计算其他模型的锚。 我们正在努力将多语言ELMo合并到AllenNLP框架。 希望我们能尽快完成。 现在可以在此使用多语言解析器代码(此requirements.txt
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:16kb
    • 提供者:weixin_42109125
  1. PyTorch-Batch-Attention-Seq2seq:批处理双RNN编码器和注意力解码器的PyTorch实现-源码

  2. PyTorch中的快速批处理Bi-RNN(GRU)编码器和注意解码器实现 这段代码是用PyTorch 0.2编写的。 在PyTorch发行其1.0版本时,已经有很多基于PyTorch构建的出色的seq2seq学习包,例如OpenNMT,AllenNLP等。您可以从其源代码中学习。 用法:请注意有关注意力-RNN机器翻译的官方pytorch教程,除了此实现处理批处理输入,并且实现稍微不同的注意力机制。 为了找出实现方式在公式级别上的差异,下面的插图会有所帮助。 PyTorch版本机制图,请参见此
  3. 所属分类:其它

  1. deep_qa:基于Keras tf的深层NLP库,专注于问题解答(但对其他NLP也很有用)-源码

  2. 已淘汰 DeepQA构建在Keras之上。 我们认为是NLP研究的更好平台。 我们将DeepQA重新编写到一个名为的pytorch库中。 DeepQA将不再开发。 但是,我们对AllenNLP感到非常兴奋-如果您正在进行自然语言处理的深度学习,则应该! 深度质量检查 DeepQA是一个用于通过深度学习执行高级NLP任务的库,尤其侧重于各种问题解答。 DeepQA构建在和之上,并且可以被认为是这些系统的接口,使NLP更容易。 特别是,与普通Keras / TensorFlow相比,该库具有以下优
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:448kb
    • 提供者:weixin_42146230
  1. ELMoForManyLangs:多种语言的预训练ELMo表示形式-源码

  2. 多种语言的预训练ELMo表示 我们发布了接受多种语言培训的ELMo表示形式,这有助于我们赢得LAS根据赢得的。 技术细节 我们使用与相同的超参数设置 for biLM和角色CNN。 我们根据从每种任务的共享任务(wikidump +通用抓取)发布的原始文本中随机抽取的2000万字数据集训练其参数。 我们主要基于的代码,但进行了以下更改: 我们支持unicode字符; 我们使用样本softmax技术使大词汇量的训练变得可行( )。 但是,我们使用围绕目标单词的单词窗口作为否定样本,并且在我
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:43kb
    • 提供者:weixin_42097189
  1. jupyter笔记本:Jupyter笔记本和其他-源码

  2. 布局 标题 上一次更改 维基 Jupyter笔记本 2020/11/15 12:41:21 深度学习 Scikit,学习上的IRIS数据集的感知器,神经网络,Keras。 TensorFlow Implementaion在MNIST数据集。 Softmax,交叉熵损失 使用PyTorch进行梯度计算。 层调试。 验证合并,连接方法。 在文本嵌入上验证Conv1D。 验证Image数据集上的Conv2D。 验证LSTM计算。 器具Seq2Seq学习的执行加法。 器具Seq2Se
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:19mb
    • 提供者:weixin_42097208
  1. playing-around-with-cogs:尝试使用Kim和Linzen(2020)的COGS数据集,使用allennlp建立模型-源码

  2. playing-around-with-cogs:尝试使用Kim和Linzen(2020)的COGS数据集,使用allennlp建立模型
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:12kb
    • 提供者:weixin_42137032
  1. gector:“ GECToR –语法错误校正”论文的正式实施-源码

  2. GECToR –语法错误纠正:标记,不重写 该存储库提供以下代码的正式PyTorch实施,用于训练和测试语法错误纠正的最新模型的代码: , , , 文法 它主要基于AllenNLP和transformers 。 安装 以下命令将安装所有必需的软件包: pip install -r requirements.txt 该项目已使用Python 3.7进行了测试。 数据集 本文中使用的所有公共GEC数据集都可以从下载。综合创建的数据集可在生成/下载。要训​​练模型数据,必须对其进行预处理,并
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:668kb
    • 提供者:weixin_42109639