您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. transformer_tutorial-CN.ipynb

  2. PyTorch自然语言处理部分教程翻译的ipynb:基于nn.Transformer和TorchText构建序列到序列模型。transformer_tutorial-CN.ipynb,原文是:SEQUENCE-TO-SEQUENCE MODELING WITH NN.TRANSFORMER AND TORCHTEXT。基于Wikitext-2数据集。教程在语言模型任务上训练nn.TransformerEncoder模型。语言模型任务是计算一个给定单词(或单词序列)是一个单词序列的后一个单词的概率
  3. 所属分类:深度学习

    • 发布日期:2020-03-03
    • 文件大小:382kb
    • 提供者:wmq104
  1. Transformer.ipynb

  2. tensorflow2.0 版的transformer模型代码
  3. 所属分类:深度学习

    • 发布日期:2020-08-05
    • 文件大小:81kb
    • 提供者:weixin_43788143
  1. 交通标志识别:具有STN和大量数据增强功能的PyTorch中的交通标志识别(GTSRB)-源码

  2. 交通标志识别 将交通标志图像识别并分类为来自数据集的43类。 该项目是Rob Fergus领导的纽约大学计算机视觉课程的一部分,并作为Kaggle竞赛进行。 该模型是使用带有IDSIA网络修改版本的Spatial Transformer网络设计的,并使用大量增强的数据进行了训练。 该模型在Kaggle排行榜上达到了约99.5%的测试设置精度,远高于人工精度。 该项目的整个开发过程可以在阅读。 数据 从下载培训和测试文件夹 跑步 项目可以通过两种方式运行,即main.ipynb jupyter
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:230kb
    • 提供者:weixin_42129970
  1. BERT-keras:采用预先训练的权重的BERT的Keras实现-源码

  2. 状态:存档(代码按原样提供,预计无更新) 伯特·凯拉斯 Google BERT(来自Transformers的双向编码器表示)的Keras实现和OpenAI的Transformer LM能够使用微调API加载预训练的模型。 更新:得益于 TPU支持进行推理和训练 如何使用它? # this is a pseudo code you can read an actual working example in tutorial.ipynb or the colab notebook text_e
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:43kb
    • 提供者:weixin_42103128
  1. Sepsis-diagnosis-from-pairwise-single-cell-RNA-Continued-源码

  2. 从成对单细胞RNA进行败血症诊断 存储与此项目有关的所有相关代码。 数据预处理 -请检查“数据预处理”文件夹。 readdata.py包含数据预处理阶段的相关代码。 changefdrlimit.py在实验过程中更改Fdr阈值。 deleteSparseData.py会在实验期间更改稀疏阈值。 read_specgenes.py选择特定基因与其他生物标记进行比较。 模型训练 3s_series_trTran_CNN包含我们在课程中选择的模型的相关代码。 (Transformer + CNN,E
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:310mb
    • 提供者:weixin_42160252