您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. transganformer:TransGanFormer的实现,这是一种全神贯注的GAN,结合了最新的GanFormer和TransGan论文的发现-源码

  2. TransGanFormer(WIP) TransGanFormer的实现,这是一种全神贯注的GAN,结合了最新和论文的发现。 它还将包含我在过去一年左右的时间里学到的建造建筑物变压器和GAN的许多技巧,包括有效的线性注意力和像素级注意力。 引文 misc { jiang2021transgan , title = { TransGAN: Two Transformers Can Make One Strong GAN } , author = { Yifan Jian
  3. 所属分类:其它

    • 发布日期:2021-03-12
    • 文件大小:3072
    • 提供者:weixin_42116058
  1. SemaFor-Fake-News-源码

  2. 此仓库基于DIDAN模型构建。 依存关系 Python=3.6 Pytorch=1.2.0 spacy=2.0.12 transformers=4.2.2 (pip install pytorch-transformers) 原始神经新闻数据集 请按照此处的说明( )下载NeuralNews数据集。 特别是,请下载此文件( )并将其放入数据文件夹。 预处理数据(或下载) 图片功能 对于每张图像,我们使用在视觉基因组上预先训练的Faster-RCNN模型( )提取36个区域特征。 每个图像的
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:53248
    • 提供者:weixin_42128988
  1. transformers-interpret-streamlit:Streamlit演示应用程序,用于演示使用多种模型解释的变压器的功能-源码

  2. 变压器解释Streamlit App 一个简单的精简应用程序,用于演示《某些功能。 查看7个以上文本分类的HuggingFace Transformer模型的单词属性。 查看模型中任何类/标签的属性。 查看模型字词和位置嵌入的归因 安装 pip install -r requirements.txt 跑 streamlit run app.py
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:51200
    • 提供者:weixin_42113794
  1. attention-rank-collapse:我们显示出纯粹的注意力会遭受等级崩溃,以及不同的机制如何应对-源码

  2. 注意不是所有你需要的,纯粹的注意力失去秩双成倍与深度。 ,( 。 在这项工作中,我们发现纯粹的注意力相对于深度成倍地下降。 我们分析了MLP和跳过连接如何抵消这种衰减。 。 该存储库包含我们实验的代码。 要求 要安装工作环境: conda create --name rank-collapse python=3.8 conda activate rank-collapse pip install git+git://github.com/huggingface/transformers.
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:2097152
    • 提供者:weixin_42118160
  1. DistilBERT-base-jp-源码

  2. 语言 执照 日本人 麻省理工学院 日本DistilBERT预训练模型 一个日语DistilBERT预训练模型,该模型在上进行了训练。 找到日语的快速入门指南。 目录 介绍 DistilBERT是基于Bert架构的小型,快速,便宜且轻便的Transformer模型。 与GLUE语言理解基准相比,它的参数比基于BERT的参数少40%,运行速度提高60%,同时保留BERT的97%的性能。 此模型从在AWS p3dn.24xlarge实例上使用官方的Hugging Face实施进行了2周的培训。
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:140288
    • 提供者:weixin_42161450
  1. RecAdam:RecAdam纸的代码-源码

  2. 雷亚当 介绍 我们提供了RecAdam (召回亚当)优化器,以促进微调深度预训练的语言模型(例如BERT,ALBERT),从而减少遗忘。 有关详细的描述和实验结果,请参阅我们的论文:(EMNLP 2020接受)。 环境 python > = 3.6 pytorch > = 1.0.0 transformers > = 2.5.1 档案文件 RecAdam.py :此文件包括RecAdam优化器实现,该实现由从AdamW优化器实现修改而来。 run_glue_with_Rec
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:17408
    • 提供者:weixin_42116921
  1. deit:官方DeiT资料库-源码

  2. DeiT:数据高效的图像转换器 该存储库包含PyTorch评估代码,训练代码和DeiT(数据有效图像转换器)的预训练模型。 他们在速度/精度方面获得了竞争性的权衡: 有关详细信息,请参见Hugo Touvron,Matthieu Cord,Matthijs Douze,Francisco Massa,Alexandre Sablayrolles和HervéJégou的来。 如果您将此代码用于论文,请引用: article{touvron2020deit, title={Trainin
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:174080
    • 提供者:weixin_42151036
  1. rda:“ Rissanen数据分析代码”-源码

  2. Rissanen数据分析 下面,我们将逐步介绍用于产生结果的过程。 要了解我们如何在数据集上训练模型,请浏览自述文件​​以查看我们用来训练该模型的bash代码段和python脚本。 要查看训练模型后如何计算最小描述长度,请参阅scr ipts/plot_results_prequential.ipynb 。 代码概述: film/ :用于在CLEVR上训练FiLM模型的代码(从修改) transformers/ :用于训练其他基于变压器的模型的代码(从修改) scr ipts/ :用于
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:9437184
    • 提供者:weixin_42125867
  1. transformers_rda-源码

  2. PyTorch和TensorFlow 2.0的最新自然语言处理 :hugging_face: 变形金刚提供了数千种经过预训练的模型,可以对100多种语言的文本执行任务,例如分类,信息提取,问题解答,摘要,翻译,文本生成等。 其目的是使尖端的NLP易于所有人使用。 :hugging_face: Transformers提供了API,可以在给定的文本上快速下载和使用那些经过预训练的模型,在您自己的数据集上对其进行微调,然后在我们的上与社区共享。 同时,每个定义架构的python模块都可以独立使
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:8388608
    • 提供者:weixin_42133753
  1. InstaDeep-Enzyme-Classification-Challenge:https-源码

  2. 我的模型是经过微调的预训练模型,该模型经过数十亿的蛋白质序列数据(BFD)训练。 它基于Transformers架构-尤其是BERT。 预训练的模型可以在这里找到。 我不需要使用给定的未标记序列。 在较少的数据上也有类似的预训练模型。 两者都给出良好的结果。 由于它已集成到HuggingFace库中,因此可以像BERT这样的其他流行模型一样轻松地使用它们。 无需进行太多微调,因为几乎不需要调整就可以得到大约90%以上的精度。 数据也足够大,可以从各种模式中学习。 设置 由于模型参数的数量(〜4
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:6144
    • 提供者:weixin_42128270
  1. project-code-py:适用于Python问题的GPT-2模型-源码

  2. 项目代码py 适用于Python问题的GPT-2模型 演示版 模型 from transformers import AutoTokenizer, AutoModelWithLMHead tokenizer = AutoTokenizer.from_pretrained("gagan3012/project-code-py") model = AutoModelWithLMHead.from_pretrained("gagan3012/project-code-py") 问题: Write
  3. 所属分类:其它

    • 发布日期:2021-03-06
    • 文件大小:23552
    • 提供者:weixin_42168230
  1. up-detr:[CVPR2021口服]上调-源码

  2. UP-DETR :使用变压器进行对象检测的无监督预训练 这是的官方PyTorch实施和模型: article{dai2020up-detr, author = {Zhigang Dai and Bolun Cai and Yugeng Lin and Junying Chen}, title = {UP-DETR: Unsupervised Pre-training for Object Detection with Transformers}, journal = {arX
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:2097152
    • 提供者:weixin_42161497
  1. TOEIC_Mask_Filling:使用GPT-2解决填充口罩问题-源码

  2. TOEIC_Mask_Filling 使用GPT-2解决填充口罩问题。 主意: 用4个选项代替一个问题,使4个完整的句子 估计这4个句子的困惑 选择构成最低困惑度的句子的选项 代码 安装变压器: pip install transformers 初始化模型和令牌生成器: model_name = 'gpt2-medium' model = AutoModelForCausalLM.from_pretrained(model_name) tokenizer = AutoTokenizer.
  3. 所属分类:其它

    • 发布日期:2021-03-05
    • 文件大小:267264
    • 提供者:weixin_42121086
  1. 项目:数据科学,机器学习,数据分析,神经网络-源码

  2. 数据科学项目 以下是我在Yandex数据科学实习课程中完成的项目 所有项目均在Jupyter Notebook中使用Python完成。 数据由Yandex Practucum作为.csv文件提供,以及通过SQL(PostgreSQL)查询从Yandex Practicum数据库获得的数据。 使用的图书馆: Pandas,Numpy,Matplotlib,Scikit-Learn,PySpark,Plotly Express,Seaborn,NLTK,PyTorch,PyTorch-Trans
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:3145728
    • 提供者:weixin_42108054
  1. coco-lm-pytorch:在Pytorch中实现COCO-LM,纠正和对比用于语言模型预训练的文本序列-源码

  2. COCO LM预训练(WIP) 在Pytorch中实现 ,纠正和对比文本序列以进行语言模型预训练。 他们能够以自我监督的方式进行对比学习,以进行语言模型预训练。 似乎是Electra的坚实后继者。 安装 $ pip install coco-lm-pytorch 用法 使用x-transformers库的示例 $ pip install x-transformers 然后 import torch from torch import nn from x_transformers import
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:119808
    • 提供者:weixin_42172572
  1. 新想法!Geoffrey Hinton独自署名44页论文,如何在神经网络中表示部分-整体层次结构,结构化表示获取可解释性

  2. 本文没有描述一个工作系统。相反,它提出了一个关于表示的单一想法,允许几个不同群体的进步被组合成一个虚构的系统,称为GLOM。这些进展包括transformers、神经域、对比表示学习、蒸馏和胶囊。
  3. 所属分类:机器学习

    • 发布日期:2021-03-01
    • 文件大小:896000
    • 提供者:syp_net
  1. learning-chess-blindfolded:论文的代码和数据-盲目学习国际象棋:在世界状态跟踪上评估语言模型-源码

  2. 被蒙住眼睛的国际象棋:评估世界状态跟踪的语言模型 国际象棋作为评估世界状态跟踪语言模型的测试平台。 通过Huggingface模型毂释放。 与预训练的模型进行交互。 设置 步骤1 git clone https://github.com/shtoshni92/learning-chess-blindfolded.git cd learning-chess-blindfolded/ 步骤2:安装软件包。 以下是可以单独安装的核心功能。 chess==1.3.0 pytorch-lightni
  3. 所属分类:其它

    • 发布日期:2021-02-23
    • 文件大小:129024
    • 提供者:weixin_42108778
  1. 变形金刚-源码

  2. 变形金刚 生成数据库迁移 dotnet ef migrations add {MigrationName} --context TransformersDbContext --output-dir Migrations --startup-project ./Transformers.WebApi/Transformers.WebApi.csproj --project ./Transformers.DataAccess/Transformers.DataAccess.csproj
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:56320
    • 提供者:weixin_42116713
  1. 媒体帧转换器-源码

  2. 媒体帧转换器 conda create -n python=3.9 conda activate conda develop . pip install torchvision transformers pandas mkdir data models 数据 去做 配置 去做 跑 只需按顺序运行编号的脚本
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:20480
    • 提供者:weixin_42117116
  1. ctrl:可控发电的条件变压器语言模型-源码

  2. CTRL-可控发电的条件变压器语言模型 作者: ,, ,,和 更新 2020年4月20日 我们正在为CTRL添加! 如有任何疑问,请与我们联系。 2019年10月31日 添加功能以响应将模型从TF转换为HuggingFace / Transformers。 要转换检查点,只需通过pip install transformers然后运行python -u convert_tf_to_huggingface_pytorch.py --tf --pytorch 然后,在HuggingFace中
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:20971520
    • 提供者:weixin_42132359
« 1 2 ... 5 6 7 8 9 1011 12 13 »