您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. transformers-for-lawyers:AI应用法律技术基准-源码

  2. 律师变压器 适用于Legaltech的AI应用/基准 为律师寻找更好的搜索选项 DEMO带有拥抱面Kong,Jina和欧洲法院的判决该站点包含2019年至2020年欧洲法院关于税收问题的113项判决。 判决中的所有句子均已通过BERT模型( 提供的bert-base-uncased )进行编码,这是一个非常强大的NLP模型的例子,已经征服了AI应用程序。 搜索体验的基础架构基于 - 一个基于最新的深度学习策略设计神经搜索引擎的出色可扩展库。 整个概念-以及Jina和Huggingface-在法
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:2097152
    • 提供者:weixin_42116701
  1. ADAbot:聊天室的存储库-源码

  2. ADAbot 在图灵市的聊天机器人中继续生活。 Escopo do Projeto 图灵响应者常去的环境 自然语言的回复者,自然语言的回复者。 图卢兹图灵实现部署或集成模型 不雅 类似文件 取消永久罚款的行为,因违反了类似条例而遭到永久罚款。 像普通民众一样,普通民众也可以将普通民众视为普通民众。 嵌入上下文 在BERTPré-treinadoemPortuguês, ,disponibilizado na biblioteca transformers 。 部署 部署聊天机器人,即AW
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:433152
    • 提供者:weixin_42151305
  1. MiNMT-源码

  2. 使用Transformers的简约NMT工具包 基于PyTorch( )开发的工具包,用于研究目的,旨在成为一个干净且简约的代码库,其准确性与其他最新框架相似。 客户群 minmt-vocab.py :读取(标记化的)训练数据并输出基于频率的词汇 minmt-setup.py :创建NMT网络实验 minmt-train.py :运行学习 minmt-average.py :平均检查点 minmt-translate.py :运行推断 :information: 使用-h选项运行客户端,以获
  3. 所属分类:其它

    • 发布日期:2021-03-29
    • 文件大小:30720
    • 提供者:weixin_42161497
  1. English-Question-Answering-System-源码

  2. mlp_groupwork 请安装: PyTorch(有效上自带,不需要安装) 变压器(本地安装) conda install -c huggingface transformers 变压器(进行安装) source /home/${STUDENT_ID}/miniconda3/bin/activate mlp pip install transformers conda install -c anaconda importlib-metadata 然后测试一下能不能运行: pyth
  3. 所属分类:其它

    • 发布日期:2021-03-28
    • 文件大小:33792
    • 提供者:weixin_42101164
  1. PTT5:关于葡萄牙数据的T5培训和评估代码-源码

  2. PTT5 正式实施。 如何使用PTT5: 可用型号 我们的葡萄牙语预训练模型可用于 PyTorch和TensorFlow中的 。 模型 尺寸 #Params 词汇 小的 60M 谷歌的T5 根据 220M 谷歌的T5 大 740M 谷歌的T5 小的 60M 葡萄牙语 (推荐) 根据 220M 葡萄牙语 大 740M 葡萄牙语 用法示例: # Tokenizer from transformers import T5Tokenizer # PyTorch (ba
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:5242880
    • 提供者:weixin_42168230
  1. som-dst:SOM-DST-源码

  2. SOM-DST 此代码是进行pytorch正式实现。 ,, ,在ACL 2020中。 要求 python3.6 pytorch-transformers==1.0.0 torch==1.3.0a0+24ae9b5 wget==3.2 下载和预处理数据 要下载MultiWOZ数据集并对其进行预处理,请首先运行此脚本。您可以选择数据集的版本。 (“ 2.1”,“ 2.0”)下载的原始数据集将位于$DOWNLOAD_PATH ,经过预处理后,它将位于$TARGET_PATH 。 python3 cr
  3. 所属分类:其它

    • 发布日期:2021-03-21
    • 文件大小:270336
    • 提供者:weixin_42139252
  1. MPNet:网络-源码

  2. 网络 ,通过Kaitao宋,,,剑锋陆,,是语言理解任务的新型前的训练方法。它解决了BERT中的MLM(隐蔽语言建模)和XLNet中的PLM(置换语言建模)的问题,并获得了更高的准确性。 新闻:我们现在更新了预训练模型。 支持的功能 几种预训练模型(包括BERT,XLNet,MPNet等)的统一视图和实施。 用于针对各种语言理解(GLUE,SQuAD,RACE等)任务进行预训练和微调的代码。 安装 我们基于的代码库实现MPNet和此预培训工具包。安装如下: pip install --edit
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:3145728
    • 提供者:weixin_42108054
  1. Conversational-AI-NLP-Tutorial-源码

  2. 会话式AI和自然语言处理(NLP)教程 自然语言处理(NLP)和会话式AI一直在改变着各个行业,例如搜索,社交媒体,自动化,联系中心,助手和电子商务。它经历了研究和开发的多个阶段。在1990年代之前,大多数系统都完全基于规则。随后出现了基于机器学习的系统,但是,仍然难以管理多个域和场景。 2013年后,基于迁移学习和深度学习的系统通过将系统扩展到各种应用程序中的数百万用户,进一步提高了性能。最近,基于Transformers的模型通过各种好处席卷了AI研究和产品社区。 尽管在过去的十年中取得了长
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:30720
    • 提供者:weixin_42144554
  1. pytorch-源码

  2. :alien_monster: PyTorch变形金刚 PyTorch-Transformers(以前称为pytorch-pretrained-bert )是用于自然语言处理(NLP)的最先进的预训练模型库。 该库当前包含以下模型的PyTorch实现,预训练的模型权重,使用脚本和转换实用程序: (来自Google)与一起发表了是Jacob Devlin,Chang Ming-Wei Chang,Kenton Lee和Kristina Toutanova。 (来自OpenAI)发布了Al
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:786432
    • 提供者:weixin_42120550
  1. xcs224u_final_paper-源码

  2. XCS224U:最终项目 回购结构 code :包含此项目中开发的模型的所有代码。 paper :包含创建最终pdf的所有乳胶文件。 有用的链接 计算机器协会的乳胶课程 HSL色彩转换器 安装Huggingface库 $ conda install -n nlu transformers 蔚蓝 导出变量 $ export PYTHONPATH=/[path to project]/3-xcs224u_final_paper/code
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:78643200
    • 提供者:weixin_42102272
  1. se3-transformer-public:SE3变形金刚纸的代码-源码

  2. SE(3)-变形金刚 该存储库是的正式实现。 请引用我们为 inproceedings{fuchs2020se3transformers, title={SE(3)-Transformers: 3D Roto-Translation Equivariant Attention Networks}, author={Fabian B. Fuchs and Daniel E. Worrall and Volker Fischer and Max Welling}, year=
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:63488
    • 提供者:weixin_42101384
  1. gector:“ GECToR –语法错误校正”论文的正式实施-源码

  2. GECToR –语法错误纠正:标记,不重写 该存储库提供以下代码的正式PyTorch实施,用于训练和测试语法错误纠正的最新模型的代码: , , , 文法 它主要基于AllenNLP和transformers 。 安装 以下命令将安装所有必需的软件包: pip install -r requirements.txt 该项目已使用Python 3.7进行了测试。 数据集 本文中使用的所有公共GEC数据集都可以从下载。综合创建的数据集可在生成/下载。要训​​练模型数据,必须对其进行预处理,并
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:684032
    • 提供者:weixin_42109639
« 1 2 ... 8 9 10 11 12 13»