您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. Inverse Problem Theory and Methods for Model Parameter Estimation

  2. Inverse Problem Theory and Methods for Model Parameter Estimation (模型参数估计的反问题理论与方法) 作者:(意大利)(Albert Tarantola)塔兰托拉 PDF格式,英文。
  3. 所属分类:专业指导

    • 发布日期:2010-11-05
    • 文件大小:19mb
    • 提供者:manseasun
  1. network science Albert-László Barabási

  2. network science Albert-László Barabási new book
  3. 所属分类:其它

    • 发布日期:2013-10-23
    • 文件大小:16mb
    • 提供者:js1cxy
  1. Network Science (Albert-László Barabási)

  2. Network Science (Albert-László Barabási) Network Science (Albert-László Barabási)
  3. 所属分类:算法与数据结构

    • 发布日期:2018-01-10
    • 文件大小:16mb
    • 提供者:wizardforcel
  1. 基于Albert+BiLSTM+CRF深度学习网络架构的自然语言处理工具-MacropodusMacropodus.zip

  2. Macropodus是一个以Albert+BiLSTM+CRF网络架构为基础,用大规模中文语料训练的自然语言处理工具包。将提供中文分词、词性标注、命名实体识别、关键词抽取、文本摘要、新词发现、文本相似度、计算器、数字转换、拼音转换、繁简转换等常见NLP功能。
  3. 所属分类:其它

  1. 第四节:ALBERT

  2. 目录回顾BERT1. 降低模型参数,加宽加深模型2. 改进NSP任务为SOP3. 去掉dropout4. 增加训练数据总结 最近在家听贪心学院的NLP直播课。放到博客上作为NLP 课程的简单的梳理。 简介:虽然BERT模型本身是很有效的,但这种有效性依赖于大量的模型参数,所以训练一套BERT模型所需要的时间和资源成本是非常大的,甚至这样复杂的模型也会影响最终效果。在本次讲座里,我们重点来介绍一种瘦身版的重磅BERT模型 – ALBERT,它通过几种优化策略来获得比BERT小得多的模型,但在GLU
  3. 所属分类:其它

  1. nlp_notes:自然语言处理学习笔记:机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。

  2. 自然语言处理学习笔记 机器学习及深度学习原理和示例,基于Tensorflow和PyTorch框架,Transformer,BERT,ALBERT等最新预训练模型以及源代码详解,以及基于预训练模型进行各种自然语言处理任务。以及模型部署 两种传统的模型: 基于规则或模板生成对话系统 基于概率的语言模型利用语料数据,实现了简略的2-gram模型,并利用该模型判断句子的合理性 根据中国城市的位置信息,实现简单的路径规划系统 根据武汉地铁的各站点的位置信息,实现简单的路径规划系统 图的广度优先搜索及深度优
  3. 所属分类:其它

    • 发布日期:2021-03-23
    • 文件大小:25mb
    • 提供者:weixin_42115003
  1. albert:快速灵活的键盘启动器-源码

  2. 阿尔伯特发射器 Albert是对您的机器的统一而有效的访问。 从技术上讲,它是用C ++ / Qt编写的键盘启动器。 基于插件的体系结构使其极其灵活和强大。 插件可用于创建前端或功能扩展。 也可以使用嵌入式Python模块或通过CGI方法以所需的任何语言来实现扩展。 入门 检查的漂亮图片和视频。 在这里,您还将找到有关,,或Albert的说明。 支持 如果您喜欢此软件,请考虑 :beer_mug: 。 :thumbs_up: 和艾伯特一起玩,如果不喜欢,请。
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:101kb
    • 提供者:weixin_42146274
  1. decagon:简单游戏引擎开发部门。由Albert-Flex通过Java编写。基于OpenJFX-源码

  2. 十边形 简单游戏引擎开发部门。由Albert-Flex通过Java编写。基于OpenJFX。
  3. 所属分类:其它

  1. Albert-X-Window-Switcher:用于Albert Launcher的QPlugin,允许Albert在X11系统上的打开的窗口之间切换-源码

  2. 阿尔伯特X窗口切换器 *注意:当前版本仅支持Albert v0.16.4及以下版本。 对Albert v0.17的支持即将推出! 描述 用于QPlugin,允许Albert切换到打开的窗口。 该实用程序是为使用X11窗口系统的系统设计的。 在撰写本文时,该功能确实通过实用程序的python包装器在Albert中存在,但是此实现旨在提高性能,因为它消除了python和pybind11的任何额外开销,因为该功能是本地实现的。 依存关系 此插件还共享从源代码构建所需的依赖项。 有关从源代码及其依赖项构
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:19kb
    • 提供者:weixin_42103587
  1. cs175--lfric-to-Albert-源码

  2. CS 175-阿尔法里奇飞往阿尔伯特 Ælfricto Albert是NLP的一个项目,尝试使用神学文本在现代,中古和古英语之间进行翻译。 该项目利用Google Colab作为主要开发环境。 有关项目展示,请参见Demo.ipynb 。 目录 设置 要求: Python> = 3.7 安装软件包依赖项: pip install -r requirements.txt 结构 项目目录结构。 . ├── data/ # corpora for tra
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:18mb
    • 提供者:weixin_42132352
  1. albert:阿尔伯特-源码

  2. 阿尔伯特 ***************新2020年3月28日*************** 添加一个colab 以对GLUE数据集进行微调。 ***************新2020年1月7日*************** v2 TF-Hub模型现在应该可以在TF 1.15上使用,因为我们从图中删除了本地Einsum op。 请参阅下面的更新的TF-Hub链接。 ***************新2019年12月30日*************** 中国模型发布。 我们要感谢提供的培训
  3. 所属分类:其它

    • 发布日期:2021-03-13
    • 文件大小:109kb
    • 提供者:weixin_42136837
  1. ALBERT-TF2.0:使用TF2.0的ALBERT模型预训练和微调-源码

  2. 阿尔伯特-TF2.0 使用TF2.0的ALBERT模型微调 该存储库包含针对ALBERT的TensorFlow 2.0实现。 要求 python3 点安装-r requirements.txt ALBERT预训练 从零开始的ALBERT模型预训练和特定于域的微调。 说明 下载ALBERT TF 2.0砝码 Verison 1 版本2 将模型解压缩到存储库中。 以上重量不包含原始模型中的最后一层。 现在只能用于微调下游任务。 从TF-HUB到TF 2.0全权转换 下载胶水数据 使用以下c
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:183kb
    • 提供者:weixin_42128141
  1. albert:基板节点模板的乐趣-源码

  2. 阿尔伯特 Substrate节点模板仅用于实验和开发目的。 有什么不同吗 仅全节点,无轻客户端 默认情况下在--dev和--chain=local之间使用混合 Alice和Bob作为权威 Alice , Bob和Charlie 没有普罗米修斯,也没有遥测 不包括托盘模板。 最在使用,方法 注意albert跟随 master 。 然而,代替底物的上游, albert如下叉子。 原因是,这使我们可以紧跟master同时仍拥有某种知名版本的Substrate(当前的分叉头)。
  3. 所属分类:其它

    • 发布日期:2021-02-28
    • 文件大小:58kb
    • 提供者:weixin_42134097
  1. albert-chinese-ner:使用预训练语言模型ALBERT做中文NER-源码

  2. 阿尔伯特·中国人 前言 这次的albert某种程度上可能会导致bert本质上有所重叠,恰逢中文预训练模型出来,还是按照之前的数据来做NER方面的fine-tune PS:移步传统模型 资源资源 文件 配置 下载albert中文模型,这里使用的是base 将模型文件夹重命名为albert_base_zh,加入项目中 运行python albert_ner.py --task_name ner --do_train true --do_eval true --data_dir data --voc
  3. 所属分类:其它

  1. bert-for-tf2:BERT,ALBERT和适配器-BERT的Keras TensorFlow 2.0实现-源码

  2. bert-for-tf2:BERT,ALBERT和适配器-BERT的Keras TensorFlow 2.0实现
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:103kb
    • 提供者:weixin_42134168
  1. albert_zh:用于自我监督学习语言表示的精简BERT,海量中文预训练ALBERT模型-源码

  2. albert_zh 使用TensorFlow实现的实现 ALBert基于Bert,但有一些改进。 它以30%的参数减少,可在主要基准上达到最先进的性能。 对于albert_base_zh,它只有十个百分比参数与原始bert模型进行比较,并且保留了主要精度。 现在已经提供了针对中文的ALBERT预训练模型的不同版本,包括TensorFlow,PyTorch和Keras。 海量中文语料上预训练ALBERT模型:参数充分,效果更好。预训练小模型也能拿下13项NLP任务,ALBERT三大改造登顶G
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:969kb
    • 提供者:weixin_42176827
  1. bert_in_a_flask:dockerized烧瓶API,使用TensorFlow 2.0提供ALBERT和BERT预测-源码

  2. BERT&ALBERT放在烧瓶中 此回购演示了如何通过简单的dockerized flask API来提供香草BERT和ALBERT预测。 回购包含和实现,以实现多类分类。 模型实现基于 。 该代码被编写为与和兼容。 如果要使用GPU进行训练,则还需要安装nvidia-container-toolkit 。 有关如何安装它的说明,请参见。 该项目使用进行演示。 新闻 2020年4月2日-现在支持 。 数据和模型加载已得到简化和改进。 2020年6月1日-代码库已全面并移植到 。 现在,该实现
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:16kb
    • 提供者:weixin_42097189
  1. SentimentAnalysis:由Stanford Sentiment Treebank上的BERT,ALBERT或DistilBERT进行微调训练而成的情感分析神经网络-源码

  2. 情绪分析 在 上通过微调 , 或训练的情感分析神经网络。 安装要求 pip install numpy pandas torch transformers 使用我在s3上载的模型分析您的输入 python analyze.py 火车模型 python train.py --model_name_or_path bert-base-uncased --output_dir my_model --num_eps 2 支持bert-base-uncase,albert-base-v2,distilbe
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:16mb
    • 提供者:weixin_42138376
  1. Macropodus:自然语言处理工具Macropodus,基于Albert + BiLSTM + CRF深度学习网络架构,中文分词,词性标注,命名实体识别,新词发现,关键词,文本摘要,文本相似度,科学计算器,中文数字阿拉伯NLP的工具(工

  2. Macropodus是一个以Albert + BiLSTM + CRF网络架构为基础,用大量中文语料训练的自然语言处理工具包。将提供中文分词,词性标注,命名实体识别,关键词提取,文本摘要,新词发现,文本相似度,计算器,数字转换,拼音转换,繁简转换等常见的NLP功能。 目录 安装 注意事项默认不安装nlg-yongzhuo, 如果需要该功能自行安装; 默认不指定numpy, pandas, scikit-learn版本, 过高或者过低的版本可能不支持 标准版本的依赖包详见 requirements
  3. 所属分类:其它

  1. 一文揭开ALBERT的神秘面纱

  2. 本文是我对ALBERT论文的一个总结归纳,如有理解上的偏差、错误欢迎大家指正批评,感谢。 前言 RoBERTa没霸榜几天,这不Google爸爸就又放大招,这次的新模型不再是简单的的升级,而是采用了全新的参数共享机制,反观其他升级版BERT模型,基本都是添加了更多的预训练任务,增大数据量等轻微的改动。这次ALBERT的改进,不仅提升了模型的整体效果再一次拿下来各项榜单的榜首,而且参数量相比BERT来说少了很多。 对于预训练模型来说,提升模型的大小是能对下游任务的效果有一定提升,然而如果进一步提升模
  3. 所属分类:其它

    • 发布日期:2021-01-20
    • 文件大小:535kb
    • 提供者:weixin_38748718
« 12 3 4 5 6 7 8 9 10 »