您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 基于Tensorflow的人脸识别源码

  2. 该代码使用Tensorflow r1.7在Ubuntu 14.04下使用Python 2.7和Python 3.5进行测试。代码中包含测试用例。模型使用固定图像标准化。在中科院自动化所,WebFace数据集已经被用于训练。该面部检测后,该训练集包括总共453 453个图像,超过10 575个身份。如果在训练之前过滤了数据集,则可以看到一些性能改进。有关如何完成此操作的更多信息将在稍后提供。性能最佳的模型已经在VGGFace2数据集上进行了训练,该数据集由~ 3.3M面和~9000个类组成。提供
  3. 所属分类:深度学习

    • 发布日期:2018-10-28
    • 文件大小:2mb
    • 提供者:as1072966956
  1. facenet 预训练模型 20180402-114759

  2. 开源项目facenet 预训练模型 20180402-114759 用于人脸识别,项目源码请见:https://github.com/davidsandberg/facenet
  3. 所属分类:深度学习

    • 发布日期:2018-11-13
    • 文件大小:183mb
    • 提供者:bing1zhi2
  1. 解决Keras自带数据集与预训练model下载太慢问题

  2. keras的数据集源码下载地址太慢。尝试过修改源码中的下载地址,直接报错。 从源码或者网络资源下好数据集,下载好以后放到目录  ~/.keras/datasets/    下面。 其中:cifar10需要改文件名为cifar-10-batches-py.tar.gz ,cifar100改为 cifar-100-python.tar.gz , mnist改为 mnist.npz 预训练models放到 ~/.keras/models/ 路径下面即可。 补充知识:Keras下载的数据集以及预训练模型
  3. 所属分类:其它

    • 发布日期:2020-12-17
    • 文件大小:35kb
    • 提供者:weixin_38694299
  1. BERT预训练模型字向量提取工具–使用BERT编码句子

  2. 本文将介绍两个使用BERT编码句子(从BERT中提取向量)的例子。 (1)BERT预训练模型字向量提取工具 本工具直接读取BERT预训练模型,从中提取样本文件中所有使用到字向量,保存成向量文件,为后续模型提供embdding。 本工具直接读取预训练模型,不需要其它的依赖,同时把样本中所有 出现的字符对应的字向量全部提取,后续的模型可以非常快速进行embdding github完整源码 #!/usr/bin/env python # coding: utf-8 __author__ = 'xmxo
  3. 所属分类:其它

    • 发布日期:2020-12-21
    • 文件大小:58kb
    • 提供者:weixin_38515362
  1. Computer-Vision-Project-源码

  2. 建造周3 :construction_worker: 专注于深度学习和计算机视觉模块。 :books: 面罩检测项目 :face_with_medical_mask: 团队巡游 :automobile: 技术和工具 :toolbox: 任务 :memo: 自定义数据集 :camera_with_flash: 使用计算机视觉(cv2),我们使用网络摄像头捕获了MASK,No MASK和BAD MASK的图片。 保存图像并将其标记在相应的文件夹中,方法是在面部周围绘制矩形边界框,在眼睛周围绘
  3. 所属分类:其它

    • 发布日期:2021-03-26
    • 文件大小:80mb
    • 提供者:weixin_42134769
  1. self-supervised-pretraining:存储库为计算机视觉任务提供了广泛的自我监督的预训练模型-源码

  2. 分层预训练:研究资料库 这是一个用于复制“自我监督的预培训改善自我监督的预培训”项目结果的研究资料库。 您可以在这里找到arXiv的预拼版: ://arxiv.org/abs/2103.12718 article{reed2021self, title={Self-supervised pretraining improves self-supervised pretraining.}, author={Reed, Colorado J and Yue, Xiangyu and Nr
  3. 所属分类:其它

  1. preprocessing_pipeline_chicago:创建要导入的程序包以用于ML管道中的预处理步骤-源码

  2. preprocessing_pipeline_chicago 创建一个包,用于使用混合数据预处理特定的数据集。 通过使用随机森林分类器预测类,保存模型以及对新数据使用腌制版来测试过程。 打包功能 给column_separator一个数据帧,一个目标变量以及带有日期或警钟的特殊列的标识符。 然后,该函数将变量标识为数字或类别变量,不包括特殊列和目标列。 sample_splitter被赋予一个数据帧,一个目标变量,一个子样本值和一​​个测试大小,并将数据分为X和y,进行训练和测试。 打包变
  3. 所属分类:其它

  1. Fake-News-Detection-System:假新闻检测系统,用于检测新闻是否为伪造。 使用“说谎者,说谎者着火的裤子”训练模型-源码

  2. 假新闻检测系统 提议的系统分为多个阶段,以根据数据挖掘操​​作领域(例如数据收集,数据预处理,特征提取,特征选择和机器学习模型的实现)完全隔离工作,以进行将新闻分类为是非的预测并预测新闻属于预测标签的概率。 实施了许多机器学习模型,并根据准确性,f1得分,准确性和召回率等指标对机器学习模型的性能进行了比较。 评估模型性能的主要决定指标被选为f1得分,其中考虑了精度和召回率之间的折衷。 在对以下机器学习模型(SVM,逻辑回归,朴素贝叶斯和随机森林)进行了训练和调整之后,实施了投票分类器,将上述
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:31mb
    • 提供者:weixin_42097914
  1. universal-computation:官方代码库,适用于作为通用计算引擎的预训练变压器-源码

  2. 通用计算 概述 用于官方代码库。 包含演示笔记本和脚本以重现实验。 项目演示 有关冻结的预训练变压器的最小演示,请参阅demo.ipynb 。 您可以运行笔记本电脑,该笔记本电脑可以在几分钟内重现Bit XOR实验,并可视化学习到的注意力图。 状态 项目已发布,但将很快收到更新。 当前,该仓库支持以下任务: ['bit-memory', 'bit-xor', 'listops', 'mnist', 'cifar10', 'cifar10-gray'] 请注意,CIFAR-10 LRA是cif
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:79kb
    • 提供者:weixin_42099987
  1. t5-pegasus:中文生成式预训练模型-源码

  2. T5飞马 中文生成式预训练模型,以mT5为基础架构和初始权重,通过类似PEGASUS的方式进行预训练。 详情可见: ://kexue.fm/archives/8209 分词器 我们将T5 PEGASUS的令牌生成器转换成BERT的令牌生成器,它对中文更友好。同时,我们重新排列一版词表,从而里边的字,词都更加完善,目前的vocab.txt共包含5万个token,真正覆盖了中文的常用字,词。 预训练任务 具体来说,假设一个文档有n个句子,我们从中挑出大约n / 4个句子(可以不连续),因此这n /
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:418kb
    • 提供者:weixin_42153691
  1. RoBERTa-japanese:日语BERT预训练模型-源码

  2. RoBERTa-日语 日语BERT预训练模型 RoBERTaとは, ,BERTの改良版です。モデル构造そのものはオリジナルのBERTと同じで,学习手法に工夫があります。 のプロジェクトは,。 RoBERTa(改良BERT)日本语モデル 新 Tensorflow 1.x / 2.x両対応しました RoBERTa(改良BERT)の日本语版です 学习済みモデルについて 学习させたコーパスについて スポンサーシップについて 去做 ✓smallモデルの公开(2020/12/6) ✓baseモデルの公开(2
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:47kb
    • 提供者:weixin_42168555
  1. tfjs-models:TensorFlow.js的预训练模型-源码

  2. 预先训练的TensorFlow.js模型 该存储库托管了一组已移植到TensorFlow.js的预训练模型。 这些模型托管在NPM和unpkg上,因此可以在任何开箱即用的项目中使用。 它们可以直接使用,也可以在TensorFlow.js的转移学习设置中使用。 要查找有关模型的API,请查看各自目录中的自述文件。 通常,我们尝试隐藏张量,以便非机器学习专家可以使用该API。 对于有兴趣贡献模型的人,请以评估兴趣。 我们正在尝试添加可以补充现有模型集的模型,并可以在其他应用程序中用作构建块。
  3. 所属分类:其它

    • 发布日期:2021-02-09
    • 文件大小:76mb
    • 提供者:weixin_42104181
  1. cnn-facial-landmark:基于深度卷积神经网络的人脸标志检测训练代码-源码

  2. cnn-facial-landmark 基于卷积神经网络的人脸标志检测。 这是显示检测结果的示例gif。 该模型是使用TensorFlow构建的,并提供了训练代码,因此您可以使用自己的数据集训练自己的模型。 随附的教程也,其中包括背景,数据集,预处理,模型架构,培训和部署。 我尽力使它们对于初学者来说简单易懂。 遇到困难时可以随时提出问题,也可以分享一些好主意。 入门 这些说明将为您提供在本地计算机上运行并运行的项目的副本,以进行开发和测试。 先决条件 正在安装 只需git克隆此仓库,您就
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:615kb
    • 提供者:weixin_42117224
  1. tensorflow-model-zoo.torch:用于Torch7和PyTorch的InceptionV3,InceptionV4,Inception-Resnet预训练模型-源码

  2. 适用于Torch7和PyTorch的Tensorflow模型动物园(已淘汰) :请使用新的repo ,其中包含带有更好API的inceptionv4和inceptionresnetv2。 这是和制作的张量流预训练模型的移植。 特别感谢MoustaphaCissé。 所有型号均已在Imagenet上进行了测试。 这项工作的灵感来自于 。 使用预训练的模型 火炬7 要求 请安装 。 luarocks install --server=http://luarocks.org/dev torc
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:161mb
    • 提供者:weixin_42172972
  1. DPED:使用深度卷积网络自动提高照片质量的软件和预训练模型-源码

  2. 具有深度卷积网络的移动设备上的DSLR质量照片 1.概述 提供的代码实现了本文,该论文提出了一种端到端的深度学习方法,可以将来自智能手机的普通照片转换为DSLR品质的图像。 学习的模型可以应用于任意分辨率的照片,而方法本身可以推广到任何类型的数码相机。 在可以找到更多的视觉结果。 2.先决条件 Python +枕头,scipy,numpy,imageio软件包 + 英伟达GPU 3.第一步 下载预训练的并将其放入vgg_pretrained/文件夹 下载(用于CNN培训的补丁)并将其
  3. 所属分类:其它

  1. spacy变压器:spa在空间中使用像BERT,XLNet和GPT-2这样的预训练变压器-源码

  2. spacy-transformers:在spaCy中使用像BERT,XLNet和GPT-2这样的预训练变压器 该软件包提供组件和体系结构,以通过spaCy中的使用变压器模型。 结果是可以方便地访问最新的变压器架构,例如BERT,GPT-2,XLNet等。 此版本需要 。 有关该库的先前版本,请参见。 产品特点 使用诸如BERT , RoBERTa和XLNet之类的经过预训练的变压器模型为您的spaCy管道供电。 轻松的多任务学习:从多个管道组件反向支持到一个变压器模型。 使用spaCy v
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:48kb
    • 提供者:weixin_42128141
  1. gpt2-ml:适用于多种语言的GPT2,包括预先训练的模型。 GPT2多语言支持,15亿个参数中文预训练模型-源码

  2. 适用于多种语言的GPT2 | 简化的GPT2训练脚本(基于Grover,支持TPU) 移植的bert令牌生成器,多语言语料库兼容 1.5B GPT2预训练中文模型(〜15G语料库,10w步) 含电池的Colab演示 1.5B GPT2预训练中文模型(〜30G语料库,22w步) 预训练模型 尺寸 语言 语料库 词汇 链接1 链接2 SHA256 1.5B参数 中文 约30G 线索(8021代币) e698cc97a7f5f706f84f58bb469d614e 51d3c0ce
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:779kb
    • 提供者:weixin_42116805
  1. bert:TensorFlow代码和BERT的预训练模型-源码

  2. 伯特 ***** 2020年3月11日新产品:更小的BERT模型***** 此版本发行了24个较小的BERT模型(仅限英语,无大小写,使用WordPiece掩码进行了培训),在读物精通的 。 我们已经证明,除了BERT-Base和BERT-Large之外,标准BERT配方(包括模型体系结构和训练目标)对多种模型尺寸均有效。 较小的BERT模型适用于计算资源有限的环境。 可以按照与原始BERT模型相同的方式对它们进行微调。 但是,它们在知识提炼的情况下最有效,在这种情况下,微调标签是由更大,更
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:106kb
    • 提供者:weixin_42168750
  1. 多峰语音情感识别:用于语音情感识别和歧义解决的轻量级和可解释的ML模型(在IEMOCAP数据集上进行训练)-源码

  2. 多模式语音情感识别和歧义解决 总览 从语音中识别情感是一项与情感本身含糊不清的定义有关的艰巨任务。 在这项工作中,我们建立了轻量级的多模式机器学习模型,并将其与较重且难以解释的深度学习对应模型进行了比较。 对于这两种类型的模型,我们都使用来自给定音频信号的手工制作的功能。 我们的实验表明,轻量级模型可以与深度学习基准媲美,甚至在某些情况下甚至可以胜过深度学习基准,从而在IEMOCAP数据集上实现了最先进的性能。 获得的手工特征向量用于训练两种类型的模型: 基于ML:逻辑回归,SVM,随机森林
  3. 所属分类:其它

  1. onnxruntime:ONNX Runtime:跨平台,高性能ML推理和训练加速器-源码

  2. ONNX Runtime是一个跨平台的推理和培训加速器,与许多流行的ML / DNN框架兼容,包括PyTorch,TensorFlow / Keras,scikit-learn等。 许多用户可以从ONNX Runtime中受益,包括那些希望: 提高各种ML模型的推理性能 减少培训大型模型的时间和成本 使用Python进行培训,但可以部署到C#/ C ++ / Java应用程序中 在不同的硬件和操作系统上运行 在多个不同框架中创建的支持模型 自2019年10月以来, API稳定且可投入生产,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:269mb
    • 提供者:weixin_42165018
« 12 3 4 5 6 7 8 9 10 ... 50 »