您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 「视觉表示对比学习简单框架」(Geoffrey Hinton新论文).zip

  2. 近日,深度学习先驱Geoffrey Hinton领衔的Google大脑团队发布了他们在视觉表示对比学习的最新研究成果-SimLCR,建立了新的SOTA视觉ImageNet识别模型,76.5%的top-1准确度,比以前的水平提高了7%,与监督的ResNet-50的性能相当。并有一系列重要的发现。
  3. 所属分类:机器学习

    • 发布日期:2020-02-16
    • 文件大小:5mb
    • 提供者:syp_net
  1. opencv3_学习笔记.pdf

  2. 上传自己学习opencv时寻找的opencv3的学习笔记,里面的内容很不错,与大家一起分享typedef vcc Vcc31 typedef vcc Vcc 4 typedef Vcc Voc2f Typedef vec Vec3f typedef Veckfloat, 4> Vec4r typedef Vec Vec6f typedef Vec Vec2d typedef Vec'double, 3> Vec3d typedef Vec Vec4d typedef Vec Vecb
  3. 所属分类:机器学习

    • 发布日期:2019-08-17
    • 文件大小:4mb
    • 提供者:qq_43367829
  1. 基于半监督学习的多示例多标签改进算法

  2. 多示例多标签学习框架是一种针对解决多义性问题而提出的新型机器学习框架,在多示例多标签学习框架中,一个对象是用一组示例集合来表示,并且和一组类别标签相关联。E-MIMLSVM+算法是多示例多标签学习框架中利用退化思想的经典分类算法,针对其无法利用无标签样本进行学习从而造成泛化能力差等问题,使用半监督支持向量机对该算法进行改进。改进后的算法可以利用少量有标签样本和大量没有标签的样本进行学习,有助于发现样本集内部隐藏的结构信息,了解样本集的真实分布情况。通过对比实验可以看出,改进后的算法有效提高了分类
  3. 所属分类:其它

    • 发布日期:2020-10-15
    • 文件大小:573kb
    • 提供者:weixin_38672940
  1. 《对比监督学习》2020综述论文

  2. 自监督学习由于能够避免标注大规模数据集的成本而受到欢迎。它能够采用自定义的伪标签作为监督,并将学习到的表示用于几个下游任务。具体来说,对比学习最近已成为计算机视觉、自然语言处理(NLP)等领域的自主监督学习方法的主要组成部分。它的目的是将同一个样本的增广版本嵌入到一起,同时试图将不同样本中的嵌入推开。
  3. 所属分类:机器学习

    • 发布日期:2020-11-05
    • 文件大小:5mb
    • 提供者:syp_net
  1. 与MSSQL对比学习MYSQL的心得(二)–显示宽度

  2. 我们先来看看整数型数据类型的宽度范围 创建一个表 代码如下:CREATE TABLE tb_emp( id BIGINT(1)) id字段的数据类型为BIGINT(1),注意到后面的数字1,这表示的是该数据类型指定的显示宽度,指定能够显示的数值中数字的个数。 例如,假设声明一个INT类型的字段 YEAR INT(4) 该声明指明,在year字段中的数据一般只显示4位数字的宽度。 在SQLSERVER里是会报错的 代码如下:CREATE TABLE abc(id INT(11)) 代码如下
  3. 所属分类:其它

    • 发布日期:2020-12-15
    • 文件大小:146kb
    • 提供者:weixin_38742532
  1. SupContrast:PyTorch实施“监督式对比学习”(顺带SimCLR)-源码

  2. SupContrast:监督式对比学习 此库使用CIFAR作为说明性示例,涵盖了PyTorch中以下论文的参考实现: (1)监督式对比学习。(2)视觉表示对比学习的简单框架。 损失函数 损耗函数在losses.py花费features (L2归一化)和labels作为输入,并返回损耗。如果labels为None或未传递给它,则它会退化为SimCLR。 用法: from losses import SupConLoss # define loss with a temperature `temp
  3. 所属分类:其它

  1. awesome-self-supervised-gnn:关于图神经网络(GNN)的预训练和自我监督学习的论文-源码

  2. 很棒的自我监督 关于图神经网络(GNN)上自我监督学习的论文。如果您认为缺少与相关主题相关的论文,请随时通过问题或请求请求告知我们。 2021年 [arXiv 2021]使用基于子结构对比的图形表示学习进行药物目标预测 [arXiv 2021]通过元学习进行图神经网络的自我监督辅助学习 [arXiv 2021]图自我监督学习:一项调查 [arXiv 2021]迈向鲁棒图对比学习 [arXiv 2021]动态图神经网络的预训练 [arXiv 2021]图神经网络的自我监督学习:统一审查
  3. 所属分类:其它

  1. 基于多任务迭代学习的论辩挖掘方法

  2. 论辩挖掘可分为: 论点边界的检测,论点类型的识别,论点关系的抽取三个子任务。 现有的工作大多数对子任务分别建模研究, 忽略了三个子任务之间的关联信息, 导致性能低下。 另外, 还有部分的工作采用流水线模型把三个子任务进行联合建模,流水线模型仍然是独立的看待每个子任务,为每个子任务训练单独的模型,存在错误传播的问题,且在训练过程中产生了冗余信息。 因此, 提出了一种基于多任务迭代学习的的论辩挖掘方法。 该方法将论辩挖掘三个任务并行地联合一起学习,首先通过深度卷积神经网络(CNN) 和高速神经网络(
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:927kb
    • 提供者:weixin_38536716
  1. 无监督语义分割:通过对比对象蒙版提案进行无监督语义分割-源码

  2. 对比对象蒙版提案的无监督语义分割 此回购包含我们论文的Pytorch实现: , , 和 。 :trophy: SOTA用于无监督的语义分割。 有关更多信息,请查看基准的网站。 内容 介绍 在没有监督的情况下,能够学习图像的密集语义表示是计算机视觉中的重要问题。 然而,尽管它具有重要意义,但这个问题仍未得到很好的探索,只有少数例外考虑了在具有狭窄视觉域的小规模数据集上的无监督语义分割。 我们首次尝试解决传统上用于监督案例的数据集(例如PASCAL VOC)上的问题。 为了实现这一点,我们引
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:610kb
    • 提供者:weixin_42131705
  1. 自我监督学习概述::scroll:自我监督学习:最新阅读清单-源码

  2. 自主学习 此回购包含精选的自我指导学习论文列表,重点是表示学习和聚类。 目录 表征学习 分析 R.Geirhos,K.Narayanappa,B.Mitzkus,M.Bethge,FA Wichmann,W.Brendel,,ICLR,2021年。 X.Liu,F.Zhang,Z.Hou,L.Mian,Z.Wang,J.Tang,J.Tang,,Arxiv,2020年。 L. Jing,Y. Tian,《 ,T-PAMI,2020年。 S.Purushwalkam,A.Gupta,《反 ,
  3. 所属分类:其它

  1. DisCo:“生成模型知道解缠结吗?只需要对比学习”的代码-源码

  2. 生成模型知道解缠结吗? 对比学习就是您所需要的 生成模型知道解缠结吗? 对比学习就是您所需要的任轩chi *,陶涛*,王玉旺和曾文俊arXiv预印本arXiv:2102.10543 *表示相等的贡献 [] [] 最近更新 2021.2.24 :添加附录。 2021.5.01 :计划发布代码。 描述 在此仓库中,我们提出了一种无监督且与模型无关的方法:在变差空间中通过对比度解开( DisCo )。 该代码在潜在空间中发现纠缠的方向,并通过对比学习从图像中提取纠缠的表示。 给定预训练的非解缠生成
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:20mb
    • 提供者:weixin_42134554
  1. 对比:“通过对比鉴别器训练具有更强增强能力的GAN”论文的代码(ICLR 2021)-源码

  2. 通过对比鉴别器训练具有更强增强能力的GAN(ICLR 2021) 该存储库包含用于复制和的论文“通过对比鉴别器训练具有更强增强的 ”的。 TL; DR :我们提出了GAN的新型区分器,该方法表明对比表示学习(例如SimCLR和GAN)在共同训练时可以互惠互利。 在高分辨率,有限大小的AFHQ-Dog(4739个样本),AFHQ-Cat(5153个样本)和AFHQ-Wild(4738个样本)数据集上,对GAN的无条件生成进行定性比较。 概述 对比鉴别器(ContraD)概述。 不是从鉴别器
  3. 所属分类:其它

  1. DenseCL:用于自指导式表示学习的DenseCL,CVPR 2021-源码

  2. 自我监督视觉预训练的密集对比学习 该项目托管用于实现DenseCL算法以进行自我监督表示学习的代码。 王新龙,张如凤,沉春华,Kong涛,李磊在:Proc。 IEEE Con​​f。 2021年的计算机视觉和模式识别(CVPR) arXiv预印本( ) 强调 增强密集预测: DenseCL预训练模型在很大程度上有利于密集预测任务,包括对象检测和语义分段(最高+ 2%AP和+ 3%mIoU)。 简单的实现: DenseCL的核心部分可以用10行代码实现,因此易于使用和修改。 灵活的用法:
  3. 所属分类:其它

    • 发布日期:2021-03-03
    • 文件大小:591kb
    • 提供者:weixin_42119866
  1. 新想法!Geoffrey Hinton独自署名44页论文,如何在神经网络中表示部分-整体层次结构,结构化表示获取可解释性

  2. 本文没有描述一个工作系统。相反,它提出了一个关于表示的单一想法,允许几个不同群体的进步被组合成一个虚构的系统,称为GLOM。这些进展包括transformers、神经域、对比表示学习、蒸馏和胶囊。
  3. 所属分类:机器学习

    • 发布日期:2021-03-01
    • 文件大小:875kb
    • 提供者:syp_net
  1. 基于Gabor变换和组稀疏表示的敦煌壁画修复算法

  2. 在敦煌壁画修复过程中,初始字典的随机选取易陷入局部最优,仅以颜色欧氏距离作为图像块分组标准会导致图像修复后易出现结构模糊和线条不连续等问题。针对以上问题,提出了一种基于Gabor变换和组稀疏表示的敦煌壁画修复算法。首先,采用互信息作为图像块分组准则,并建立相似结构组,这使得组稀疏表示更加合理;然后,通过Gabor小波变换对相似结构组进行特征信息提取,并结合PCA降维的方式得到初始化结构组的特征字典,避免了字典初始化随机选取的不足;最后,采用奇异值SVD分解和分裂Bregman迭代优化方法对结构组
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:12mb
    • 提供者:weixin_38751016
  1. cnrl:对比网络表示学习-源码

  2. cNRL:对比网络表示学习 关于 来自Fujiwara等人的2020年cNRL的Python3实现。 Fujiwara等人,《网络的可解释性对比学习》,arXiv:2005.12419,2020年 要求 Python3 要运行sample.py,还要运行ccPCA和DeepGL。 ccPCA: : DeepGL: : 注意:已在macOS Catalina和Ubuntu 20.0.4 LTS上测试。 设置 用pip3安装。 移至该存储库的目录。 然后, pip3 install .
  3. 所属分类:其它

    • 发布日期:2021-02-18
    • 文件大小:10mb
    • 提供者:weixin_42134054
  1. 2021年冬季:记录寒假的每日学习情况-源码

  2. 2021年冬季 黄色标记表示已按计划完成。 行动解决焦虑 记录寒假期间的每日学习情况。 纸张目标 完成HSI论文并提交。 在1.21之前完成HSI代码。 ( :heavy_check_mark: ) 改进了Bert漏洞,以提高1.23之前的准确性。 ( :heavy_check_mark: ) 整理现有的可用代码并将其上传到GitHub。 很好地处理了三个数据集,并在1.25之前完成了所有对比实验并进行了记录。 (×)由于头痛,可计算出Kappa OA和AA系数。 我经历了整个过程。
  3. 所属分类:其它

    • 发布日期:2021-02-10
    • 文件大小:15kb
    • 提供者:weixin_42139357
  1. 反向代码:对比代码表示学习:通过自我监督学习的基于功能JavaScript嵌入-源码

  2. 对比代码表示学习 通过Paras Jain,Ajay Jain,Tianjun Zhang,Pieter Abbeel,Joseph E.Gonzalez和Ion Stoica() 学习基于功能的程序表示 诸如类型预测器和代码摘要器之类的机器辅助编程工具越来越多地基于学习。 但是,大多数代码表示学习方法都依赖于带有任务特定注释数据集的监督学习。 我们提出了对比代码表示学习(ContraCode),这是一种自我监督的算法,用于通过对比学习来学习程序的与任务无关的语义表示。 我们的方法不使用人工
  3. 所属分类:其它

    • 发布日期:2021-01-31
    • 文件大小:562kb
    • 提供者:weixin_42131276
  1. 基于高阶相似性的属性网络表示学习

  2. 现有的网络表示学习方法缺少对网络中隐含的深层次信息进行挖掘和利用。对网络中的潜在信息做进一步挖掘,提出了潜在的模式结构相似性,定义了网络结构间的相似度分数,用以衡量各个结构之间的相似性,使节点可以跨越不相干的顶点,获取全局结构上的高阶相似性。利用深度学习,融合多个信息源共同参与训练,弥补随机游走带来的不足,使得多个信息源信息之间紧密结合、互相补充,以达到最优的效果。实验选取Lap、DeepWalk、TADW、SDNE、CANE作为对比方法,将3个真实世界网络作为数据集来验证模型的有效性,进行节点
  3. 所属分类:其它

    • 发布日期:2021-01-21
    • 文件大小:856kb
    • 提供者:weixin_38663595
  1. align_uniform:通过超球上的一致性和统一性来理解对比表示学习-源码

  2. 表示学习的一致性和均匀性度量 该存储库提供了对齐和一致性度量的PyTorch实现,用于无监督的表示学习。这些度量在“通过超球面的对准和均匀性理解对比表示学习”中提出。 这些指标/损失可用于: (作为指标)量化编码器特征分布属性, (作为损失)直接训练编码器。 要求: PyTorch> = 1.5.0 文献资料 由于其简单的形式,这些损失 : # bsz : batch size (number of positive pairs) # d : latent dim # x
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:11kb
    • 提供者:weixin_42162171
« 12 3 4 »