您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 多任务学习

  2. 多任务学习简单例子,包含多任务学习的数据创建,训练,作图的matlab代码
  3. 所属分类:机器学习

    • 发布日期:2018-05-27
    • 文件大小:7mb
    • 提供者:zijun19900713
  1. caffe多任务训练

  2. 采用caffe矿建进行多标签训练,多任务的训练,结合proto配置文件
  3. 所属分类:深度学习

    • 发布日期:2018-06-05
    • 文件大小:23kb
    • 提供者:hunqiang3740
  1. 支持多任务-caffe-GPU编译好的(含改写之后的c++源码)

  2. c++源码经过改写,主要改写了convert_imageset.cpp,使其支持多任务训练。文件包含了编译好的caffe(不含pycaffe和matcaffe),GPU版。(CUDA7.5-CUDNN5.1)
  3. 所属分类:深度学习

    • 发布日期:2018-09-28
    • 文件大小:172mb
    • 提供者:qq_33248554
  1. 覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME.pdf

  2. 自然语言权威数据集 GLUE 一直是衡量各机构 NLP 预训练技术水平最重要的指标之一。近年来在其榜单之上实现更好的成绩,也成为了科技公司技术提升的体现。不过现有的大多数 NLP 基准仅限于英文任务,无法评价 NLP 模型在其他语言上的能力。近日,来自 CMU、谷歌研究院和 DeepMind 的科学家们提出了覆盖四十种语言的大规模多语言多任务基准 XTREME,希望一举解决这个问题。
  3. 所属分类:机器学习

    • 发布日期:2020-04-15
    • 文件大小:899kb
    • 提供者:syp_net
  1. 多任务高斯过程模型 Matlab工具箱 (包括多个例子)

  2. 高斯过程(GP)模型是非参数贝叶斯回归的一种灵活方法。然而,在大数据中使用GP模型的大多数现有工作都是为单变量输出时间序列定义的,称为单任务GPs (single-task GPs, STGP)。在此,利用GPs同时对多个相关单变量生理时间序列进行建模。由此产生的多任务GP (MTGP)框架可以学习多个信号之间的相关性,即使它们可能以不同的频率采样,并具有针对不同间隔的训练集。MTGPs可有效地学习了生理时间序列之间的相关性,从而提高了建模精度。 多任务高斯过程模型 Matlab工具箱 (包括多
  3. 所属分类:机器学习

  1. 《深度多任务学习》综述论文

  2. 尽管在深度学习方面取得了最近的进展,但大多数方法仍然采用类似“筒仓”的解决方案,专注于孤立地学习每个任务:为每个单独的任务训练一个单独的神经网络。然而,许多现实问题需要多模态方法,因此需要多任务模型。多任务学习(MTL)旨在利用跨任务的有用信息来提高模型的泛化能力。
  3. 所属分类:机器学习

    • 发布日期:2020-06-13
    • 文件大小:4mb
    • 提供者:syp_net
  1. mmdetectionv1.0.0-选择几张卡训练一个模型,单机多卡开多个训练任务(还有问题)—修改config-batch图像数目,学习率下降等–训练期间测试开启-训练灰度

  2. 训练灰度 如果你想训练灰度图,在这个版本,你应该: mmdetection/mmdet/datasets/pipelines/loading.py PIPELINES.register_module class LoadImageFromFile(object): def __init__(self, to_float32=False, color_type='color'): self.to_float32 = to_float32 self.colo
  3. 所属分类:其它

    • 发布日期:2020-12-22
    • 文件大小:45kb
    • 提供者:weixin_38646902
  1. 基于多任务迭代学习的论辩挖掘方法

  2. 论辩挖掘可分为: 论点边界的检测,论点类型的识别,论点关系的抽取三个子任务。 现有的工作大多数对子任务分别建模研究, 忽略了三个子任务之间的关联信息, 导致性能低下。 另外, 还有部分的工作采用流水线模型把三个子任务进行联合建模,流水线模型仍然是独立的看待每个子任务,为每个子任务训练单独的模型,存在错误传播的问题,且在训练过程中产生了冗余信息。 因此, 提出了一种基于多任务迭代学习的的论辩挖掘方法。 该方法将论辩挖掘三个任务并行地联合一起学习,首先通过深度卷积神经网络(CNN) 和高速神经网络(
  3. 所属分类:其它

    • 发布日期:2021-03-15
    • 文件大小:927kb
    • 提供者:weixin_38536716
  1. MTL-KGC:编码“具有预训练语言模型的知识图完成多任务学习”的代码-源码

  2. 货柜码头 这是的PyTorch实施。 火车 使用链接预测(LP),关系预测(RP)和相关性排名(RR)训练多任务学习。 如果收到AssertionError:未初始化默认进程组,请尝试使用python -m torch.distributed.launch python run_bert_multitask.py \ --do_train \ --task_list lp,rp,rr \ --data_dir ./data/wn18rr \ --bert_mo
  3. 所属分类:其它

    • 发布日期:2021-03-09
    • 文件大小:11mb
    • 提供者:weixin_42099176
  1. 使用具有多任务学习功能的深度神经网络进行细胞跟踪

  2. 细胞跟踪在生物医学和计算机视觉领域起着至关重要的作用。 由于细胞通常具有频繁的变形活动并且在显微镜图像中尺寸较小,因此在实践中跟踪非刚性和非重要细胞非常困难。 传统的视觉跟踪方法在跟踪刚性和重要视觉对象方面具有良好的性能,但是,它们不适合用于单元跟踪问题。 在本文中,提出了一种使用卷积神经网络(CNN)以及多任务学习(MTL)技术的新型细胞跟踪方法。 CNN可学习可靠的信元功能,而MTL可提高跟踪的泛化性能。 提出的细胞跟踪方法包括粒子过滤器运动模型,多任务学习观察模型和优化的模型更新策略。 在
  3. 所属分类:其它

  1. Self-Att-BiLSTM: 一种面向业务流程活动与时间的多任务预测方法

  2. 业务流程中事件日志的分析与预测可以为流程监控和管理提供决策信息,现有研究方法多针对特定单个任务预测,不同任务间预测方法的可迁移性不高。多任务预测可以共享多个任务间的信息,提升单个任务预测的精度,但现有研究对重复活动的多任务预测效果有待提高。针对以上问题,提出一种注意力机制与双向长短时记忆结合的深度神经网络模型,实现对业务流程中重复活动和时间的多任务预测。预测模型可以共享不同任务已经学到的特征表示,实现多任务并行训练。在多个数据集中对不同方法进行对比,结果表明,所提方法提高了预测效率和预测精度,尤
  3. 所属分类:其它

  1. 基于多任务学习的立体匹配算法

  2. 引入辅助任务信息有助于立体匹配模型理解相关知识,但也会增加模型训练的复杂度。为解决模型训练对额外标签数据的依赖问题,提出了一种利用双目图像的自相关性进行多任务学习的立体匹配算法。该算法在多层级渐进细化过程中引入了边缘和特征一致性信息,并采用循环迭代的方式更新视差图。根据双目图像中视差的局部平滑性和左右特征一致性构建了损失函数,在不依赖额外标签数据的情况下就可以引导模型学习边缘和特征一致性信息。提出了一种尺度注意的空间金字塔池化,使模型能够根据局部图像特征来确定不同区域中不同尺度特征的重要性。实验
  3. 所属分类:其它

  1. pilot3_MT-CNN_ORNL:支持3号飞行员多任务卷积神经网络(MT-CNN)的存储库-源码

  2. 多任务卷积神经网络(MT-CNN) 作者:橡树岭国家实验室计算机科学与工程系生物医学科学,工程与计算小组 描述: MT-CNN是用于自然语言处理(NLP)和从自由格式文本提取信息的CNN。 BSEC小组设计了从癌症病理报告中提取信息的模型。 用户社区: 对分类自由格式文本(例如病理报告,临床试验,摘要等)感兴趣的数据科学家 可用性: 数据科学家可以使用提供的未经训练的模型对自己的数据进行训练,或者使用经过训练的模型对提供的测试样本进行分类。 提供的脚本使用已从Genomics Data C
  3. 所属分类:其它

    • 发布日期:2021-02-11
    • 文件大小:16kb
    • 提供者:weixin_42100188
  1. mt-dnn:用于自然语言理解的多任务深度神经网络-源码

  2. 新品发布我们发布了针对LM预训练/微调和f散度的对抗训练。 LM的大规模对抗训练: 。 如果要使用旧版本,请使用以下cmd克隆代码: git clone -b v0.1 https://github.com/namisan/mt-dnn.git 用于自然语言理解的多任务深度神经网络 该PyTorch软件包实现了用于自然语言理解的多任务深度神经网络(MT-DNN),如下所述: 刘晓东*,何鹏程*,陈伟柱和高建峰用于自然语言理解的多任务深度神经网络 *:平等贡献 刘晓东,何鹏程,陈伟柱,高建峰
  3. 所属分类:其它

  1. 多任务学习:在IMKI-Wiki数据集上对GENKI4k进行多任务学习微笑检测,年龄和性别分类-源码

  2. 使用多任务学习进行微笑检测,性别和年龄估计 在原始论文《 ,作者仅根据给定图像就能够对个人的年龄进行分类,从而显示出非凡的结果。 让我们看看在有限的资源下,如何通过自我构建架构获得准确性(我猜是很糟糕)。 不仅是年龄,我们还使用多任务训练技术对性别和微笑进行分类。 依存关系 Python 3.x OpenCV 2 张量流 麻木 大熊猫 matplotlib 科学的 海生的 用于人脸检测 用法 下载数据集 首先下载和 (裁剪版)数据集。 预处理数据 首先运行 。 此步骤预处理IMDB-WI
  3. 所属分类:其它

    • 发布日期:2021-02-04
    • 文件大小:149mb
    • 提供者:weixin_42117622
  1. monpa:MONPA罔拍是一个提供正体中文断词,词性标注以及命名实体识别的多任务模型-源码

  2. 罔拍MONPA:多目标NER POS注释器 MONPA罔拍是一个提供正体中文断词,词性标注以及命名实体识别的多任务模型。初期只有网站示范版本( ),本计划是将monpa包装成可以pip install的python软件包(最新版本v0.3.1)。 最新版的monpa模型是使用pytorch 1.0框架训练出来的模型,所以在使用本版本前,请先安装割炬1. *以上版本才能正常使用monpa套件。 公告 - 本次更新版本 v0.3.2:解決 issue 10, 11 的建議,新增 short_sen
  3. 所属分类:其它

  1. multi-task-NLP:multi_task_NLP是一个实用工具包,使NLP开发人员可以轻松地为多个任务训练和推断单个模型-源码

  2. 多任务NLP multi_task_NLP是一个实用工具包,使NLP开发人员可以轻松地为多个任务训练和推断单个模型。 我们支持大多数NLU任务和多种基于变压器的编码器(例如BERT,Distil-BERT,ALBERT,RoBERTa,XLNET等)的各种数据格式。 有关此库的完整文档,请参阅 什么是multi_task_NLP? 任何会话式AI系统都涉及构建多个组件以执行各种任务,以及涉及将所有组件缝合在一起的管道。 鉴于NLP中基于变压器的模型的最新有效性,建立基于变压器的模型来解决您
  3. 所属分类:其它

  1. bert-multitask-learning:用于多任务学习的BERT-源码

  2. 多任务学习专家 注意:从0.4.0开始,tf版本必须大于等于2.1。 安装 pip install bert-multitask-learning 它是什么 这个项目使用变压器(基于拥抱面部变压器)进行多模式多任务学习。 我为什么需要这个 在原始的BERT代码中,多任务学习或多GPU训练都不可行。 另外,该项目的初衷是NER,它在原始BERT代码中没有有效的脚本。 总而言之,与原始bert回购相比,此回购具有以下功能: 多模式多任务学习(重写大部分代码的主要原因)。 多GPU训练 支持序列
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:28mb
    • 提供者:weixin_42113456
  1. OmniNet:“ OmniNet:用于多模式多任务学习的统一体系结构”的Pytorch官方实现| 作者:Subhojeet Pramanik,Priyanka Agrawal,Aman Hussain-源码

  2. OmniNet:用于多模式多任务学习的统一架构 OmniNet是用于多模式多任务学习的Transformer体系结构的统一和扩展版本。 单个OmniNet体系结构可以对几乎任何现实领域(文本,图像,视频)的多个输入进行编码,并能够跨多种任务进行异步多任务学习。 OmniNet体系结构包含多个称为神经外围设备的子网,用于将特定于域的输入编码为时空表示形式,并连接到称为中央神经处理器(CNP)的通用中央神经网络。 CNP实现了基于变压器的通用时空编码器和多任务解码器。 该存储库包含用于的官方Py
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:17mb
    • 提供者:weixin_42170064
  1. 基于多任务深度学习的铝材表面缺陷检测

  2. 针对工业铝材缺陷检测中由缺陷样本稀疏带来的训练过拟合、泛化性能差等问题,提出一种基于多任务深度学习的铝材缺陷检测方法。先基于Faster RCNN设计一个包含铝材区域分割、缺陷多标签分类和缺陷目标检测的多任务深度网络模型;再设计多任务损失层,利用自适应权重对各项任务进行加权平衡,解决了多项任务训练中的收敛不均衡问题。实验结果表明,在有限的数据集支持下,相较于单任务学习,该方法能够在保持分割任务的均交并比(MIoU)指标最优的情况下,分别提高多标签分类和缺陷目标检测的准确率,解决了由铝材缺陷检测样
  3. 所属分类:其它

« 12 3 4 5 6 7 8 9 10 ... 22 »