您好,欢迎光临本网站![请登录][注册会员]  

人工智能下载列表 第524页

« 1 2 ... .19 .20 .21 .22 .23 524.25 .26 .27 .28 .29 ... 4583 »

[深度学习] 论文笔记—Gradient-Based Meta-Learning with Learned Layerwise Metric and Subspace

说明:论文摘要:基于梯度的元学习已被证明具有足够的表现力,可以近似任何学习算法。 尽管先前的此类方法已在元学习任务中取得成功,但它们诉诸于简单的gradientdescentduringmeta测试。 我们的主要贡献是MT-net,它使元学习者能够了解每个子层的激活空间,该子空间的任务指定清除器在其上执行梯度下降。 另外,MT-net的任务特定学习者相对于元学习距离度量执行梯度下降,这会使激活空间对任务身份更加敏感。 我们证明了这个学习的子空间的维度反映了任务特定学习者的适应任务的复杂性,并且我们的模
<liz_Lee> 上传 | 大小:939kb

[深度学习] 论文笔记—meta-learning and universality

说明:论文摘要:学习学习是使模型能够更有效,更有效地从数据中学习的强大范例。一种流行的元学习方法是训练一个循环模型,以将训练数据集作为输入并输出一个学习模型的参数,或者输出对新测试输入的预测。另外,一种新的元学习方法旨在获取可以通过标准梯度下降有效地微调到新任务的深度表示。在本文中,我们从通用性的角度考虑元学习问题,将学习算法近似的概念形式化,并将上述递归模型的表达能力与将梯度下降嵌入元学习器的最新方法进行比较。特别是,我们试图回答以下问题:深度表示与标准梯度下降相结合是否具有足够的能力来近似任何学习
<liz_Lee> 上传 | 大小:876kb

[深度学习] 综述笔记—A Survey on Transfer Learning

说明:论文摘要:许多机器学习和数据挖掘算法中的一个主要假设是,训练数据和将来的数据必须在相同的特征空间中并且具有相同的分布。但是,在许多实际应用中,此假设可能不成立。例如,有时我们在一个感兴趣的领域中有一个分类任务,但在另一个感兴趣的领域中我们只有足够的训练数据,其中后者的数据可能在不同的特征空间中或遵循不同的数据分布。在这种情况下,知识转移(如果成功完成)将通过避免昂贵的数据标记工作来极大地提高学习效果。近年来,转移学习已经成为解决这个问题的新的学习框架。这项调查的重点是对分类,回归和聚类问题的转移
<liz_Lee> 上传 | 大小:2mb

[深度学习] 论文笔记Unsupervised cross-domain transfer in PGRL via manifold alignment.pdf

说明:论文摘要:将策略梯度强化学习(RL)应用于困难的控制任务的成功,关键取决于确定策略明智的初始化的能力。转移学习方法通​​过重用从解决其他相关任务中收集到的知识来解决此问题。在多个任务域的情况下,这些算法需要任务间映射以促进跨域的知识转移。但是,当前没有通用的方法来学习任务间映射,而不需要RL设置中通常不存在的背景知识,也不需要对状态和动作的大小以指数形式进行的任务间映射的昂贵分析本文介绍了一种自治框架,该框架使用无监督的流形对齐来学习任务间映射并有效地在不同任务域之间传递样本。包括在四旋翼控制中
<liz_Lee> 上传 | 大小:1mb

[深度学习] 论文笔记—Recasting gradient-based meta-learning as hierarchical bayes

说明:论文摘要:元学习允许智能代理利用先前的学习情节作为快速提高新任务性能的基础。贝叶斯分层建模提供了一个理论框架,用于形式化元学习,作为对跨任务共享的一组参数的推断。在这里,我们重新定义了Finn等人的模型不可知元学习算法(MAML)。 (2017)作为分层贝叶斯模型中概率推断的方法。与通过分层贝叶斯进行元学习的现有方法相比,MAML通过使用可扩展的梯度下降过程进行后验推理,自然适用于复杂函数逼近器。此外,将MAML识别为分层贝叶斯提供了一种将算法作为元学习过程进行理解的方法,并提供了利用计算策略进
<liz_Lee> 上传 | 大小:3mb

[深度学习] 论文笔记—Probabilistic Model-Agnostic Meta-Learning.pdf

说明:论文摘要:元学习仅需少量学习就可以获取先前的先前任务和经验,从而可以从少量数据中学习新任务。但是,短镜头学习中的一个关键挑战是任务模糊性:即使可以从大量先前任务中元学习强大的先验知识,但用于新任务的小数据集也可能太含糊而无法获取单个模型(例如,针对该任务的分类器)。在本文中,我们提出了一种概率元学习算法,该算法可以从模型分布中为新任务采样模型。我们的方法扩展了模型不可知的元学习,它通过梯度下降适应新任务,并结合了通过变分下界训练的参数分布。在元测试时,我们的算法通过将噪声注入梯度下降的简单过程进
<liz_Lee> 上传 | 大小:2mb

[深度学习] 综述笔记—GeneralizingfromaFewExamples:ASurveyonFew-Shot Learning

说明:论文框架:介绍,概述(问题定义,相关问题,关键点,分类),数据(有标签数据,弱标签数据,相似数据集,总结),模型(多任务学习,嵌入式学习,外部记忆空间学习,生成模型,总结),算法(已有参数优化,元参数优化,学习优化器,总结),展望(问题场景,技术,应用,理论),结论
<liz_Lee> 上传 | 大小:6mb

[深度学习] 关于网络嵌入和图卷积神经网络的一些思考.pdf

说明:2019云栖大会-关于网络嵌入和图卷积神经网络的一些思考,清华大学崔鹏关于卷积网络深蹲学习领域的技术分享。
<yejingtao703> 上传 | 大小:136mb

[深度学习] 基于视觉推理的视频理解.pdf

说明:2019云栖大会-基于视觉推理的视频理解,了解图神经网络的基本模型和应用场景,其中推理模型属于图神经里比较高深的知识点。
<yejingtao703> 上传 | 大小:22mb

[机器学习] 01:第一节:语音技术应用.mp4

说明:语音技术应用学习
<aizhushou> 上传 | 大小:476mb

[深度学习] 视频内容理解的研究与实践.pdf

说明:2019云栖大会-视频内容理解的研究与实践,讲解了多维视频的发展历程和AI媒体的系统基本组成,推荐流媒体行业必读。
<yejingtao703> 上传 | 大小:6mb

[机器学习] octave-5.2.0_1-w64-installer.rar

说明:吴恩达机器学习课程推荐使用的软件,进行科学计算十分的方便,用这个提交课程作业也十分的方便,由于直接在官网上下载太慢了,把资源挂上来方便大家下载。
<Timeclimber> 上传 | 大小:304mb
« 1 2 ... .19 .20 .21 .22 .23 524.25 .26 .27 .28 .29 ... 4583 »