您好,欢迎光临本网站![请登录][注册会员]  

人工智能下载,深度学习下载列表 第247页

« 1 2 ... .42 .43 .44 .45 .46 247.48 .49 .50 .51 .52 ... 1775 »

[深度学习] 机器学习系统-云计算-分布式系统.rar

说明:机器学习系统经典论文集合包括分布式训练系统、推理优化等。将机器学习与分部署式系统、云计算相结合开拓的一个新领域。
<EdiosnMa> 上传 | 大小:19mb

[深度学习] tensorflow-2.2.0+nv20.6-cp36-cp36m-linux_aarch64.whl

说明:nvidia tx2 tensorflow 资源,官网上有,网不好的可以下载tensorflow-2.2.0+nv20.6-cp36-cp36m-linux_aarch64
<weixin_41012767> 上传 | 大小:276mb

[深度学习] 更改matlab主题代码.rar

说明:更改matlab的主题的matlab代码,在matlab中运行schemer_import,然后选择所需主题即可。
<qq_35669555> 上传 | 大小:1mb

[深度学习] 论文笔记—DIVERSITY IS ALL YOU NEED_ LEARNING SKILLS WITHOUT A REWARD FUNCTION.pdf

说明:论文摘要:聪明的生物可以在没有监督的情况下探索环境并学习有用的技能。在本文中,我们提出了“多样性就是你所需要的”(DIAYN),一种无需奖励功能即可学习有用技能的方法。我们提出的方法通过使用最大熵策略最大化信息理论目标来学习技能。在各种模拟的机器人任务上,我们证明了这个简单的目标会导致无监督技能的出现,例如走路和跳跃。在许多强化学习基准环境中,我们的方法可以解决学习基准任务,而无需接受真正的任务奖励。我们展示了受过预训练的技能如何为下游任务提供良好的参数初始化,以及如何进行层次组合以解决复杂,稀
<liz_Lee> 上传 | 大小:10mb

[深度学习] DNN判断句子的通顺程度.py

说明:利用百度api判断中文语句的通顺程度,如果一个句子很通顺,更像我们平时常见的句子,那么他的得分会比较低,相反如果句子不通顺,得分就很很高,可以通过设置分数阈值来分析句子的合理性
<qq_41895904> 上传 | 大小:1kb

[深度学习] 论文笔记—learning invariant feature spaces to transfer skills with RL

说明:论文摘要:人们可以根据自己的经验学习各种各样的任务,但也可以通过观察其他生物来学习。即使观察到的代理与学习代理形态之间的差异很大,也可以加快新技能的获取。在本文中,我们研究了强化学习算法如何在形态不同的代理(例如,不同的机器人)之间传递知识。我们介绍了一个问题提法,其中两个特工被要求通过共享信息来学习多种技能。我们的方法使用了两个代理所学到的技能来训练不变特征空间,然后将其用于将其他技能从一个代理转移到另一个代理。学习这些不变特征空间的过程可以看作是一种“类比制作”,或者是隐式学习两个不同领域之
<liz_Lee> 上传 | 大小:1mb

[深度学习] 论文笔记—基于迁移共享空间的分类新算法

说明:论文摘要:为解决来自不同但相关领域的大量无标签数据和少量带标签数据的分类问题,首先构造一个联 系源域到目标域的共享特征空间,并将该空间引入经典的支持向量机算法使其获得迁移能力,最终得到 一种新的基于支持向量机的迁移共享空间的分类新算法,即迁移共享空间支持向量机.具体地,该方法 以迁移学习理论为基础,结合分类器最大间隔原理,通过最大化无标签数据和带标签数据的联合概率分 布来构建无标签数据和带标签数据的共享空间;为充分考虑少量带标签数据之数据分布,在其原始特征 空间和共享空间组成的扩展空间中训练分类
<liz_Lee> 上传 | 大小:3mb

[深度学习] NIPS2017-Oriol Vinyals-model vs optimazation meta-learning

说明:ppt框架:元学习定义,与无监督学习的对比,与监督学习的对比,元学习模型分类(基于模型,基于度量,基于优化)与例子,总结,展望
<liz_Lee> 上传 | 大小:2mb

[深度学习] 论文笔记—Learning domain-shared group-sparse representation for unsupervised DA

说明:论文摘要:在无监督域适应中,一个关键的研究问题是跨域的联合分布对齐 。 但是, 直接 对齐的源和目标联合分布是不可行的, 因为目标条件分布的标签未知。结合边缘分布对齐(它是条件分布对齐的等价条件,而不是用条件分布近似估计目标标签。),提出了一种基于领域共享的群体稀疏准则——字典学习模型,用于学习具有对齐联合分布的领域共享表示。实验结果表明,该方法在方差较大的数据集上也表现良好。 我们的结果进行了定量和定性分析,并进行了参数灵敏度和收敛性分析的实验,以表明该方法的有效性。
<liz_Lee> 上传 | 大小:5mb

[深度学习] 论文笔记—Gradient-Based Meta-Learning with Learned Layerwise Metric and Subspace

说明:论文摘要:基于梯度的元学习已被证明具有足够的表现力,可以近似任何学习算法。 尽管先前的此类方法已在元学习任务中取得成功,但它们诉诸于简单的gradientdescentduringmeta测试。 我们的主要贡献是MT-net,它使元学习者能够了解每个子层的激活空间,该子空间的任务指定清除器在其上执行梯度下降。 另外,MT-net的任务特定学习者相对于元学习距离度量执行梯度下降,这会使激活空间对任务身份更加敏感。 我们证明了这个学习的子空间的维度反映了任务特定学习者的适应任务的复杂性,并且我们的模
<liz_Lee> 上传 | 大小:939kb

[深度学习] 论文笔记—meta-learning and universality

说明:论文摘要:学习学习是使模型能够更有效,更有效地从数据中学习的强大范例。一种流行的元学习方法是训练一个循环模型,以将训练数据集作为输入并输出一个学习模型的参数,或者输出对新测试输入的预测。另外,一种新的元学习方法旨在获取可以通过标准梯度下降有效地微调到新任务的深度表示。在本文中,我们从通用性的角度考虑元学习问题,将学习算法近似的概念形式化,并将上述递归模型的表达能力与将梯度下降嵌入元学习器的最新方法进行比较。特别是,我们试图回答以下问题:深度表示与标准梯度下降相结合是否具有足够的能力来近似任何学习
<liz_Lee> 上传 | 大小:876kb

[深度学习] 综述笔记—A Survey on Transfer Learning

说明:论文摘要:许多机器学习和数据挖掘算法中的一个主要假设是,训练数据和将来的数据必须在相同的特征空间中并且具有相同的分布。但是,在许多实际应用中,此假设可能不成立。例如,有时我们在一个感兴趣的领域中有一个分类任务,但在另一个感兴趣的领域中我们只有足够的训练数据,其中后者的数据可能在不同的特征空间中或遵循不同的数据分布。在这种情况下,知识转移(如果成功完成)将通过避免昂贵的数据标记工作来极大地提高学习效果。近年来,转移学习已经成为解决这个问题的新的学习框架。这项调查的重点是对分类,回归和聚类问题的转移
<liz_Lee> 上传 | 大小:2mb
« 1 2 ... .42 .43 .44 .45 .46 247.48 .49 .50 .51 .52 ... 1775 »