您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. 含噪径向模糊图像的复原算法研究

  2. [附件中程序使用的详细说明]摄像平台高速靠近目标时,会使成像产生从中心到边缘呈放射状径向模糊的问题,影响对目标的探测、识别与跟踪。针对这一典型的空间变化运动模糊情形,根据实际的目标离散成像过程,推导出 径向模糊图像在极坐标系中的数学模型。并在分析极坐标图像纹理信息几何特征的基础上,基于非局部正则化理论提出改进的Richardson-Lucy 算法,有效解决了模糊系数存在测量误差时,含噪径向模糊图像的复原问题。实验结果表明:提出的图像复原算法能很好地抑制噪声与环状振铃效应,在主观视觉与客观评价方
  3. 所属分类:教育

    • 发布日期:2011-05-14
    • 文件大小:8388608
    • 提供者:maomaoyuspring
  1. richardson-luck 迭代盲复原算法-MATLAB

  2. 算法流程:读入一副清晰图像,类高斯函数滤波后后生成模糊图像.利用模糊图像估计PSF初值,再启动RL算法进行非对称估计PSF与真实图像.算法采用FFT实现了卷积和相关运算,比MATLAB提供的卷积运算速度提高10以上.如果运行中有什么问题,请联系我.13571351120.
  3. 所属分类:其它

    • 发布日期:2015-12-20
    • 文件大小:1024
    • 提供者:ilovecv
  1. jijuanji5.mRL算法对模糊图像复原的matlab程序

  2. RL算法对模糊图像复原的matlab程序,代码matlab,没有详细的讲解,程序并不难
  3. 所属分类:其它

  1. mbpo_pytorch:基于模型的强化学习算法MBPO的pytorch复制-源码

  2. 概述 这是pytorch中基于模型的RL算法MBPO的重新实现,如下文所述:。 该代码基于的使用张量流集成模型重现了结果,但使用pytorch集成模型却表现出明显的性能下降。 这段代码使用pytorch重新实现了集成动力学模型,并缩小了差距。 转载结果 比较是在两个任务上完成的,而其他任务没有经过测试。 但是在经过测试的两个任务上,与官方的tensorflow代码相比,pytorch实现获得了类似的性能。 依存关系 MuJoCo 1.5和MuJoCo 2.0 用法 python main_mb
  3. 所属分类:其它

    • 发布日期:2021-03-25
    • 文件大小:176128
    • 提供者:weixin_42168830
  1. genrl:一个PyTorch强化学习库,用于可推广和可再现的算法实现,旨在改善RL中的可访问性-源码

  2. GenRL是一个PyTorch强化学习库,以可重现,可推广的算法实现为中心,并提高了强化学习的可访问性 GenRL的当前版本为v0.0.2。期待重大变化 强化学习研究的发展比以往任何时候都快。为了跟上不断增长的趋势并确保RL研究保持可重复性,GenRL旨在通过提供以下主要功能来帮助更快地进行纸张复制和基准测试: PyTorch-first :模块化,可扩展和惯用的Python 教程和示例:从基本RL到SOTA Deep RL算法的20多个教程(包括说明)! 统一培训师和日志记录课程:代码可重用
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:405504
    • 提供者:weixin_42162216
  1. emorl:研究emo和rl算法-源码

  2. emorl:研究emo和rl算法
  3. 所属分类:其它

    • 发布日期:2021-03-16
    • 文件大小:2097152
    • 提供者:weixin_42131405
  1. distributedRL:分布式增强学习算法轻松原型制作的框架-源码

  2. 分布式RL distributedRL是一个框架,用于使用Pytorch , Ray和ZeroMQ (及更多)对变形强化学习进行原型制作。 您可以利用结构组件在单台机器上轻松分发您的强化学习算法。 当前,可以使用Ape-X DQN的实现。 IMPALA和SEED计划实施。 如果您有任何疑问,请随时与我们联系(哥伦比亚大学教育学院的cjy2129)或提出问题! 关于一些选择的注释 ApeXLearner和ApeXWorker被实现为抽象类(分别继承common.abstract.Learne
  3. 所属分类:其它

    • 发布日期:2021-03-08
    • 文件大小:22528
    • 提供者:weixin_42128676
  1. DeepRL:一些深度RL算法的实现-源码

  2. DeepRL 一些深度RL算法的实现 要求 python <= 3.6 火炬== 1.0 火炬视觉 张量流== 1.15.2 张量板 健身房 相关论文
  3. 所属分类:其它

    • 发布日期:2021-03-07
    • 文件大小:3145728
    • 提供者:weixin_42120997
  1. DRLib:DRLib:一个简洁的深度强化学习库,将HER和PER集成为几乎不符合政策的RL算法-源码

  2. DRLib:简洁的深度强化学习库,几乎将所有非政策性RL算法与HER和PER集成在一起。 简洁的深度强化学习库,几乎将所有非政策性RL算法与HER和PER集成在一起。 该库是基于的代码编写的,可以使用tensorflow或pytorch来实现。 与旋转相比,多进程和实验性网格包装已被删除,易于应用。 另外,我们库中的代码很方便用pycharm调试〜 项目特点: tf1和pytorch两个版本的算法,前者快,另外新,任君选择; 在spinup的基础上,封装了DDPG,TD3,SAC等主流强化算
  3. 所属分类:其它

    • 发布日期:2021-03-04
    • 文件大小:143360
    • 提供者:weixin_42116794
  1. awesome-rl:精选强化学习资源-源码

  2. 很棒的强化学习 专门用于强化学习的精选资源列表。 我们还有其他主题的页面: ,, : , 我们正在寻找更多的贡献者和维护者! 贡献 请随时 目录 代号 理查德·萨顿和安德鲁·巴托的《强化学习:入门》中的示例和练习代码 强化学习控制问题的仿真代码 (用于RL的标准接口)和 -基于Python的增强学习,人工智能和神经网络 -用于教育和研究的基于价值函数的强化学习框架 用于python强化学习中问题的机器学习框架 基于Java的强化学习框架 实现Q学习和其他RL算法的平台 贝叶斯强化学习库和工
  3. 所属分类:其它

    • 发布日期:2021-02-25
    • 文件大小:11264
    • 提供者:weixin_42116805
  1. 强化学习算法:一些流行的RL算法的实现-源码

  2. 安装 首先在requirements.txt安装需求,然后运行pip install -e .
  3. 所属分类:其它

    • 发布日期:2021-02-22
    • 文件大小:954368
    • 提供者:weixin_42170064
  1. DeepReinforcementLearning:深度RL实施。 在pytorch中实现的DQN,SAC,DDPG,TD3,PPO和VPG。 经过测试的环境:LunarLander-v2和Pendulum-v0-源码

  2. 使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:400384
    • 提供者:weixin_42099070
  1. RL_算法-源码

  2. RL_算法 此回购包括用于学习目的的不同RL算法。 环境 可以在[Pendulum] 找到演示中的钟摆环境。
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:156672
    • 提供者:weixin_42104778
  1. 教练:英特尔AI实验室的强化学习教练可轻松进行最新的强化学习算法实验-源码

  2. 教练 Coach是一个python强化学习框架,其中包含许多最新算法的实现。 它公开了一组易于使用的API,用于试验新的RL算法,并允许简单集成新环境来解决。 基本的RL组件(算法,环境,神经网络体系结构,探索策略等)已很好地分离,因此扩展和重用现有组件非常容易。 培训代理以解决环境就像运行一样容易: coach -p CartPole_DQN -r (初始版本) (当前版本) 目录 基准测试 建立研究项目或基于已发布算法的解决方案时的主要挑战之一是,获得一个具体可靠的基准,
  3. 所属分类:其它

    • 发布日期:2021-02-05
    • 文件大小:42991616
    • 提供者:weixin_42137032
  1. POMDP:基于部分可观察的马尔可夫决策过程实现RL算法-源码

  2. POMDP:基于部分可观察的马尔可夫决策过程实现RL算法
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:168960
    • 提供者:weixin_42131785
  1. reinforce-js:[INACTIVE]各种机器学习求解器的集合。 该库是一种面向对象的方法(与Typescript结合使用),并尝试提供简化的接口,这些接口使使用算法非常简单-源码

  2. 强化js 征集志愿者:由于时间紧缺,我急切地寻求自愿帮助。 如果您对建立加固代理人感兴趣(即使您是新手),并愿意进一步发展此教育项目,请与我联系:)议程上有一些要点,我仍然希望看到实现使该项目成为用于抽象教育目的的漂亮图书馆。 不活跃:由于缺乏时间和帮助 reinforce-js –各种简单的强化学习求解器的集合。 该库仅用于教育目的。 该库是一种面向对象的方法,它试图提供简化的接口,这些接口使使用算法变得非常容易(使用烘焙)。 此外,它是Andrej Karpathy的强化学习库的扩展,该
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:40960
    • 提供者:weixin_42157166
  1. minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码

  2. 最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:18432
    • 提供者:weixin_42121725
  1. imitation_learning:PyTorch实现的一些强化学习算法:优势演员评论(A2C),近距离策略优化(PPO),V-MPO,行为克隆(BC)。 将添加更多算法-源码

  2. 模仿学习 此仓库包含一些强化学习算法的简单PyTorch实现: 优势演员评论家(A2C) 的同步变体 近端策略优化(PPO)-最受欢迎的RL算法 , ,, 策略上最大后验策略优化(V-MPO)-DeepMind在其上次工作中使用的算法 (尚不起作用...) 行为克隆(BC)-一种将某些专家行为克隆到新策略中的简单技术 每种算法都支持向量/图像/字典观察空间和离散/连续动作空间。 为什么回购被称为“模仿学习”? 当我开始这个项目并进行回购时,我认为模仿学习将是我的主要重点,并且无模型方法
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:11534336
    • 提供者:weixin_42128015
  1. ReinforcementLearning:RL算法从基础到最新-源码

  2. 强化学习 RL算法从基础到最新 请访问“以获取有关我的项目列表和在线出版物的更多信息。
  3. 所属分类:其它

    • 发布日期:2021-03-31
    • 文件大小:573440
    • 提供者:weixin_42121272
  1. simrl:PyTorch中RL算法的简单实现-源码

  2. Simrl PyTorch中RL算法的简单实现。 支持的算法 PPO TRPO DDPG DQN A3C SAC
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:18432
    • 提供者:weixin_42126399
« 12 3 4 5 6 7 8 »