您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. DDPG-Continuous Control with Deep Reinforcement Learning.pdf

  2. 关于DDPG强化学习算法的论文~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
  3. 所属分类:机器学习

    • 发布日期:2018-06-30
    • 文件大小:660kb
    • 提供者:huanghui167
  1. (DDPG中文)Continuous control with deep reinforcement learningCH

  2. (DDPG中文)Continuous control with deep reinforcement learnin 中文版 翻译自用
  3. 所属分类:机器学习

    • 发布日期:2019-04-22
    • 文件大小:5mb
    • 提供者:qq_41897558
  1. pytorch-ddpg, 利用PyTorch实现深度确定策略梯度( DDPG )的实现.zip

  2. pytorch-ddpg, 利用PyTorch实现深度确定策略梯度( DDPG )的实现 在 PyTorch 上的深度确定策略渐变概述这是使用 PyTorch 实现的深度确定策略渐变的实现。 utilities缓冲缓冲区和随机进程等实用程序的一部分来自 keras-rl 。 Contributes非常受欢迎。依赖项p
  3. 所属分类:其它

  1. 5.ddpg.ipynb

  2. 关于ddpg的例子,适合初学者对深度强化学习ddpg的认识和了解
  3. 所属分类:讲义

    • 发布日期:2019-09-02
    • 文件大小:43kb
    • 提供者:m0_37384317
  1. 通过基于DDPG的深度强化学习对Biped机器人进行运动控制

  2. 在被动式Biped机器人的研究中,避免跌倒一直是研究的重要方向。 在本文中,我们提出了深度确定性策略梯度(DDPG)来控制Biped机器人在斜坡上的稳定行走。 为了提高DDPG的训练速度,本文中使用的DDPG通过并行参与者和优先体验重放(PER)进行了改进。 在模拟中,我们控制导致Biped机器人跌倒的不同初始状态。 控制后,两足动物机器人可以稳定行走,这表明DDPG可以有效地控制两足动物机器人的跌倒。
  3. 所属分类:其它

    • 发布日期:2021-03-14
    • 文件大小:907kb
    • 提供者:weixin_38688352
  1. Reinforcement-Learning-for-Control-of-Valves:该项目将DDPG用于非线性阀的“最佳”控制。 使用MATLAB和Simulink-源码

  2. 阀门控制的强化学习 版本2.1。 2021年3月10日:改进了文档,为希望将代码适应自己的工厂系统的新开发人员提供 Elsevier的MLWA(机器学习与应用程序)期刊的文档记录 该项目将DDPG用于非线性阀的“最佳”控制。 使用MATLAB R2019a和Simulink。 本文介绍了使用MATLAB的强化学习工具箱为非线性设备(例如阀门)创建“最佳”控制器的方法。 “分级学习”是一种简单的“指导”方法,它使人们可以更有效地训练代理。 该论文对研究过程中的学习进行了高度整理,并将观察结果与以
  3. 所属分类:其它

  1. DDPG连续控制-源码

  2. Unity带有RL的Reacher环境解决方案 介绍 该项目是用于解决Unity v0.4环境的深度确定性策略梯度强化学习算法的实现。 环境细节 在这种环境下,双臂可以移动到目标位置。 对于代理人的手在目标位置中的每一步,将提供+0.1的奖励。 因此,代理的目标是将其在目标位置的位置保持尽可能多的时间步长。 观察空间由33个变量组成,分别对应于手臂的位置,旋转,速度和角速度。 每个动作是一个带有四个数字的向量,对应于适用于两个关节的扭矩。 动作向量中的每个条目都应为-1和1之间的数字。 该
  3. 所属分类:其它

  1. ddpg-源码

  2. ddpg
  3. 所属分类:其它

  1. DeepReinforcementLearning-DDPG-for-RoboticsControl:这是名为深度确定性策略梯度(DDPG)的深度强化学习算法的实现,以训练4自由度机械臂达到移动目标。 动作空间是连续的,学习的特工为机器人输

  2. DDPGforRoboticsControl 这是名为深度确定性策略梯度(DDPG)的深度强化学习算法的实现,用于训练4自由度机械臂以达到移动目标。 动作空间是连续的,学习的代理会输出扭矩以使机器人移动到特定的目标位置。 环境 一个包含20个相同代理的,每个代理都有其自己的环境副本。 在这种环境下,双臂可以移动到目标位置。 对于代理人的手在目标位置中的每一步,将提供+0.1的奖励。 因此,座席的目标是在尽可能多的时间步中保持其在目标位置的位置。 观察空间由33个变量组成,分别对应于手臂的位置
  3. 所属分类:其它

    • 发布日期:2021-02-17
    • 文件大小:20mb
    • 提供者:weixin_42141437
  1. DDPG_TF2:KerasTensorflow 2中的简单深度确定性策略梯度算法(DDPG)实现-源码

  2. DDPG_TF2 很难在TF2中找到简单整洁的DDPG实现,因此我做了一个。 DDPG DDPG是一种无模型的非策略算法,可在连续动作空间中学习Q函数和策略。 它受Deep Q Learning的启发,可以看作是连续acion空间上的DQN。 它利用政策外数据和Bellman方程来学习Q函数,然后使用Q函数来推导和学习政策。 在DDPG的此实现中,一开始执行n次纯探索(由rand_steps参数指定)。 通过在整个范围内均匀分布来选择动作。 主要特点: 随机(深度)模型估计可提供连续(无限
  3. 所属分类:其它

  1. DeepReinforcementLearning:深度RL实施。 在pytorch中实现的DQN,SAC,DDPG,TD3,PPO和VPG。 经过测试的环境:LunarLander-v2和Pendulum-v0-源码

  2. 使用Pytorch实现的深度RL算法 算法列表: 关于深入探讨 实验结果: 算法 离散环境:LunarLander-v2 连续环境:Pendulum-v0 DQN -- VPG -- DDPG -- TD3 -- SAC -- PPO -- 用法: 只需直接运行文件/算法。 在我学习算法时,它们之间没有通用的结构。 不同的算法来自不同的来源。 资源: 未来的项目: 如果有时间,我将为使用RL的电梯添加一个简单的程序。 更好的图形
  3. 所属分类:其它

    • 发布日期:2021-02-13
    • 文件大小:391kb
    • 提供者:weixin_42099070
  1. radio_rl:在肿瘤发展模型上使用DQN和DDPG来优化放射治疗的治疗方案-源码

  2. 通过深度强化学习优化放射治疗的时间表 model文件夹包含模拟的Python实现的代码。 model_cpp文件夹包含模拟的C ++实现的代码。 nnets文件夹包含使用不同算法和奖励功能训练的神经网络,如手稿中所述。 training_logs文件夹包含zip归档中的手稿中描述的四个代理的培训日志文件。 eval文件夹包含不同代理的性能评估。 tmp文件夹包含在评估代理程序期间创建的映像。 misc文件夹包含无法在上述文件夹中分类的文件。 main.py用于训练代理。 use_
  3. 所属分类:其它

    • 发布日期:2021-02-12
    • 文件大小:16mb
    • 提供者:weixin_42128558
  1. IPC-DDPG-UAV格式-源码

  2. IPC-DDPG-UAV格式
  3. 所属分类:其它

  1. ddpg-aigym:具有深度强化学习的连续控制-在OpenAI Gym环境中实现的深度确定性策略梯度(DDPG)算法-源码

  2. ddpg-aigym 深度确定性策略梯度 Tensorflow中深度确定性策略梯度算法的实现(Lillicrap等人 。) 如何使用 git clone https://github.com/stevenpjg/ddpg-aigym.git cd ddpg-aigym python main.py 培训期间 一旦训练 学习曲线 InvertedPendulum-v1环境的学习曲线。 依存关系 Tensorflow(在tensorflow版本0.11.0rc0 ) OpenAi体育馆 Mujo
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:322kb
    • 提供者:weixin_42162216
  1. 带有火炬的深度增强学习:DQN,AC,ACER,A2C,A3C,PG,DDPG,TRPO,PPO,SAC,TD3和PyTorch实施...-源码

  2. 状态:活动(在活动开发中,可能会发生重大更改) 该存储库将实现经典且最新的深度强化学习算法。 该存储库的目的是为人们提供清晰的pytorch代码,以供他们学习深度强化学习算法。 将来,将添加更多最先进的算法,并且还将保留现有代码。 要求 python = 0.10 火炬> = 0.4 请注意,tensorflow不支持python3.7 安装 pip install -r requirements.txt 如果失败: 安装健身房 pip install gym 安装pytorc
  3. 所属分类:其它

  1. 强化学习算法:此存储库包含大多数基于pytorch实现的经典深度强化学习算法,包括-DQN,DDQN,Dualling Network,DDPG,SAC,A2C,PPO,TRPO。 (更多算法仍在进行中)-源码

  2. 深度强化学习算法 该存储库将使用PyTorch实现经典的深度强化学习算法。 该存储库的目的是为人们提供清晰的代码,以供他们学习深度强化学习算法。 将来,将添加更多算法,并且还将保留现有代码。 当前实施 深度Q学习网络(DQN) 基本DQN 双Q网络 决斗网络架构 深度确定性策略梯度(DDPG) 优势演员评判(A2C) 信任区域策略梯度(TRPO) 近端政策优化(PPO) 使用克罗内克因素信任区域(ACKTR)的演员评论家 软演员评论(SAC) 更新信息 :triangu
  3. 所属分类:其它

  1. DDPG智能体强化学习倒立摆案例

  2. DDPG智能体强化学习倒立摆案例,Train DDPG Agent to Swing Up and Balance Cart-Pole System - MATLAB & Simulink.pdf
  3. 所属分类:制造

    • 发布日期:2021-01-26
    • 文件大小:545kb
    • 提供者:yiweiduguo
  1. 基于3D CNN-DDPG端到端无人驾驶控制

  2. 文中基于希望直接应用低成本可见光摄像头解决无人驾驶中的刹车、油门和转向控制的问题为目的,采用了深度卷积神经网络和深度确定性策略梯度强化学习结合的方法。通过加入三维卷积神经网络,学习出连续的车辆摄像头视觉感知视频图像帧中的时序属性特征,使得智能体能够利用时序特性更平稳和安全得控制车辆。在开源无人驾驶仿真平台TORCS上进行实验,得出三维卷积神经网络和深度强化学习结合的方法对解决无人驾驶中的控制问题提供了可行性的方案结论。
  3. 所属分类:其它

  1. taslater.github.io:使用Tensorflow.js进行实时DDPG摆锤-源码

  2. taslater.github.io 强化学习很棒。 这个小摆锤由DDPG,TensorFlow.js和love提供支持。 看着它走! 更多细节即将到来。
  3. 所属分类:其它

    • 发布日期:2021-03-30
    • 文件大小:31kb
    • 提供者:weixin_42173218
  1. a2c-ppo-ddpg:强化学习算法a2c,ppo和ddpg的实现-源码

  2. a2c-ppo-ddpg
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:80kb
    • 提供者:weixin_42108054
« 12 3 4 »