您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. ReinforcementLearningMoscow.pdf

  2. 强化学习资料,包含DQN,PG,A2C,PPO,以及衍生算法与实验结果。 莫斯科罗蒙诺索夫国立大学 Written by: Sergey Ivanov ,qbrickmail.ru
  3. 所属分类:机器学习

    • 发布日期:2019-09-16
    • 文件大小:5mb
    • 提供者:biggestsheep
  1. Algorithm-Deep-reinforcement-learning-with-pytorch.zip

  2. Algorithm-Deep-reinforcement-learning-with-pytorch.zip,Pythorch实现DQN、AC、Acer、A2C、A3C、PG、DDPG、TRPO、PPO、SAC、TD3和….,算法是为计算机程序高效、彻底地完成任务而创建的一组详细的准则。
  3. 所属分类:其它

    • 发布日期:2019-09-17
    • 文件大小:69mb
    • 提供者:weixin_38744207
  1. 深度强化学习A2C算法实现

  2. 完整实现A2C算法,包括实现要点、模型构建、虚拟环境交互、模型训练、信息监控等,并亲测在google colab中运行
  3. 所属分类:机器学习

    • 发布日期:2020-04-28
    • 文件大小:5mb
    • 提供者:HJJ19881016
  1. RLSimpleBaselines:强化学习算法的简单PyTorch实现-源码

  2. 强化学习简单基准 “简单基准”旨在作为受OpenAI Spinning Up启发的信息技术学习的教育资源。 简单基准是PyTorch的实现。 表格方法 状态 动态编程 :check_mark: 蒙特卡洛 :check_mark: 时间差异 :check_mark: 函数Approheavy_check_markimators 状态 dqn :check_mark: 加强 :check_mark: a2c :check_mark: ddpg :check_mar
  3. 所属分类:其它

    • 发布日期:2021-03-22
    • 文件大小:607kb
    • 提供者:weixin_42103587
  1. GITHUB-STURCURED:网址-源码

  2. 交易算法(新台币进度) 回归+库存用例 随机森林+种群用例 DQN +库存用例 MARL +股票用例 RL和MARL算法 表示法:PL =火炬闪电 补强-PL DQN-PL A2C(A3C) PPO DDPG SAC I2A MADDPG(多代理) TD3 AlphaGo Mu 马尔... 欢迎使用GitHub Pages-Arseni 您可以使用的来维护和预览Markdown文件中网站的内容。 每当您提交到该存储库时,GitHub Pages都将运行从Markdown文
  3. 所属分类:其它

  1. huskarl:深度强化学习框架+算法-源码

  2. 胡斯卡尔 Huskarl是专注于模块化和快速原型设计的深度强化学习框架。 它基于TensorFlow 2.0构建,并在可能的情况下使用tf.keras API以获得简洁性和可读性。 Huskarl使跨多个CPU内核的环境动态计算的并行化变得容易。 这对于加速基于策略的学习算法很有用,该算法可从多个并发的经验来源(例如A2C或PPO)中受益。 它对于计算密集型环境(例如基于物理的环境)特别有用。 与环境无缝。 计划支持多代理环境和。 演算法 实现了几种算法,并计划了更多算法。 深度Q学习
  3. 所属分类:其它

    • 发布日期:2021-02-06
    • 文件大小:31mb
    • 提供者:weixin_42127020
  1. minimalRL:用最少的代码行实现基本的RL算法! (基于火炬)-源码

  2. 最小RL 用最少的代码行实现基本的RL算法! (基于PyTorch) 每种算法都在一个文件中完成。 每个文件的长度最多为100〜150行代码。 即使没有GPU,也可以在30秒内训练每种算法。 Env固定为“ CartPole-v1”。 您可以只关注实现。 演算法 (67行) (98行) (112行,包括重放内存和目标网络) (119条线,包括GAE) (145行,包括OU噪声和软目标更新) (129条线) (149条线) (188条线) (171行)已添加
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:18kb
    • 提供者:weixin_42121725
  1. chainerrl:ChainerRL是建立在Chainer之上的深度强化学习库-源码

  2. ChainerRL ChainerRL是一个深度强化学习库,它使用灵活的深度学习框架在Python中实现了各种最新的深度强化算法。 安装 ChainerRL已通过3.6测试。 有关其他要求,请参见 。 可以通过PyPI安装ChainerRL: pip install chainerrl 也可以从源代码安装: python setup.py install 有关的更多信息,请参阅安装。 入门 您可以先尝试《 ,或查看适用于Atari 2600和Open AI Gym的。 有关更多信息,
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:10mb
    • 提供者:weixin_42120563
  1. imitation_learning:PyTorch实现的一些强化学习算法:优势演员评论(A2C),近距离策略优化(PPO),V-MPO,行为克隆(BC)。 将添加更多算法-源码

  2. 模仿学习 此仓库包含一些强化学习算法的简单PyTorch实现: 优势演员评论家(A2C) 的同步变体 近端策略优化(PPO)-最受欢迎的RL算法 , ,, 策略上最大后验策略优化(V-MPO)-DeepMind在其上次工作中使用的算法 (尚不起作用...) 行为克隆(BC)-一种将某些专家行为克隆到新策略中的简单技术 每种算法都支持向量/图像/字典观察空间和离散/连续动作空间。 为什么回购被称为“模仿学习”? 当我开始这个项目并进行回购时,我认为模仿学习将是我的主要重点,并且无模型方法
  3. 所属分类:其它

    • 发布日期:2021-02-02
    • 文件大小:11mb
    • 提供者:weixin_42128015
  1. torchrl:强化学习算法的Pytorch实现(软演员评论员(SAC)DDPG TD3 DQN A2C PPO TRPO)-源码

  2. 火炬RL RL方法的Pytorch实现 支持具有连续和离散动作空间的环境。 支持具有1d和3d观察空间的环境。 支持多进程环境 要求 一般要求 火炬1.7 健身房(0.10.9) Mujoco(1.50.1) 列表(用于日志) tensorboardX(日志文件输出) 张量板要求 Tensorflow:启动tensorboard或读取tf记录中的日志 安装 使用use environment.yml创建虚拟环境 conda create -f environment.ym
  3. 所属分类:其它

    • 发布日期:2021-02-01
    • 文件大小:170kb
    • 提供者:weixin_42123191
  1. 带有火炬的深度增强学习:DQN,AC,ACER,A2C,A3C,PG,DDPG,TRPO,PPO,SAC,TD3和PyTorch实施...-源码

  2. 状态:活动(在活动开发中,可能会发生重大更改) 该存储库将实现经典且最新的深度强化学习算法。 该存储库的目的是为人们提供清晰的pytorch代码,以供他们学习深度强化学习算法。 将来,将添加更多最先进的算法,并且还将保留现有代码。 要求 python = 0.10 火炬> = 0.4 请注意,tensorflow不支持python3.7 安装 pip install -r requirements.txt 如果失败: 安装健身房 pip install gym 安装pytorc
  3. 所属分类:其它

  1. 强化学习算法:此存储库包含大多数基于pytorch实现的经典深度强化学习算法,包括-DQN,DDQN,Dualling Network,DDPG,SAC,A2C,PPO,TRPO。 (更多算法仍在进行中)-源码

  2. 深度强化学习算法 该存储库将使用PyTorch实现经典的深度强化学习算法。 该存储库的目的是为人们提供清晰的代码,以供他们学习深度强化学习算法。 将来,将添加更多算法,并且还将保留现有代码。 当前实施 深度Q学习网络(DQN) 基本DQN 双Q网络 决斗网络架构 深度确定性策略梯度(DDPG) 优势演员评判(A2C) 信任区域策略梯度(TRPO) 近端政策优化(PPO) 使用克罗内克因素信任区域(ACKTR)的演员评论家 软演员评论(SAC) 更新信息 :triangu
  3. 所属分类:其它

  1. pytorch-cpp-rl:PyTorch C ++强化学习-源码

  2. CppRl-PyTorch C ++强化学习 上图:经过我的笔记本电脑训练60秒后在LunarLander-v2上获得的结果 CppRl是一个增强学习框架,使用编写。 这是非常严重基于。 您甚至可以将其视为端口。 API和基础算法几乎是相同的(向C ++迁移时需要进行必要的更改)。 它还包含一个简单的OpenAI Gym服务器的实现,该服务器通过进行通信以在Gym环境中测试该框架。 CppRl旨在成为一个可扩展的,合理优化的,可立即投入生产的框架,用于在Python不可行的项目中使用强化
  3. 所属分类:其它

    • 发布日期:2021-01-28
    • 文件大小:464kb
    • 提供者:weixin_42113380
  1. a2c-ppo-ddpg:强化学习算法a2c,ppo和ddpg的实现-源码

  2. a2c-ppo-ddpg
  3. 所属分类:其它

    • 发布日期:2021-03-20
    • 文件大小:80kb
    • 提供者:weixin_42108054