您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. TD移动通信系统--彭木根、王文博

  2. 本书从工程的角度剖析有关TD-SCDMA的智能天线技术、无线资源管理算法、TD-SCDMA系统干扰共存等问题的关键知识点,有益于读者实施实际工程、熟悉各种TD-SCDMA信令流程和通信事件过程。   本书是一本专门介绍TD-SCDMA移动通信系统的图书,内容涵盖关键技术、基本原理、协议标准和工程技术指导等,主要包括:TD-SCDMA系统组成,TD-SCDMA信令、协议、接口、基本原理、通信事件、安全、关键技术、智能天线、无线资源管理、TD-SCDMA射频参数设置、TD-SCDMA干扰及与其他系
  3. 所属分类:网络基础

    • 发布日期:2009-11-16
    • 文件大小:4mb
    • 提供者:hepcream
  1. 强化学习TD算法MATLAB程序

  2. MALTAB例程,实现强化学习TD算法,为强化学习算法的学习者提供帮助
  3. 所属分类:专业指导

    • 发布日期:2011-05-30
    • 文件大小:2kb
    • 提供者:hfutboy1819
  1. 强化学习(TD算法)

  2. 强化学习的任务就是利用观察到的回报来学习针对某个环境的最优或接近最优策略。它作为一种无导师机器学习方法,把环境的反馈作为 输入、通过学习选择能达到其目标的最优动作
  3. 所属分类:专业指导

    • 发布日期:2012-06-30
    • 文件大小:456kb
    • 提供者:hanqianjin11
  1. PID控制经典培训教程.pdf.td

  2. 教你在最短的时间内学会如何使用PID算法,经典的才是最好的学习材料。想学PID的童鞋们,赶快过来吧
  3. 所属分类:C

    • 发布日期:2013-08-09
    • 文件大小:408kb
    • 提供者:u011642396
  1. TD-LTE无线参数手册

  2. lte学习, 无线参数. 本手册总结了大唐移动通信设备有限公司LTE TDD 系统算法及协议的对应的重点参数。
  3. 所属分类:电信

    • 发布日期:2014-12-03
    • 文件大小:3mb
    • 提供者:cutter2002
  1. PID调节方法

  2. 有一种控制算法比 PID调节规律更有效、更方便的了。现在一些时髦点的调节器基本源自 PID。甚至可以这样说:PID 调节器是其它控制调节算法的吗。为什么 PID应用如此广泛、又长久不衰? 因为 PID解决了自动控制理论所要解决的最基本问题,既系统的稳定性、快速性和准确性。调节 PID的参数,可实现在系统稳定的前提下,兼顾系统的带载能力和抗扰能力,同时,在PID 调节器中引入积分项,系统增加了一个零积点,使之成为一阶或一阶以上的系统,这样系统阶跃响应的稳态误差就为零。   由于自动控制系统被控对
  3. 所属分类:讲义

    • 发布日期:2015-04-10
    • 文件大小:27kb
    • 提供者:bond519519
  1. PID算法的运用

  2. 总所周知,PID算法是个很经典的东西。而做自平衡小车,飞行器PID是一个必须翻过的坎。因此本节我们来好好讲解一下PID,根据我在学习中的体会,力求通俗易懂。并举出PID的形象例子来帮助理解PID。 一、首先介绍一下PID名字的由来: P:Proportion(比例),就是输入偏差乘以一个常数。 I :Integral(积分),就是对输入偏差进行积分运算。 D:Derivative(微分),对输入偏差进行微分运算。 注:输入偏差=读出的被控制对象的值-设定值。比如说我要把温度控制在26度,但是现
  3. 所属分类:嵌入式

    • 发布日期:2015-06-14
    • 文件大小:106kb
    • 提供者:qq_29027925
  1. 最新Python3.5零基础+高级+完整项目(28周全)培训视频学习资料

  2. 最新Python3.5零基础+高级+完整项目(28周全)培训视频学习资料;本资料仅用于学习。 【课程内容】 第1周 开课介绍 python发展介绍 第一个python程序 变量 字符编码与二进制 字符编码的区别与介绍 用户交互程序 if else流程判断 while 循环 while 循环优化版本 for 循环及作业要求 第2周 本节鸡汤 模块初识 pyc是什么 python数据类型 bytes数据类型 列表的使用 元组与购物车程序练习 购物车程序练习实例 字符串常用操作 字典的使用 三级菜单
  3. 所属分类:Python

    • 发布日期:2018-06-13
    • 文件大小:94byte
    • 提供者:jihaichen
  1. 微软亚洲研究院秦涛_强化学习PPT

  2. 近年来,强化学习特别是深度强化学习在棋类、视屏游戏、机器人控制等问题上取得了极大的成功,成为人工智能研究的热点。 微软亚洲研究院的秦涛研究员在报告《强化学习简介》中对强化学习做一个简要介绍。 该报告分为3个部分: 1、强化学习基础,包括: 马氏决策过程 Bellman方程 规划 最优控制 蒙特卡洛采样 TD算法 2、强化学习新算法,包括: 基于值函数的算法 基于策略函数的算法 基于两者的混合算法 3、强化学习所面临的挑战,如鲁棒性、样本效率等
  3. 所属分类:机器学习

    • 发布日期:2018-10-31
    • 文件大小:7mb
    • 提供者:zpf1002
  1. 本体映射中概念相似度计算的改进

  2. NULL 博文链接:https://snv.iteye.com/blog/1882241中国武技论文在线 http://www.paper.edu.cn 是一个实例在某木体中即属于概念A又属」概念B的可能性。P(A,B)表示一个实例在某木 体中属于概念A但不属于概念B的可能性。P(A,B)表小一个实例在某本体中不属于概念A 但属于概念B的可能性。在计算P(A,B)、P(A,B)、P(A,B)时要用到概念A和概念B在各 自本体中的实例个数。 用 Jaccard系数公式(2)我们可以计算出概念A和概
  3. 所属分类:其它

    • 发布日期:2019-04-20
    • 文件大小:212kb
    • 提供者:weixin_38669628
  1. 强化学习笔记(4)无模型控制Model-Free Control(On-policy learning, off-policy learning, GLIE, Sarsa, Q-learning)

  2. 文章目录Introduction概念On-Policy learningOff-Policy learningMonte-Carlo Control问题1:使用行为价值函数代替状态价值函数贪婪策略基于行为价值函数的更新:问题2:使用贪婪算法的局限性例解决方案:ϵ−greedy\epsilon-greedyϵ−greedyGLIE定理:GLIE Monte-Carlo Control定理TD ControlSarsa​算法描述定理缺点:Sarsa(λ)Sarsa(\lambda)Sarsa(λ)n
  3. 所属分类:其它

    • 发布日期:2021-01-07
    • 文件大小:507kb
    • 提供者:weixin_38503233
  1. 强化学习笔记(3) Monte-Carlo和TD

  2. 3_Monte-Carlo_RL 文章目录1.1. 前言1.1.1. 算法特性1.1.2. 目标1.2. 两种Monte-Carlo 估计价值函数1.2.1. First Visit1.2.2. Every Visit1.2.3. 小tips: Incremental Mean1.3. Monte Carlo Control (Approximate optimal policies)1.3.1. Over all idea2. Temporal-difference reinforcement
  3. 所属分类:其它

    • 发布日期:2021-01-06
    • 文件大小:620kb
    • 提供者:weixin_38520046
  1. 基于在线选择性核的时间差异学习

  2. 在本文中,提出了一种在线的基于核的选择性时差(OSKTD)学习算法,以解决大规模和/或连续的强化学习问题。 OSKTD包括两个在线过程:在线稀疏化和针对基于内核的选择性值函数的参数更新。 提出了一种基于选择性集成学习的稀疏化方法(即基于核距离的在线稀疏化方法),该方法与其他稀疏化方法相比,计算复杂度较低。 使用所提出的稀疏化方法,通过检查是否需要将样本添加到稀疏化字典中来在线构建样本稀疏字典。 另外,基于局部有效性,提出了一种基于选择性核的价值函数,从样本字典中选择最佳样本作为基于选择性核的价值
  3. 所属分类:其它

    • 发布日期:2021-03-10
    • 文件大小:490kb
    • 提供者:weixin_38641339
  1. Improving_Yelp_Ratings_with_ML:我们在此小组项目中的目标是将Yelp评论中的NLP和其他功能应用于输出新的5星级的模型中,以使评论和星级之间的差异减少。 为了使我们的模型更加健壮,我们还将基于阅读评论的新用户星

  2. 通过规范审稿人情绪来改善Yelp审阅体验 球队: 安吉拉·德特威勒(Angela Detweiler) 熙熙 林 贝瑟斯特·莫斯塔格尼(Behesteh Mostaghni) 数据集链接:Yelp的数据集在Kaggle重点是餐馆, 问题:在Yelp上搜索餐厅时,您是在看星级还是阅读评论? 你们都看吗? 鉴于评论是高度主观的,并且星级会受到业务绩效各个方面的影响,我们是否可以使用机器学习来标准化评论的解释? 目标:我们的目标是将Yelp评论中的自然语言处理(NLP)和其他功能应用于输出
  3. 所属分类:其它

    • 发布日期:2021-02-03
    • 文件大小:16mb
    • 提供者:weixin_42163404
  1.  基于强化学习的飞行自动驾驶仪设计

  2. 针对强化学习在连续状态连续动作空间中的维度灾难问题,利用BP神经网络算法作为值函数逼近策略,设计了自动驾驶仪。并引入动作池机制,有效避免飞行仿真中危险动作的发生。首先,建立了TD强化学习算法框架;然后根据经验将舵机动作合理分割为若干组,在不同的飞行状态时,调取不同组中的动作;其次,构建了BP神经网络,通过飞行过程中的立即奖赏,更新网络的值函数映射;最后,通过数字仿真验证了强化学习自动驾驶仪的性能,仿真结果表明,该算法具有良好的动态和稳态性能。
  3. 所属分类:其它

    • 发布日期:2021-01-30
    • 文件大小:822kb
    • 提供者:weixin_38706951
  1. SMDP 基于Actor网络的统一NDP方法

  2. 研究半马尔可夫决策过程(SMDP )基于性能势学习和策略逼近的神经元动态规划(NDP)方法.通过SMDP 的一致马尔可夫链的单个样本轨道,给出了折扣和平均准则下统一的性能势TD(λ)学习算法,进行逼近策略评估.利用一个神经元网络逼近结构作为行动器(Actor)表示策略,并根据性能势的学习值给出策略参数改进的两种方法.最后通过数值例子说明了有关算法的有效性.
  3. 所属分类:其它

    • 发布日期:2021-01-15
    • 文件大小:401kb
    • 提供者:weixin_38673738
  1. 基于免疫算法的TD-SCDMA网络基站选址优化

  2. 针对已有3G 基站选址优化算法的不足和 TD-SCDMA 网络的特点,提出了一种基于免疫算法的TD-SCDMA 网络基站选址优化方案。建立了基站选址问题的数学模型,设计了基于反学习的种群初始化方案和精英交叉策略,给出了免疫优化算法框架。实验结果表明,该算法不仅能够以较小的建站代价获得较高的网络覆盖率,而且算法具有较好的收敛性。
  3. 所属分类:其它

    • 发布日期:2021-01-14
    • 文件大小:665kb
    • 提供者:weixin_38681719
  1. 连续空间增量最近邻时域差分学习

  2. 针对连续空间强化学习问题, 提出一种基于局部加权学习的增量最近邻时域差分(TD) 学习框架. 通过增量方式在线选取部分已观测状态构建实例词典, 采用新观测状态的范围最近邻实例逼近其值函数与策略, 并结合TD 算法对词典中各实例的值函数和资格迹迭代更新. 就框架各主要组成部分给出多种设计方案, 并对其收敛性进行理论分析. 对24 种方案组合进行仿真验证的实验结果表明, SNDN组合具有较好的学习性能和计算效率.
  3. 所属分类:其它

    • 发布日期:2021-01-14
    • 文件大小:346kb
    • 提供者:weixin_38598613
  1. 基于重抽样优选缓存经验回放机制的深度强化学习方法

  2. 针对深度强化学习算法中经验缓存机制构建问题,提出一种基于TD误差的重抽样优选缓存机制;针对该机制存在的训练集坍塌现象,提出基于排行的分层抽样算法进行改进,并结合该机制对已有的几种典型基于DQN的深度强化学习算法进行改进.通过对Open AI Gym平台上Cart Port学习控制问题的仿真实验对比分析表明,优选机制能够提升训练样本的质量,实现对值函数的有效逼近,具有良好的学习效率和泛化性能,收敛速度和训练性能均有明显提升.
  3. 所属分类:其它

    • 发布日期:2021-01-12
    • 文件大小:351kb
    • 提供者:weixin_38629801