您好,欢迎光临本网站![请登录][注册会员]  

搜索资源列表

  1. C语言程序设计 挖隧道游戏

  2. C语言课程设计 2008 年 1 月11日 摘要 本程序可以实现在屏幕上显示一条蛇,按键盘上的方向键,可以使蛇向不同方向一前进。在屏幕上会随机出现一个方格(苹果),当1在程序开始处通过语句#include将库函数引进来,并通过init()函数初始化图形系统,然后编写pieslice函数和setfillstyle函数画扇形并填充来完成大嘴巴效果的绘制,最后通过while(c!=’\015’)循环响应用户的键盘动作,实现隧道挖掘的效果。 目录 1.设计目的与要求 1 2.设计的功能 2 3.数据结
  3. 所属分类:C

    • 发布日期:2009-12-22
    • 文件大小:191kb
    • 提供者:ztao200808
  1. 用java写成的游戏——连连看 学习java的好资料

  2. 用java写成的游戏——连连看,实现了游戏的全部功能,分级,计时,提示等,是提高java编程能力的佳作,不下载会后悔!
  3. 所属分类:Java

    • 发布日期:2010-10-26
    • 文件大小:208kb
    • 提供者:foxhello
  1. 扫不完的雷--java小游戏

  2. 用Java写的小游戏,相比传统的扫雷加入了很多新的系统,最特别的是“恢复系统”,即挖开的格子过一会儿会还原,且有一定概率变成雷,这才成了“扫不完的雷”。以下是游戏规则及说明: 这个游戏的理念是“快速思考,眼疾手快”。 一、你只有三分钟时间来扫(当然技术好也可以加时间),当你点下中央的开始按钮,右边的计时器就开始倒计时,所以你必须快速地判断。 二、配合这种快速理念,游戏对你的误判是允许的,每当你点到一颗雷,右边的秒表(用秒表就是为了提醒大家,这是个快速扫雷的游戏)就会减少一个。(当然也有办法让秒
  3. 所属分类:Java

    • 发布日期:2011-02-26
    • 文件大小:2mb
    • 提供者:sbslzr
  1. C语言的实例

  2. 本文件包含200多个C语言的实例,共分为8个部分,可以对大家理解C语言的应用起到很好的帮助,目录清单大致如下: 第一部分 基础篇, 第二部分 数据结构篇 第三部分 数值计算与趣味数学篇 ………………………… 第六部分 常见试题解答篇 第七部分 游戏篇 如: 207 商人过河游戏 208 吃数游戏 209 解救人质游戏 210 打字训练游戏 211 双人竞走游戏 212 迷宫探险游戏第八部分 综合实例篇 如: 217 综合CAD系统 218 功能强大的文本编辑器 219 图书管理系统 220 进
  3. 所属分类:C

    • 发布日期:2011-03-06
    • 文件大小:79kb
    • 提供者:trtyeyrdty
  1. 最优解,贪心算法,多段图的最短路径

  2. 贪心算法一般来说是解决“最优问题”,具有编程简单、运行效率高、空间复杂度低等特点。 一、贪心算法与简单枚举和动态规划的运行方式比较 贪心算法一般是求“最优解”这类问题的。最优解问题可描述为:有n个输入, 它的解是由这n 个输入的某个子集组成,并且这个子集必须满足事先给定的条 件。这个条件称为约束条件。而把满足约束条件的子集称为该问题的可行解。这 些可行解可能有多个。为了衡量可行解的优劣,事先给了一个关于可行解的函数, 称为目标函数。目标函数最大(或最小)的可行解,称为最优解。 a)求“最优解”
  3. 所属分类:其它

    • 发布日期:2011-08-22
    • 文件大小:280kb
    • 提供者:wzx_007
  1. 3D游戏开发大全

  2. 3D游戏开发大全,清晰 嗨!我正在使用您的软件并且想知道——您是否可以告诉我如何设计计算 机游戏?我并没有很多钱,但是我有关于设计类似射击的XYZ游戏的恐怖想法, 只是不知道应该如何进行设计……” 过去几年中,在设计Tubettiland“OnlineCampaign”软件以及最近设计T ubettiworld游戏时,我已经收到了100多个来自各个年龄层的人们的询问,他 们询问如何设计游戏。询问者的年龄主要在13~40岁之间。大多数电子邮件来 自于一些孩子,我估计他们在10~20岁之间。 在回
  3. 所属分类:Delphi

    • 发布日期:2011-12-26
    • 文件大小:1mb
    • 提供者:fqfq123456
  1. 训练你的头脑到达顶尖效率的20种方法 和程序员的*之道来源: 杨志平的日志

  2. 训练你的头脑到达顶尖效率的20种方法 来源: 杨志平的日志 你是否感到越来越难集中注意力,或者难以进行心算?我希望你不要接受这么一种主张:随着年龄增长头脑的敏锐性必然会减弱。 许多事情能够导致头脑的工作效率下降,而且我喜欢称其中一个主要的因素为“使用它或者失去它”综合症。 这篇文章是《我的生活巨变》的杰夫 尼克尔斯写的报告。他的使命和他的博客的关注点是帮助人们找到生命中的成功和意义。杰夫是一位有深度的作家,我鼓励你读完后去拜访他。 杰夫用这份伟大的列表来帮助我们避免可怕的“使用它或者失去它”综
  3. 所属分类:其它

  1. Android推箱子游戏的毕业论文

  2. Android推箱子游戏的毕业论文: 基于Android的推箱子游戏的设计 摘 要 随着智能手机一步步走进普通人的生活,它将成为人们获取信息的主要设备。因此,手机的娱乐应用服务将会有很大的发展空间,游戏也是其中之一。本系统主要是实现基于Android的推箱子游戏,推箱子是一款来自日本的古老游戏,其设计目的是训练人的逻辑思维能力。游戏场景一般是设定在空间狭小的仓库中,要求把箱子摆放到指定位置。这就要求玩家巧妙的运用有限的空间和通道,合理的安排箱子的位置和移动次序才可能完成任务。随着计算机游戏的发
  3. 所属分类:专业指导

    • 发布日期:2013-04-15
    • 文件大小:1mb
    • 提供者:xp9802
  1. 小学语文汉字记忆训练系统正式特惠版 V5.1D

  2. 《小学语文生字记忆训练系统》用户使用说明 本软件是国家教育技术研究课题《现代教育技术条件下小学语文生字记忆训练研究》的组成部分,是我们自主研究开发的软件成果。 如何在信息技术条件下进行汉字的记忆训练? 信息技术条件下汉字的学习效率能否有新的突破? 在不断发展的信息技术条件下如何实现辅助汉字学习提高学习效率的软件功能? 希望能有更多的同仁参与我的研究,为中国汉字的教学,为中国文化传遍世界做出贡献! 小学语文生字记忆训练系统,是学习与记忆生字的最佳工具,家长老师的得力助手! 本软件是一款应用信息技
  3. 所属分类:教育

    • 发布日期:2013-11-30
    • 文件大小:11mb
    • 提供者:feixl88
  1. 用深度学习已训练好的小游戏

  2. 本资源为已经训练好的游戏模型,本领域的初学者可过来感受一下。代码为Python实现的。
  3. 所属分类:深度学习

    • 发布日期:2017-12-24
    • 文件大小:59mb
    • 提供者:wdz123123
  1. 超好的游戏 训练自己的编程思维 CeeBot4

  2. 进入游戏后 可以选择模式与剧情 比如在教学模式中 输入这样的语句 { grab(); move(5) drop(); } 就是拿起物体 移动5步 放下物体 游戏里的脚本 是一种类java的语句 用变量定义 循环 判断 等等
  3. 所属分类:Java

    • 发布日期:2009-02-07
    • 文件大小:289kb
    • 提供者:kenshin1987
  1. 菊安酱的机器学习第1期-k-近邻算法(直播).pdf

  2. k-近邻算法的课件。来自于菊安酱的机器学习实战12期的免费教程。内涵python源码。菊安酱的直播间: 我们已经知道k近邻算法的工作原理,根据特征比较,然后提取样本集中特征最相似数据(最近邻)的分类标签。 那么如何进行比较呢?比如表1中新出的电影,我们该如何判断他所属的电影类别呢?如图2所示。 电影分类 120 爱情片(1,101) 爱情片(12,97) 80 爱情片(5,89) 水弊 60 ?(24,67) 动作片(112,9 20 动作片(1158) 动作片(108,5) 0 20 60 8
  3. 所属分类:讲义

    • 发布日期:2019-07-27
    • 文件大小:847kb
    • 提供者:qiu1440528444
  1. AlphaZero技术实现的五子棋游戏

  2. 配合文章https://blog.csdn.net/askmeaskyou/article/details/108993981 的完整代码。AlphaZero技术实现的五子棋游戏,使用Tensorflow2实现神经网络,包含自对弈训练网络的Python代码但是没有训练好的模型,需要自己训练。单机训练需要的时间可能是按年计算(大约3700年)......当作教学代码阅读比较合适。
  3. 所属分类:深度学习

    • 发布日期:2020-10-15
    • 文件大小:18kb
    • 提供者:askmeaskyou
  1. slimevolleygym:用于单人和多人强化学习的简单OpenAI Gym环境-源码

  2. 史莱姆排球体育馆环境 史莱姆排球是由一位不知名的作家在2000年代初期创建的游戏。 “游戏的物理原理有点'狡猾',但其简单的游戏玩法却立即使人上瘾。” SlimeVolleyGym是一个简单的健身房环境,用于测试单人和多人强化学习算法。 游戏非常简单:代理人的目标是使球着陆在对手方的地面上,从而使对手丧生。每个特工从五个生命开始。当任何一个特工失去全部五个生命时,或者经过3000个时间步长后,情节结束。座席失去对手时会获得+1的奖励,而失去生命则会获得-1的奖励。 该环境基于我于创建Java
  3. 所属分类:其它

  1. aimTrainer:这是一个AimTrainer,它将帮助您在FPS游戏中获得更好的成绩-源码

  2. aimTrainer 这是一个AimTrainer,它将帮助您在FPS游戏中获得更好的成绩。 我相信这需要JRE / JDK 15,可以在这里找到: 项目名称: 目标训练师 项目目的: 使用屏幕周围的按钮来帮助您更好地进行有效且准确的单击。 作者: 高金森 用户说明: 运行罐子,然后按按钮。共享存储库! 版本 1.0 |第一和最后
  3. 所属分类:其它

  1. DartsDrill:Dart训练计划的多平台应用程序-源码

  2. Dart钻 tbd deploymentinfos也许还有问题tbd图标tbd下载按钮 DartsDrill是一款多平台Dart训练应用程序,可让您创建自己的训练计划并通过不同的练习和演练进行练习。 目录 基本信息 近年来,Dart飞速发展。 有许多用于计数和训练的应用程序,但是没有一个可以自己创建训练计划并长期改善游戏的机会。 DartsDrill是一款免费,无广告的开源应用程序,可在多个平台上运行,旨在帮助Dart玩家训练和扔出更好的Dart。 屏幕截图 技术领域 tbd Tech 1-版
  3. 所属分类:其它

    • 发布日期:2021-03-11
    • 文件大小:607kb
    • 提供者:weixin_42179184
  1. cardchain:CardChain是基于交易卡的平台,基于区块链技术和ERC-721不可替代令牌的接口。 用户可以购买,出售和升级可用于与其他玩家竞争奖品的游戏代币。 玩代币具有多种技能,可以通过升级来增加市场价值,并一对一地进行配对-

  2. 卡链 介绍 CardChain是基于交易卡的平台,基于区块链技术和ERF-721不可替代令牌的接口。 用户可以购买,出售和升级可用于与其他玩家竞争奖品的代币。 可以对令牌进行培训,以通过获得更好的统计数据和可能的其他津贴来增加其价值。 他们还具有多种技能,可以通过升级来一对一地进行比赛以增加市场价值和力量。 特征 玩家可以铸造并拥有自己的代币。 玩家可以在市场上列出代币。 玩家可以在市场上看到并购买支付标价的代币。 玩家能够训练其令牌以获得具有更好统计数据的新令牌。 入门 带有ganach
  3. 所属分类:其它

    • 发布日期:2021-03-01
    • 文件大小:305kb
    • 提供者:weixin_42121725
  1. 自动驾驶中的强化学习:从虚拟到现实

  2. 强化学习(ReinforcementLearning)是机器学习的一个热门研究方向。强化学习较多的研究情景主要在机器人、游戏与棋牌等方面,自动驾驶的强化学习研究中一大问题是很难在现实场景中进行实车训练。因为强化学习模型需要成千上万次的试错来迭代训练,而真实车辆在路面上很难承受如此多的试错。所以目前主流的关于自动驾驶的强化学习研究都集中在使用虚拟驾驶模拟器来进行代理(Agent)的仿真训练,但这种仿真场景和真实场景有一定的差别,训练出来的模型不能很好地泛化到真实场景中,也不能满足实际的驾驶要求。加
  3. 所属分类:其它

    • 发布日期:2021-02-24
    • 文件大小:408kb
    • 提供者:weixin_38597533
  1. EDAgame:在我们的大学中,我们参加了一项竞赛,该课程的所有学生都必须与AI进行竞争,以开发由老师开发的游戏-源码

  2. 电子游戏 在我们的大学中,我们参加了比赛,该课程的所有学生都必须与AI进行竞争,以开发由老师开发的游戏。 这是我的AI排在前10名(没有赢,但还不错)的AI。 它使用A *和经过遗传算法训练的神经网络,使用神经网络来实现这一目的完全过分且完全不明智。 这是我第一次实现这样的功能(我完全不知道通常如何实现神经网络,但是我知道矩阵乘法是一个很好的选择,而且很有意义),这也是我第一次使用搜索算法,例如dijkstra或A *。 我花了很多时间来构建它,但这是一个非常有趣的项目。 该代码本身并不起作
  3. 所属分类:其它

    • 发布日期:2021-02-14
    • 文件大小:1022kb
    • 提供者:weixin_42129300
  1. 自动驾驶中的强化学习:从虚拟到现实

  2. 强化学习(ReinforcementLearning)是机器学习的一个热门研究方向。强化学习较多的研究情景主要在机器人、游戏与棋牌等方面,自动驾驶的强化学习研究中一大问题是很难在现实场景中进行实车训练。因为强化学习模型需要成千上万次的试错来迭代训练,而真实车辆在路面上很难承受如此多的试错。所以目前主流的关于自动驾驶的强化学习研究都集中在使用虚拟驾驶模拟器来进行代理(Agent)的仿真训练,但这种仿真场景和真实场景有一定的差别,训练出来的模型不能很好地泛化到真实场景中,也不能满足实际的驾驶要求。加
  3. 所属分类:其它

    • 发布日期:2021-01-27
    • 文件大小:408kb
    • 提供者:weixin_38738506
« 12 3 4 5 »